Portada

Psicóloga advierte sobre el peligro de usar ChatGPT como terapia

La inteligencia artificial, como ChatGPT, se ha convertido en los últimos años en una herramienta popular para resolver dudas, buscar consejos y hasta para desahogarse. Sin embargo, los expertos advierten que usarla como “psicólogo” puede ser riesgoso.

La reconocida psicóloga Vero Marcos habló sobre esto en una entrevista reciente, en donde explicó que cada vez son más las personas, sobre todo adolescentes, quienes usan la inteligencia artificial para hablar de sus problemas emocionales o incluso hasta para “autodiagnosticarse”.

Según la psicóloga, por muy avanzada que sea la tecnología, nunca podrá reemplazar la calidez, el apoyo y la comprensión que puede ofrecer un ser humano.

“ChatGPT nunca podrá superar el corazón, alma y espíritu de una persona. Un humano sí te entiende, te escucha y te aconseja desde la experiencia y los estudios, no solo desde datos y estadísticas”, afirmó.

También señaló que depender de la IA puede ser peligroso, porque sus respuestas se basan en información general y no en un análisis personalizado para cada persona.

“El problema es confiar en un robot. Un ser humano no es solo un número. Hoy vivimos con prisa y queremos todo inmediato, pero esa inmediatez puede afectar nuestra salud emocional”, agregó.

Finalmente, la psicóloga recordó que el idealizar a alguien o algo (como un chatbot) puede aumentar la angustia y la inseguridad.

Artículos Relacionados

Back to top button