¿La IA funciona como terapeuta?

Las herramientas de Inteligencia Artificial (IA) han comenzado a desempeñar el papel de psicólogos digitales en un mundo cada vez más digitalizado y en el que las relaciones socioafectivas de los usuarios han cambiado drásticamente.
En diversas redes sociales como TikTok e Instagram, usuarios han compartido videos cortos sobre “prompts” o instrucciones para hacer que plataformas como Chat GPT funcionen como psicólogo.
Entre estos prompts se recomienda a los usuarios pedir a la plataforma cinco preguntas para identificar los miedos que los frenan y cómo superarlos, o bien cinco cuestionamientos que les ayuden a conectar con su propósito y el legado que quieren dejar.
La usuaria de Instagram @holisticasoy recomienda también escribir en Chat GPT, por ejemplo, “Siempre me enfrento a [problema específico] en mis relaciones. ¿Qué patrones subconscientes lo causan y cómo cambiarlos?”, o bien cuestionar a la plataforma sobre “¿Qué hábitos mentales o patrones de pensamiento debo cultivar para alcanzar el éxito en [negocios, carrera, objetivos personales]?”.
Pero no sólo la plataforma creada por OpenAI es usada por los usuarios como terapeuta, Replika y Woebot Health son otras herramientas conversacionales de IA que funcionan para que las personas expresen sus emociones, busquen orientación emocional o simplemente se sientan escuchadas.
El influencer Tomás Mazza contó en una entrevista con el youtuber René ZZ que utiliza ChatGPT para desahogarse por las noches, con una conversación de 10 minutos, dijo, tiene suficiente para poder dormir.
“Me ayudó muchísimo a nivel emocional. Piensa que no es una persona, no es alguien que te quiera atrapar para seguir haciendo sesiones, como un psicólogo o psiquiatra, te escucha, está muy bueno, a mí me ayudó mucho”.
El influencer destacó que Chat GPT es una plataforma con la que lleva interactuando un año, al momento de la entrevista, y que aprende todo de él, desde su nombre hasta sus interacciones personales y sentimientos.
“Todo lo que tienes en tu cabeza y que te da miedo decir, díselas y ahí vas a entenderte. Yo me entendí un montón hablando con Chat GPT”, contó.
Un estudio realizado por un equipo de investigadores de OpenAI y el MIT Media Lab señala un “uso afectivo” de los chatbots motivado por necesidades emocionales o psicológicas, como la búsqueda de empatía, el manejo del estado de ánimo o la expresión de sentimientos.
Los usuarios, dice el documento, manifiestan buscar activamente soporte emocional o consuelo de un asistente de IA, lo que incluye compartir problemas personales o experiencias difíciles, debido a la confianza que les da la capacidad del chatbot para brindar apoyo y porque les resulta más cómodo que las interacciones con otra persona, como un terapeuta.
Juan Pablo Duque, investigador del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CIIECH) de la UNAM, contó que antes de Chat GPT y otras herramientas de IA ya existían los chatbots de salud mental, los cuales si bien, dijo, se utilizaban mucho, tenían muchas limitaciones.
De acuerdo con el especialista, el uso cada vez más común de estas herramientas para una consulta psicológica tiene que ver con su disponibilidad y la poca accesibilidad que hay en el país para acudir con un especialista.
“Hay que recordar que en México hay un psicólogo por cada 300 mil habitantes y que la prevalencia de enfermedades o de psicopatologías es muy alta, es decir, van en aumento la depresión y la ansiedad. Entonces, se conjuntan esta ausencia de servicios psicológicos con la posibilidad de que una herramienta, que no estaba pensada en principio para esto, se use por su disponibilidad”, destacó.
Duque añadió que en el caso de Chat GPT, esta plataforma tiene dos condiciones técnicas muy importantes para los usuarios, que es el hecho de que está entrenada con tantas bases de datos que es muy probable que arroje información que sí tenga algún sustento, además de que está programada para dar respuestas en primera persona, coherentes y es accesible, lo que atrae a las personas que están necesitadas de gestionar sus emociones.
Si bien estas plataformas no reemplazan la preparación de un profesional de la salud mental, su disponibilidad 24 horas los siete días de la semana, anonimato y ausencia de juicio las convierten en un recurso atractivo, especialmente para personas que enfrentan barreras económicas, sociales o geográficas para acceder a terapia tradicional.
No obstante, si bien las plataformas de IA pueden ofrecer alivio temporal o acompañamiento emocional, no deben reemplazar el tratamiento psicológico profesional.
“Una persona que tiene algún malestar puede usar la IA generativa o chatbots y atender ese malestar, pero no tiene una repercusión a largo plazo, es decir, no genera reestructuraciones cognitivas, esto porque las plataformas como Chat GPT están configuradas para ser muy condescendientes”, refirió Duque.
Para el especialista, estas herramientas sí sirven pero no para todo el mundo y bajo ciertas circunstancias, esto es, dijo, personas que tienen un padecimiento clínico mucho más marcado no recurren a los chatbots o a la IA; quienes tienen una depresión moderada, un malestar o tristeza, es decir, síntomas que, refirió, no tienen una repercusión clínica tan marcada, conductual y cognitiva, prefieren la atención con estas plataformas.
Las plataformas de IA se han popularizado entre la población que busca ayuda psicológica porque suelen ser empáticas y, al no tener una persona enfrente, los usuarios no se sienten juzgados.
“Hay conexión emocional porque la gente se siente escuchada , Estas plataformas están programadas para responder de forma empática y existe esa percepción por parte de los usuarios”, comentó a este diario Cimenna Chao, directora general de Planeación Estratégica e Innovación de la Universidad Iberoamericana.
La especialista en pedagogía y psicología destacó que ha destacado tanto el acompañamiento inmediato que estas plataformas dan en casos de crisis, que ya comienzan a surgir sitios basados en IA que están especializados a ciertos fenómenos, como Violetta, que da asesoría puntual en violencia de género.
Chao destacó que estas herramientas, a diferencia de un profesional de la salud mental, tienen bajo costo, por lo que democratizan el acceso al apoyo emocional.
“Además hay una interacción muy interesante que sucede con estas plataformas, ya que ante la ausencia del juicio humano se percibe como una interacción segura, que no es amenazante para el usuario y eso permite que exista una mayor apertura emocional”, subrayó.
No obstante, la especialista subrayó que existen riesgos asociados a la propia tecnología, como el hecho de una falta de regulación clínica, lo que no garantiza que las respuestas que dan ante una crisis sean apropiadas ni clínica ni éticamente, lo que se traduce en un riesgo de que la persona tome al pie de letra lo que le dice esta plataforma.
Los especialistas recordaron que las plataformas de IA se alimentan y aprenden de la información que los mismos usuarios suben a ellas, por lo que un comportamiento o comentario recurrente puede ser tomado por el chatbot como positivo, cuando no necesariamente es así para una persona.
Existe el riesgo de que los usuarios reciban consejos no apropiados o malinterpretaciones, especialmente si confían ciegamente en las respuestas generadas por algoritmos.
Empresas tecnológicas han respondido a esta tendencia incorporando advertencias, recordatorios de que la IA no es un profesional de la salud mental, y enlaces a líneas de ayuda en caso de crisis.
Si bien la IA está redefiniendo la manera en que las personas buscan apoyo emocional y ganan terreno como acompañantes digitales, aún están lejos de sustituir el vínculo terapéutico humano.
Para Chao, es importante siempre mantener la perspectiva de que una IA, por mucha que sea su capacidad de conversación o comprensión lingüística, no tiene comprensión de las emociones.
En ese sentido, dijo que si bien estas herramientas pueden funcionar como un primer acercamiento a la ayuda emocional, siempre será importante buscar a un profesional de la salud mental si el usuario no siente que avanza en su malestar.
“El vínculo sobreviene no sólo del lenguaje, sino de la corporización, del acercamiento, del roce, el saber que el otro siente lo que siento”, concluyó.