La inteligencia artificial irrumpe en la psicoterapia: "Es muy peligroso si tienes pensamientos destructivos"
- En los últimos años han surgido chatbots que aseguran hacer psicoterapia y otros que se interesan por el estado mental del usuario.
- Más información: La burbuja 'irrompible' de la autoayuda en España: "El 50% son obviedades y el otro 50% son tonterías"
A Chat GPT le hemos preguntado prácticamente cualquier cosa en sus dos escasos años de vida. Esta inteligencia artificial (IA) promete tener respuesta para casi todo y resulta muy interesante para trabajar cuando tenemos una cantidad desbordante de datos. Ahora bien, también se anima a contestar nuestras preguntas más delirantes. Algunos, incluso, se han atrevido a pedirle que les diseñe un menú saludable o una rutina de entrenamiento para el gimnasio. Entre este último grupo de usuarios también están quienes le piden consejo psicológico o, directamente, una terapia.
"El problema con estas herramientas es que se basan en información indiscriminada de internet", explica Isabel Aranda, psicóloga y vocal de la junta de gobierno del Colegio Oficial de la Psicología de Madrid. "Pueden darte pautas generales, como 'haz ejercicio' o 'levántate temprano', pero estas no siempre son fiables. No son terapéuticas en el sentido profundo de la palabra, porque no generan el vínculo humano que es clave en la terapia". Chat GPT está diseñado para recomendarte un profesional o dejar de responder cuando se tratan temas ciertos delicados en este sentido, pero no todas las IA son así.
En estos dos años han surgido muchos otros chats con IA que son menos generales. Se han creado chatbots con una personalidad propia, que 'se interesan' por el usuario, le dan conversación y aconsejan, como Replika o Character.ai. Otros, directamente, se anuncian como chat de terapia, como Youper o Wysa. "Actualmente, la mayoría de las herramientas están enfocadas en la fase de tratamiento. Sin embargo, hace falta más investigación. Aunque existen herramientas desarrolladas por empresas, es necesario obtener evidencia empírica sobre su utilidad y cómo los usuarios las integran y responden a ellas", explica Miriam Romero, profesora de Psicología en la Universidad Europea.
Un peligro
Aranda, en este sentido, va más allá y sostiene que hacer terapia psicológica con una IA en la actualidad es "extremadamente peligroso". "En vez de ayudar a superar una situación, estos chats pueden hacerla crónica o generar dependencia al chat", afirma Aranda. "El problema de estas herramientas es que pueden dar la sensación de que estás recibiendo terapia cuando en realidad no es así. Te desahogas con ellas, pero no te ayudan a reestructurar tu pensamiento ni a desarrollar autonomía, que son objetivos en la terapia".
Ambas profesionales comentan el caso de un ciudadano belga que se quitó la vida el año pasado después de hablar de sus problemas de ansiedad con una IA. Según explicó la viuda, la IA terminó por animarle a suicidarse. Aranda explica que esto puede suceder porque las IA a día de hoy crecen "sin freno" y no se ponen como objetivo cuidar la vida humana. "Fue un caso mediático, es un riesgo real que destaca la importancia de tener un control ético sobre el uso de estos chats. Pero no debemos alarmarnos sin contexto", destaca Romero.
Esta profesora universitaria confiesa que la IA avanza muy rápido y no es fácil investigarla a la misma velocidad. "El hecho de que algunos chats de IA no respondan o recomienden un terapeuta cuando se habla de suicidio evidencia que hay personas que acuden a estas aplicaciones para hablar de su salud mental", sostiene Romero y apunta que por esta razón investigar la IA es una cuestión de ética. "Es peligroso acudir a estos chats para tratar cuestiones de salud mental sin una supervisión profesional, hay que avanzar con precaución".
La relación
Pero, ¿por qué algunas personas encuentran más cómodo abrirse con estas máquinas? Según Romero, estos chats plantean preguntas muy abiertas que invitan a que las personas den respuestas más amplias y, además, hacen sentirse a las personas escuchadas con las respuestas que ofrecen. Pero esto ya se observó con el primer chatbot que se creó en 1966, conocido como ELIZA y, precisamente, pensado hacer las veces de un terapeuta. "Su diseño incluía mensajes genéricos que daban la sensación de empatía, lo que facilitaba la comunicación", cuenta Romero.
Precisamente, se conoce como efecto ELIZA a la situación en la que una persona atribuye características humanas a la IA con la que está chateando. Romero sostiene que todavía queda mucho por estudiar en relación a si se crea un vínculo entre el humano y la máquina y en qué se diferencia exactamente en el que hay entre dos personas, sobre todo en una terapia. "Lo que sí se puede crear es una dependencia", resalta Aranda. "El chat no te cuestiona, sólo reafirma lo que dices, lo que puede ser peligroso si tus pensamientos son destructivos. Además, puedes aislarte de tus relaciones humanas, porque es más cómodo hablar con el chatbot que con personas que podrían confrontarte o hacerte pensar".
Para Aranda, la IA nunca podrá sustituir al psicólogo porque le falta "autonomía y espíritu crítico". Un terapeuta, sostiene, te ayuda a ser consciente de ti mismo y a cuestionar tus pensamientos para que puedas cambiar. La IA puede darte instrucciones, pero no se adapta a cómo te sientes ni ajusta su enfoque en función de tu progreso. La experta pone como ejemplo un caso de trastorno de la conducta alimentaria (TCA): si bien Chat GPT se atreve a hacerte una planificación para recuperarte en el plazo que le indiques, Aranda sostiene que es un problema que no puede abordar.
Su mejor tarea
"Los trastornos alimentarios son problemas complejos que requieren la implicación de todo el entorno de la persona, no basta con seguir una dieta. Necesitas apoyo familiar y social para cambiar hábitos. Un chatbot no puede manejar algo tan delicado. Un terapeuta humano puede detectar señales de alerta, pero un chatbot no. Peor aún, podría reafirmar esos pensamientos negativos", detalla esta experta. En cualquier caso, ambas consideran que la IA ha llegado para quedarse y que vale la pena encontrar la mejor manera de aprovecharla.
De hecho, ambas psicólogas trabajan con ella. Romero investiga en la Universidad Europea para integrar la IA en la evaluación de pacientes y también en formar terapeutas al usarse como un simulador de pacientes. "Soy partidaria de usarlas, no tiene sentido prohibirlas. Debe ser vista como como un asistente del psicólogo, como se hace en medicina con la detección de enfermedades. Este es un momento interesante para descubrir su impacto en muchas profesiones, pero también es importante estudiar cómo las personas la reciben".
Por su parte, Aranda considera que las IA pueden ser útiles como herramientas de apoyo para los psicólogos, como una aplicación que resume las sesiones y señala puntos clave. "Pero no sustituirán la terapia humana, que es esencialmente una interacción emocional y personalizada", apunta. La psicóloga asegura que el trabajo más burocrático que sigue a las sesiones de terapia pueden ser muy tediosas y sobrecargan de trabajo a estos sanitarios. En estas situaciones, sí parece que la IA irá cobrando cada vez más importancia.