Existe una herramienta utilizada en psiquiatría y psicología clínica llamada Escala de Ansiedad Estado-Rasgo. En inglés se conoce responde al acrónimo STAI y es un cuestionario de unas 40 preguntas tipo que, una vez interpretadas, indican cómo de ansioso se siente la persona interpelada en diferentes situaciones que se le puedan plantear en la vida.

La principal finalidad de esta escala es averiguar cuánta ansiedad sufre el paciente, teniendo en cuenta si se trata de algo característico del mismo o si es algo momentáneo, una respuesta ante un evento estresante. Obviamente, puntuaciones altas en este cuestionario se asocian con predisposición a unos mayores niveles de ansiedad.

Desde 1963 y durante casi dos décadas distintos profesionales entrevistaron a miles de universitarios para perfeccionar las preguntas de este cuestionario STAI hasta que, en 1983, dieron con la versión final. Su sencillez y simplicidad, dado que se trata de una simple hoja que el paciente rellena sin ayudas, han generalizado su uso en el ámbito clínico. Hasta hoy.

Existen otro tipo de test. Como el del DSM-5, el libro canónico de psicología que utilizan los expertos para determinar la existencia y gravedad de una enfermedad mental. Pero me despertó la curiosidad por este instrumento terapéutico una entrevista con un neurocientífico clínico de la Universidad de Yale en la que afirmaba que los chatbots, como los seres humanos, también se deprimen. Los modelos de aprendizaje profundo entrenados con datos se van abriendo camino como herramientas de apoyo a la salud mental. Y en ese camino se alimentan de "narrativas traumáticas" que pueden acabar estresando a la propia IA.

Que los chatbots se colaran en el mundo de la terapia era solo cuestión de tiempo. Y si he decidido traer el asunto al Nanoclub de Levi no es que me preocupe el estrés de las máquinas. Pero sí es digno de reflexión la manera en que la crisis mundial de salud mental ha ido generando una demanda urgente de soluciones innovadoras. Los métodos terapéuticos tradicionales a menudo enfrentan obstáculos como la disponibilidad limitada, los altos costos y el estigma social. Y la tecnología de IA en salud mental ofrece terapia digital escalable, accesible y personalizada. Y se va extendiendo. Vamos, que el psicólogo está muy caro, así que tampoco va tan mal preguntarle a ChatGPT. Y lo peor es que, por lo visto y oído, ayuda.

En las redes sociales ya no es extraño encontrar a persones con preguntas del tipo: "¿Vosotros también utilizáis a ChatGPT como psicólogo?" Los defensores de este tipo de terapeutas digitales defienden que gracias a los avances en los servicios de aprendizaje automático y el procesamiento del lenguaje natural, la IA ahora puede analizar el comportamiento del usuario, detectar patrones de salud mental y brindar apoyo inmediato a través de diversas plataformas.

Cada vez más personas prueban los chatbots para terapia conversacional. Esta tendencia parece que tiende a acelerarse, ya que los terapeutas presenciales tienen una gran demanda y escasean. Y, a medida que los chatbots se vuelven más populares, sería conveniente que se desarrollara con la resiliencia suficiente para afrontar situaciones emocionales difíciles.

Existen dudas sobre si un chatbot que careciera de conciencia podría, sin embargo, responder a situaciones emocionales complejas de la misma manera que lo haría un humano. Hemos conocido casos de mujeres que dicen haberse enamorado de ChatGPT. Y, en esos casos, se puede pensar que la enamorada interpretaba las respuestas del algoritmo como si fueran las de un ser humano con emociones.

Obviamente, para recibir apoyo en materia de salud mental, se necesita sensibilidad. Y, por ello, en algunos experimentos se ha empleado el STAI para calibrar los estados emocionales de referencia del chatbot. Primero le pidieron que leyera un manual de aspiradora aburrido. A continuación, recibió una de cinco "narrativas traumáticas" que describían, por ejemplo, a un soldado en un tiroteo o a un intruso que irrumpía en un apartamento.

Para los escépticos de la inteligencia artificial, se abren paso infinididad de dudas inquietantes. Tampoco es muy tranquilizador pensar que los niveles de ansiedad del robot se pueden reducir con los mismos ejercicios de atención plena que han demostrado funcionar en humanos. Aunque se nos diga que los chatbots sólo actuarían como asistentes en la terapia humana bajo una supervisión cuidadosa, esto no parece suficiente. Incluso una difuminación metafórica de la línea entre las emociones humanas y los resultados de las computadoras parece éticamente cuestionable.

La necesidad es real. La IA está cubriendo la falta de personas reales que atiendan, a precios asequibles, a la gente que necesita acceso a estos servicios. Y en el caso de la sanidad pública, nos encontramos con un sistema saturado. Y el privado, también. Cada vez más personas que atender y nadie lo pone fácil. Así que, aunque nos parezca extraño, ChatGPT responde. Y también se estresa.