De Forocoches a Twitter: el profesor que quiere prevenir el suicidio buceando en la Red
- José Manuel Gómez Soriano, experto en inteligencia artificial y procesamiento del lenguaje, dirige un proyecto de análisis de mensajes en foros y redes sociales.
- Así puedes saber si una persona sufre depresión: estas son las palabras que usa
- Así es la vida de la madre cuando se suicida un hijo con 19 años de edad
El suicidio es la principal causa de muerte no natural en España. Según los últimos datos del Instituto Nacional de Estadística (INE), 3.569 personas decidieron quitarse la vida en 2016. O lo que es lo mismo: casi 10 personas se suicidan cada día en nuestro país. Lo más grave es que, según distintos estudios, al menos el 50% lo hacen sin haber recibido ningún tipo de tratamiento ni haber sido atendidos por profesionales. Sin embargo, es muy posible que expresaran su agonía existencial a través de mensajes en las redes sociales o en foros.
Psicólogos y psiquiatras llevan años intentando descifrar el lenguaje que utilizan aquellas personas que tienen depresión y que pueden tener ideaciones suicidas. Además, grandes compañías como Facebook o Google han desarrollado algoritmos capaces de detectar conductas suicidas de sus usuarios. José Manuel Gómez Soriano, profesor de la Universidad de Alicante, experto en inteligencia artificial y en procesamiento del lenguaje, también está convencido de que esta tecnología puede ser una gran herramienta a la hora de detectar determinados patrones de comportamiento.
Por esta razón, Gómez lleva algún tiempo trabajando en una aplicación que pueda convivir con las leyes que velan por la privacidad de los usuarios en nuestro país y que detecte, analice, etiquete y organice mensajes que expresen sentimientos de tristeza, depresión o intenciones suicidas de forma anónima. Asegura que los temidos bots, más que una amenaza, pueden resultar una gran ayuda ante un drama que no mengua desde hace años.
¿Por qué alguien especializado en inteligencia artificial elige un área como la psicología y la prevención del suicidio?
No sé hasta qué punto es éticamente aceptable que vigilen y vean tus gustos y opiniones en internet con un bot. Así que yo prefería utilizar esta tecnología para abordar un problema social. Y el suicidio es uno de los mayores problemas que tenemos hoy en día entre los jóvenes. Es la principal causa de mortalidad en Europa. Las cifras son apabullantes y no hay nadie que esté tomando medidas contra esta lacra social, ya sea porque no saben, ya sea porque es un tabú, o porque desconocen cómo afrontarlo.
¿De qué forma puede ayudar la inteligencia artificial a prevenir el suicidio?
Hay un dato importante. El 50% de la gente que se suicida no ha acudido nunca a un profesional. Son personas a las que no llegamos. Suponiendo que consiguiéramos eliminar el suicidio de toda la gente que pide ayuda, aún quedaría un 50% de gente a la que no llegamos. Las personas que tiene problemas mentales utilizan a menudo las redes sociales para desahogarse o para expresar sus sentimientos.
Así que decidimos desarrollar un sistema informático para detectar textos en redes sociales que expresen ideas o tendencias de ideación suicida o de depresión. Un sistema automático enviaría un aviso de forma anónima a un profesional de la prevención y este profesional podría ver el mensaje totalmente anonimizado, de tal forma que no pudiera localizar a la persona. La idea es que este profesional pudiera contestar a ese mensaje para intentar que esa persona se pusiera en contacto con ellos y así ayudarle.
Es decir, que la iniciativa debe partir de la persona con una posible depresión o con ideaciones suicidas.
Claro. Con la ley de protección de datos no podemos dar los datos de una persona rastreada con un sistema automático a nadie. Ni siquiera a un profesional.
Compañías como Facebook o Google ya han implementado herramientas de este tipo. ¿Son efectivas?
No sabemos nada al respecto. Es secreto. Facebook está haciendo un experimento social sin ninguna evidencia de que eso funcione. Lo que hay detrás es un asesoramiento de expertos psicólogos conductistas, que sí se ha demostrado que funciona. Pero no sabemos si el propio bot funciona. Facebook confía en que funciona, pero ni ha dado datos ni hay estudios científicos al respecto. Pero es que dudo que pueda darlos, porque para saberlo tendría que conocerse la tasa de fallecidos. Esto es algo que debería hacerse en un ambiente clínico, con personas que han dado su autorización para ser monitorizados en redes sociales y sólo así, con un seguimiento médico, podríamos saber si funciona o no. Sería un tema bastante peliagudo.
Entonces tampoco es posible saber si vuestro sistema puede prevenir el suicidio.
Nosotros sí podemos probar que nuestro sistema detecta textos de personas con indicios suicidas de forma correcta. Facebook tiene muchos datos, y Google, aparte de un bot, tiene un sistema que permite denunciar mensajes de otros usuarios. Twitter también lo tiene. Instagram también. Cuando denuncias, alguien de Samaritans (el equivalente al Teléfono de la Esperanza en España) ve el mensaje e intenta ayudar. Si confiamos en que los servicios de prevención como el Teléfono de la Esperanza funcionan para prevenir el suicidio, es posible que avisando a través de un sistema como éste podamos obtener buenos resultados.
De todas formas, lo que nuestro sistema propone al final es que un profesional valore una serie de textos extraídos de las redes sociales, de ciertos foros donde se habla de problemas mentales o de suicidio. Dos criminólogas han analizado estos mensajes, buscando características comunes que permitan deducir si una persona puede tener una ideación suicida. Toda esa información se incluye en el sistema, que debe ser capaz de discernir entre textos con casos positivos, en los que hay ideación suicida, y casos negativos. Hemos tenido que rastrear un buen número de foros en los que se habla de estos temas y sólo el 30% de los mensajes que hemos obtenido son potencialmente ideaciones de suicidio.
¿Qué tipo de mensajes o qué pistas en el lenguaje nos indican que una persona puede querer suicidarse?
Utiliza una serie de términos muy determinados. Estas personas suelen utilizar muchos adjetivos, por ejemplo, pero también pueden llegar a insinuar que quieren regalar sus pertenencias. Si, efectivamente, dice que lo va a hacer, esa persona tiene un problema. Y hay que atacarlo. Hay una leyenda urbana que dice que el que avisa no se suicida. Es totalmente falso. La gente que lo dice, puede que no lo haga, pero mucha de la gente que lo dice, lo hace. Y aunque no lo haga, esa persona tiene un problema. La gente no amenaza con suicidarse si no tiene un problema.
¿Qué problemas plantea el derecho a la privacidad y la protección de datos? ¿En qué redes sociales o en qué lugares podéis bucear?
Los únicos lugares en los que podemos actuar son redes sociales abiertas. Twitter, por ejemplo, o foros que estén abiertos como Forocoches o 4Chan.
¿Habéis hecho cálculos de cuántos fallecimientos se pueden evitar? El suicidio es la primera causa de muerte en España desde hace 11 años. Más de 3.500 personas se suicidaron en 2016
Hay años en los que se ha llegado hasta a 3.900 muertes. No hemos hecho una estimación, pero sí es cierto que la penetración de las redes sociales en cada vez mayor. Todas las personas que tienen 30 años ahora tienen redes sociales. La penetración puede llegar hasta el 98% en estudiantes menores de 25 años. Lo que está claro es que podríamos llegar a una gran cantidad de personas porque no hay razón para que esas personas, cuando se hagan mayores, dejen las redes sociales. Y hay estudios que demuestran que tendemos cada vez más a dejar mensajes con nuestras expresiones o con nuestros deseos.
¿Es posible mejorar los modelos de Facebook y Google?
El problema de Facebook y Google es que confían demasiado en las máquinas. Yo estoy seguro de que Facebook, con la cantidad de datos que tiene, no ha puesto en marcha un sistema automático porque les llega muchísimo ruido. Estoy seguro de que lo habrán probado, pero no tienen un corpus de calidad, con un consenso entre anotadores bueno. Como no lo tienen, no lo hacen automático. Están pendientes de que el ser humano marque esos mensajes o que puedan detectarse a través de la palabra "suicidio". En Instagram, buscas "suicidio" y automáticamente aparece un sistema que te pregunta si estás pensando en suicidarte. Pero es por una palabra clave. Pero si pones "vaya mierda de vida, ya no lo soporto más", no lo va a reconocer. Además, el robot de Facebook sólo funciona en inglés. Nada impide que lo podamos extrapolar. Y nuestro sistema no es sólo en español, queremos hacerlo bilingüe, dándole prioridad al español.
[Más información: Así puedes saber si una persona sufre depresión: estas son las palabras que usa]