Aún no hemos acabado de decidir como tratar, o si realmente existe, la adicción a las redes sociales, y algunos investigadores ya están advirtiendo sobre que se acerca otra peor: la adicción a la IA. Tranquilos, nadie la ha diagnosticado aún, no tenemos adolescentes en alguna parte del mundo enganchados a una novia virtual tipo Her (que sepamos). Pero algunos usuarios ya lo están intentando con las asistentes que existen en la actualidad.

Los investigadores del Instituto de Tecnología de Massachusetts (MIT) Robert Mahari y Pat Pataranutaporn publicaban el pasado agosto un artículo en la revista MIT Technology Review donde se preguntaban, en el propio título, ¿Es la IA demasiado seductora? Hay que prepararse para la IA adictiva. En el texto, apuntan a un futuro de jóvenes adictos a unas aplicaciones de inteligencia artificial capaces de surtirles durante horas de sus contenidos favoritos y 100% personalizado.

"Hay muchas cosas preocupantes en la IA, y algunas son más fáciles de regular que otras", explica Mahari a ENCLAVE ODS a través de videollamada. "Están las que parecen ciencia-ficción, como la IA controlando el sistema eléctrico o fabricando armas por su cuenta; también las del mercado laboral o el peligro de que esta tecnología resuelva problemas con sesgos humanos como el racismo o el machismo…".

Pero, añade, "luego hay peligros menos visibles o espectaculares, como esa potencialidad adictiva. Porque por primera vez en la historia de la humanidad tenemos la capacidad de crear un tipo de contenido de ocio completamente personalizado e interminable".

Para Mahari y sus compañeros de investigación, la novedad de la inteligencia artificial en el entretenimiento es ese potencial de personalización hasta el detalle y sin fin. El ejemplo es claro: "Antes, si alguien tenía suficiente dinero, podía contratar personal suficiente como para que hiciese las películas que quería ver".

Aunque, claro, "era algo extremadamente caro y dilatado en el tiempo, no podías tener una película nueva exactamente como a ti te gusta cada día". Sin embargo, matiza: "Para algunas IA suficientemente potentes, eso sí es posible".

Cuando se le cuestiona que un contenido de ese nivel con calidad suficiente aún está lejos de ser universalmente accesible, el científico advierte que "la capacidad de que sea posible se acerca cada día". Porque, insiste, "no entendemos que la IA se alimenta de nuestras preferencias. Cada vez que la usamos, aprende".

Actualmente, añade, "sabemos que hay personas usándola para no sentirse solas. Hay personas teniendo conversaciones con chats de IA como si fuesen amigas… o, aunque el chat esté diseñado para evitarlo, intentando tener conversaciones de contenido sexual. Es el segundo uso más común en el mundo".

Redes y menores vulnerables

Desde España, Laura Cuesta, profesora de la Universidad Camilo José Cela y especialista en uso saludable de pantallas y adicción a internet, advierte que esta última, a día hoy, "no se reconoce como una patología clínica". No hay ninguna que "describa la adición al uso abusivo de internet, al igual que a las redes sociales o al móvil".

Algo que, alerta, "no significa, ni mucho menos, que un uso abusivo y desajustado de estas tecnologías no conlleve un riesgo y tengan unas posibles consecuencias en la salud emocional de la persona".

Añade que si la llamamos "conducta adictiva" u otro nombre, no importa. El caso es que "se generan problemas cuando una conducta que en principio era normal y adaptada, da un salto, y empieza a ser excesiva, compulsiva o a invadir y a afectar de forma significativa a la persona".

Cuesta ha trabajado en casos de adolescentes adictos a juegos de azar o apuestas deportivas y pone el foco en que no son conscientes de los riesgos que entraña: "En el caso de la IA, es necesario educar en cuanto a su realidad".

Y lo explica: "Que tengan claro que no es un simple buscador de información, sino una herramienta que predice respuestas con base en las indicaciones que le introducimos. Por tanto, por un lado, será fundamental por qué y para qué van a utilizarla, y, segundo, que lo hagan de manera consciente, haciéndoles ver las carencias que tiene".

Por su parte, Alfonso Ballesteros, profesor de la Universidad Miguel Hernández de Elche, experto en ecología de la atención y en filosofía del derecho, añade que "las redes sociales ya son IA adictiva". Asegura, además, que "el primer gran experimento mundial con la IA han sido redes. Y se ha hecho con nosotros". Pues "funcionan con algoritmos que influyen en el individuo a un nivel pre-reflexivo".

Añade que "aplicaciones como ChatGPT también generan dependencia. Todos los que se han habituado a trabajar con herramientas así, lo tendrán muy difícil para trabajar sin ellas a medida que pase el tiempo".

Coindice con los investigadores del MIT en que "las IA que aprenden y tienen voz y escritura de apariencia humanas representan una forma de manipulación muy peligrosa". Pues, explica Ballesteros, "si nos acostumbramos a bots complacientes que nos dicen lo que queremos oír, perderemos el placer de la conversación y la convivencia con los otros".

La inteligencia artificial, por tanto, según el profesor, "puede ahondar en la soledad masiva que ya arrasa nuestras sociedades en las que la conversación sin mediación de máquina languidece cada día más".

Desde EEUU, Mahari advierte de que "hay dos diferencias con las redes sociales" en la potencia adictiva de la IA. "Aunque parezca que hay una cantidad inacabable de vídeos de TikTok, no es real; los seres humanos los tienen que crear. Y no están tan personalizados. La IA, además, es mucho más interactiva que cualquier red social. Puede crear la ilusión de un diálogo y puedes construir una relación con ella".

Protección de datos

El investigador del MIT no quiere que se entienda que está contra los avances y recuerda que la IA es su área de trabajo. "Creo en el potencial de esta tecnología, pero también que no está exenta de riesgos. Escribo sobre ellos porque debemos reflexionarlos y pensar cómo afrontarlos. Porque igual esto afecta a un área de la vida, las relaciones íntimas, donde no queremos que el gobierno intervenga. Así que quizás somos los desarrolladores, o la sociedad, los que debemos hablar primero de ello".

Y advierte del peligro potencial de ese tipo de inteligencia artificial adictiva: "¿Y si alguien tiene acceso a tu IA y usa todo ese material sensible para chantajearte, o manipularte de alguna manera? No es solo que estés todo el día pendiente de ese contenido, es algo más". Para Mahari sería "llevar a otro nivel la manipulación actual que vemos en redes sociales".

Desde España, Ballesteros sentencia: "Creo que jurídicamente hay que reconocer nuevos derechos y tomar más en serio los ya reconocidos, como el secreto de las comunicaciones, la intimidad, la protección de datos… Y prohibir toda tecnología digital que no cumpla unos mínimos que exigimos en el mundo físico".

Y pregunta: "¿Por qué esa hiperregulación para el mundo físico y ese anarquismo para el mundo digital?". Ballesteros concluye: "Igual que un fabricante de coches ha de cumplir unas condiciones de seguridad a través de distintas pruebas, antes de lanzarlo al mercado, las tecnológicas deberían de hacer lo mismo. No debemos ser sus cobayas".