Joaquin Phoenix, enamorado de una inteligencia artificial en la película 'Her' (Spike Jonze, 2013)

Joaquin Phoenix, enamorado de una inteligencia artificial en la película 'Her' (Spike Jonze, 2013)

Software

Vinculan la soledad al uso negativo de ChatGPT: así afectan las emociones al empleo de la inteligencia artificial

Un estudio del MIT y OpenAI revela que un pequeño grupo de participantes se mostraron más receptivos a considerar a ChatGPT como un amigo.

Más información: De 'Terminator' a 'Her': así se está inspirando la industria tecnológica en la ciencia ficción para lanzar productos

Publicada
Actualizada

Películas como Her mostraron un futuro no muy lejano en el que la tecnología puede convertirse en un recurso fácil para quienes están pasando por periodos de soledad. Considerar a la inteligencia artificial como ChatGPT como un amigo y no como una herramienta sin sentimientos puede afectar de forma negativa a las personas. Así lo detalla un nuevo estudio realizado entre el MIT y OpenAI, empresa creadora de ChatGPT, el chatbot más conocido.

La IA de OpenAI puede simplificar la vida en muchos aspectos, ayudando en el trabajo o estudios, aportando información o, incluso, enseñando idiomas o temas complejos. Su integración con un sistema de voz natural ha mejorado el uso de este chatbot, pero lo acerca también a esa imagen futurista que la ciencia ficción lleva tantos años advirtiendo de sus peligros; una tecnología difícil de diferenciar de los humanos.

OpenAI y MIT Media Lab han colaborado en este estudio científico (pendiente de revisión por pares), que revela cómo la interacción con los nuevos chatbots puede afectar emocionalmente a algunos usuarios. Los efectos de la IA varían según cómo las personas eligen usar el modelo y sus circunstancias personales. Aunque los resultados del estudio revelan que la interacción emocional con ChatGPT es poco frecuente, el uso afectivo está presente en un pequeño grupo de usuarios del Modo de Voz Avanzado.

ChatGPT

ChatGPT Reuters /Dado Ruvic Omicrono

En primer lugar, el equipo de OpenAI realizó un análisis automatizado a gran escala de casi 40 millones de interacciones de ChatGPT sin intervención humana para garantizar la privacidad del usuario. Después, el equipo del Media Lab del MIT realizó un ensayo controlado aleatorio (ECA) con casi 1.000 participantes que utilizaron ChatGPT durante cuatro semanas.

Este estudio ha determinado que las necesidades emocionales de cada individuo pueden influir, así como la percepción que cada persona tenga de esta tecnología. "Las personas con mayor tendencia al apego en las relaciones y quienes consideraban a la IA como un amigo que podía integrarse en su vida personal eran más propensas a experimentar efectos negativos por el uso de chatbots", dice el informe del MIT.

"Las conversaciones personales se asociaron con mayores niveles de soledad", es decir, aquellas que incluían un mayor uso de expresiones emocionales por parte del usuario, así como de la IA generativa. No obstante, en un uso moderado se percibió menos dependencia emocional. "Por el contrario, las conversaciones no personales tendieron a aumentar la dependencia emocional, especialmente con un uso intensivo", añade el resumen del estudio.

Este trabajo, tal y como advierten sus investigadores, no saca conclusiones definitivas, pero sirve como paso inicial para comprender el impacto de los modelos de lenguaje natural en la experiencia y bienestar de los humanos ahora que se han integrado en el día a día de tantas personas.