La inteligencia artificial, ¿amiga o enemiga?. Las nuevas tecnologías están lejos de suponer un riesgo real 'mortal' para la humanidad como sucedía en la película de 'Terminator'. Sin embargo, hacer un mal uso de estas herramientas puede hacer incluso que parezca que alguien ha dicho algo que en realidad nunca afirmó. ¿Podríamos distinguir un discurso político creado a través de IA de uno real?
La generación de noticias o contenidos falsos con la finalidad de difamar -los bulos que se reenvían por Whatsapp, o los perfiles que divulgan mentiras en redes sociales- es ahora mucho más sencilla con esta tecnología y se convierte en una herramienta de manipulación política mucho más potente con la generación de vídeos falsos.
Las imágenes falsas generadas por inteligencia artificial de Pablo Iglesias y Yolanda Díaz cogidos del brazo en medio de la tensión entre sus partidos o de Emmanuel Macron manifestándose contra su propia reforma de las pensiones son algunos de los ejemplos de los riesgos que entraña para la credibilidad en política este avance.
Si bien la IA puede agilizar determinados trabajos en campaña, como redactar programas políticos o enviar correos electrónicos, también entraña riesgos para el debate público, sobre todo por la generación de contenido falso y la suplantación de identidad, como apunta en una entrevista con EFE el experto en inteligencia artificial y director de proyectos de Lãberit, Ismael Estudillo.
El propio director general de Open AI, empresa desarrolladora de ChatGPT, afirmó el pasado martes en una comparecencia ante el Senado de Estados Unidos que "esta tecnología puede causar un daño significativo al mundo; si algo va mal, puede acabar muy, muy mal", una opinión que, en el ámbito político y en España, Estudillo comparte pero matiza.
Hasta ahora, explica, la inteligencia artificial se ha usado para embarrar el debate político sobre todo a través de la generación de noticias falsas, de imágenes como las de los dirigentes de Sumar y Podemos o del presidente francés y de la generación de ultrafalsos o 'deepfakes', vídeos manipulados que parecen reales.
"El objetivo es sustituir lo que dice el político por lo que se pretende que escuche el usuario final", afirma el especialista en tecnologías inmersivas, que apunta que los riesgos crecen, pero también empiezan a surgir los primeros algoritmos de detección y las primeras leyes regulatorias.
Presentadores virtuales
Como explica Estudillo, ahora no solo se puede poner por escrito una declaración falsa, sino que se puede hacer que sea el político difamado el que la pronuncie de viva voz, gracias a la generación de vídeos y audios, con los que se le puede hacer actuar o hablar como se quiera.
El director de proyectos de Lãberit no tiene constancia de que esto haya ocurrido todavía en la política española, pero sí existen ejemplos recientes en otros países, como las imágenes falsas del expresidente de los Estados Unidos Donald Trump siendo detenido por la Policía o los falsos informativos con presentadores creados por inteligencia artificial para desinformar sobre la situación económica de Venezuela.
La suplantación de identidad es otro de los riesgos que percibe el especialista: ya se han hecho virales vídeos de "deepfake" de los actores Keanu Reeves o Margot Robbie, cuyas réplicas digitales hablan o bailan, por lo que Estudillo considera que esa misma tecnología se podría emplear para generar declaraciones falsas de un político y hacer que diga lo que no ha dicho.
'Reescribir la historia'
Lo que los usuarios deben entender, afirma el experto, es que los modelos de lenguaje como ChatGPT, con los que se puede "mantener una conversación" y que pueden generar textos, no son un buscador: "No son la verdad, son una ayuda".
"Igual que cuando buscas algo en internet no te puedes quedar solo en la entrada de la Wikipedia, no puedes fiarte de la información que te da ChatGPT sin contrastar", apunta, y advierte que el resultado que da el "chatbot" depende de con qué y cuánto contenido ha sido entrenado, y que este puede no estar completo o totalmente actualizado.
Pero los errores de la IA no son el peligro más grande, sino que, para Ismael Estudillo, este reside en la posibilidad de "reescribir la historia".
Cree que las predicciones del fundador de Microsoft, Bill Gates, de que en 18 meses se podrá educar utilizando esta tecnología no son descabelladas, y se pregunta "qué podría pasar si la gente aprendiera con una inteligencia artificial que se ha nutrido de información falsa".
En este sentido, advierte de la amenaza de que se "enseñara" a la IA con un relato falso de la historia de España que, por ejemplo, legitimara la violencia terrorista, o falseara los hechos relativos a la Guerra Civil o el franquismo y que esta tecnología se empleara después con fines educativos.
"Quien sepa hacerlo puede crear la historia que quiera, y un partido o grupo político que sepa manejarlos podría entrenar a estos modelos para que incidan en todo lo bueno que han hecho", alerta.
Pero no todo son amenazas, según Estudillo, que reconoce las ventajas que tiene usar la inteligencia artificial en el trabajo diario de una campaña electoral.
"En realidad, fueron diseñadas para agilizar los procesos, y eso es lo que pueden hacer: redactar propuestas políticas en diferentes formatos, programar y enviar 'mailing' o incluso generar cartelería con programas de generación de imágenes", detalla.
Regulación y futuro
Estudillo cree que la comercialización de nuevas IAs vive ahora cierto "parón", a la espera de la próxima legislación de la Unión Europea, del mismo modo que en España se ha registrado en el Congreso una proposición de ley de regulación de las simulaciones de imágenes y voces generadas por inteligencia artificial.
Lo que se conoce del posible contenido final de ambas regulaciones es que incluirán la obligación de indicar explícitamente qué contenidos se han generado digitalmente, pero para Estudillo "la gente no lee, y si pones la imagen grande y la advertencia en una esquina, primará el impacto visual".
En cuanto a la posibilidad de sancionar el mal uso de la IA, asegura que "no hay que regularla en el algoritmo, hay que regularla en la base: regular los datos, la información, que se usa para entrenarla".
En las perspectivas de futuro de la inteligencia artificial, el director de proyectos de Lãberit reconoce el "miedo a Skynet", la IA que lidera a las máquinas en Terminator, pero cree que la realidad está lejos de esa predicción.
"Sí que se podría programar una Inteligencia Artificial para que gestionase cosas, y es cierto que todo lo programable o automatizable de un gobierno lo podría hacer, como ejecutar un presupuesto sin salirse de los límites o evitar el endeudamiento, pero siempre tendrá que haber un persona detrás para entrenarla", concluye.