Cuando los gobiernos aún no han dado con la fórmula para someter la producción de contenido en las redes sociales a un escrutinio público, un nuevo desafío fruto del incesante desarrollo tecnológico se cierne sobre nuestras democracias.
La nueva generación de inteligencias artificiales constituye la última fase de la frenética revolución digital característica del siglo XXI. Asistentes virtuales como ChatGPT son capaces de replicar la interacción humana y el lenguaje natural con una fidelidad pasmosa. Además de texto, estos modelos, desarrollados por la empresa OpenAI, pueden producir imágenes y vídeos con una apariencia sorprendentemente real.
En su nueva serie de entrevistas, este periódico está sometiendo a distintos líderes políticos al polígrafo de la inteligencia artificial (IA). La que publicamos hoy confronta a Inés Arrimadas con una fotografía generada por ChatGPT que simula un abrazo entre la expresidenta de Ciudadanos y Mick Jagger. Un encuentro que nunca se ha producido, pero que cualquier incauto podría haber confundido con una imagen real.
El propio ChatGPT certifica que "no hay una relación conocida entre Inés Arrimadas y Mick Jagger", aunque matiza que "es posible que hayan coincidido". La diputada naranja, muy elocuentemente, aclara que esto es lo que "en el ámbito jurídico, se llama prueba diabólica. ¡No puedo demostrar que no he tenido una relación con Mick Jagger!".
Este experimento, que puede parecer un inocente juego, en realidad apunta a una realidad inquietante. Porque con la inteligencia artificial generativa se va a tornar cada vez más difícil discernir la verdad de la mentira.
Como en el caso de Arrimadas, puede llegar un momento en el que imágenes comprometidas generadas por IA pongan a los individuos frente a algo parecido a las pruebas de agua o el resto de macabros procedimientos inquisitoriales de las cazas de brujas medievales. O sea, ante la tesitura de tener que probar algo imposible de probar. Demostrar que algo (incluso algo materialmente imposible) no ha ocurrido.
Por riesgos como este, son cada vez más las voces autorizadas que están expresando sus dudas sobre un desarrollo tecnológico que, pese a sus múltiples e indudables beneficios, plantea también una seria amenaza para la verdad tal y como la hemos conocido.
De hecho, casi 4.000 personalidades del mundo de la ciencia y las humanidades, incluido Elon Musk, han pedido en una carta abierta pausar cautelarmente el desarrollo del mercado de servicios de IA, ante la perspectiva de que las tecnologías de superinteligencia puedan incluso escapar al control de sus creadores.
Porque herramientas como ChatGPT son los heraldos de una nueva transformación social con un impacto político y económico sin precedentes. Y antes de que las empresas se entreguen ciegamente a la carrera de la inteligencia artificial, es necesario que los poderes públicos y la sociedad en su conjunto aborden una honda reflexión sobre las implicaciones de estos potentes ingenios.
Las nuevas tecnologías traen aparejadas toda una serie de problemas asociados a los sesgos de los algoritmos, los peligros para la privacidad de los usuarios o la vulnerabilidad frente a los ciberataques, por citar algunos de ellos.
Por eso, y en la línea de la normativa que la Unión Europea lleva impulsando desde 2018 con la intención de regular ChatGPT y el resto de inteligencias artificiales, los gobiernos deben dotarse de un nuevo marco jurídico para la era digital a partir de una estrategia común. Además, sería deseable que el Congreso de los Diputados albergase próximamente un debate sobre la inteligencia artificial.
Las consecuencias impredecibles de estas nuevas tecnologías (como su impacto en el mercado laboral o en la educación) exigen diseñar protocolos de seguridad y controles de transparencia análogos a los que se están empezando a aplicar a las Big Tech.
Ciertamente, los riesgos que trae la IA no son enteramente nuevos. Artificios como los llamados deep fakes, o fenómenos como las campañas de desinformación mediante las fake news en las redes sociales, ya han venido planteando una notable perturbación del proceso político en las democracias.
Sin embargo, avances como ChatGPT pueden llevar un paso más allá la crisis de confianza en las instituciones y en las autoridades epistémicas que atenaza al mundo occidental.
Porque hoy día una imagen vale más que mil palabras, sobre todo si la imagen es falsa. Y corremos el riesgo de arribar a un escenario donde los bulos y las imágenes falsas acaben provocando que ya nadie crea en nada, con las nefastas (y reales) consecuencias que esto implica para nuestros sistemas políticos.
Estábamos ya inmersos en la época de la llamada posverdad, en la que la verdad parecía importarle cada vez a menos gente. Ahora, la nueva generación de inteligencia artificial la va a devaluar aún más, dado que a estos sistemas, cuyo cometido es imitar, les trae sin cuidado que qué sea verdad y qué no. Pero, precisamente por eso, es ahora cuando se revaloriza el criterio humano para distinguir realidad de ficción.
En el nuevo reino de lo verosímil frente a lo verdadero, puede resultar imposible saber si algo ha ocurrido. De ahí que definir la gobernanza para la era digital sea una necesidad impostergable.