La IA entre el periodismo veraz y la desinformación: la tecnología del lenguaje natural como herramienta
El Centro de Inteligencia Digital de la provincia de Alicante (CENID) y El Español analizan el presente y futuro de la elaboración de contenidos.
1 marzo, 2023 06:20Los problemas éticos y disfuncionalidades de la aplicación de las tecnologías de Inteligencia Artificial en la elaboración de contenidos informativos y periodísticos son ya una realidad. El auge del sistema ChatGPT-3 durante los últimos tiempos ha generado todo tipo de usos. Algunos, no siempre encaminados a los principios tradicionales de la distribución de información: veracidad, precisión; imparcialidad y responsabilidad.
El Centro de Inteligencia Digital de la provincia de Alicante (CENID) y El Español De Alicante celebraron ayer en el Parque Científico de la UA la I Jornada sobre Tecnologías del Lenguage e Inteligencia Artificial. Un debate de expertos sobre todos estos aspectos del periodismo precedido de una conferencia del CEO de Vandal y director El Español De Alicante, De Málaga, Quincemil y Treintayseis, Pablo Grandío.
[CENID Alicante presenta su tecnología anti-fake news ante Confederación de Sociedades Científicas]
Durante más de dos horas, Manuel Palomar, IP de NL4DISMIS; Celia Sánchez, CEO of 1MillionBot (Artificial Intelligence ); Rafael Muñoz, secretario de CENID; y Andrés Montoyo, investigador del NL4DISMIS, abordaron junto a Grandío la aplicación de las tecnologías de Lenguaje Natural (TL) y la Inteligencia Artificial (IA) a los procesos de información, desinformación y falta de información en los medios de comunicación.
NL4DISMIS responde a las siglas "Tecnologías del lenguaje aplicadas a la Dis y Mis Information", un proyecto científico enmarcado en el programa PROMETEO de la Generalitat Valenciana para grupos de investigación de excelencia. Tal y como explicó Palomar al inicio del encuentro, desde diferentes ámbitos el proyecto se fundamenta en la existencia de una relación directa entre el uso del lenguaje humano y el comportamiento del usuario en los medios digitales.
En este sentido, modelando el lenguaje utilizado dentro de una contextualización en diferentes niveles lingüísticos, podemos establecer la relación entre diferentes entidades, así como la evolución de estas entidades y sus relaciones a lo largo del tiempo.
Responsabilidad
Grandío hizo un repaso por los diferentes modos en los que ya se está aplicando la IA al ámbito periodístico, algunos de los cuales calificó de "catastróficos", ya que de forma interesada distribuyen información sesgada cuando no falsa con un determinado objetivo. Así, puso como eje fundamental de este la "responsabilidad" de quien la elabora y distribuye, el medio de comunicación.
Sin embargo, la IA aplicada al periodismo no siempre tiene que observarse como una amenaza ya que permite hacer cosas que antes no se podían hacer, como por ejemplo mejorar imágenes con poca resolución, traducir o resumir textos, mejorar la ortografía o moderar los contenidos u opiniones de los usuarios, detectando a través del lenguaje ideas racistas, homófobas o insultos. Además de optimizar tareas no creativas y administrativas tangenciales al periodismo propiamente dicho.
"El problema llega cuando se plantea dejar a la IA a las manos del volante", en clara referencia a la creación de contenidos por parte de la máquina. Grandío explicó que por el momento esta tecnología no es del todo fiable en la corrección de textos "ya que se toma licencias" ni es un "documentador" seguro porque sigue cometiendo errores. No obstante, esta tecnología sí permitirá analizar de un modo más rápido y fiable el tráfico de noticias en Internet o rastrear que tipo de contenidos son más demandados por el lector. Así, la IA por el momento no debería superar las funciones propias de una "supersecretaria" para convertirse en un auténtico "periodista".
En este sentido, se plantean dilemas éticos frente a la perspectiva no tan futura de que las redacciones de los medios de comunicación se conviertan en el lugar de trabajo no ya de periodistas, sino de controladores de un "ejército de becarios compuesto por sistemas de inteligencia artificial". ¿Hasta que punto es posible que la IA sea relativamente objetiva o se adapte a sesgos como la línea editorial del medio, al estilo del periodista o incluso al gusto del consumidor de la información?
Economía de la verdad
Todos estos aspectos de la IA nutrieron el debate posterior en el que Palomar introdujo el objetivo fundamental del proyecto NL4DISMIS para detectar la información falsa en internet a través de las TL. Un reto que no sólo tiene que ver con hallar la información falsa sino también con la "economía de la verdad", cuando el emisor del mensaje de forma interesada omite partes de la verdad en su información.
Celia Sánchez ahondó en la idea de la "responsabilidad" apelando a qué tipo de contenidos necesitamos como sociedad y qué tipo de regulaciones se están haciendo sobre "una realidad que ya está aquí". Un problema internacional que no sólo puede controlar España o Europa, ya que se está produciendo software en países con muchas menos prevenciones legales, recordó Grandío.
Se trata de un problema complejo en el que Sánchez introdujo otra variable, que es la forma de consumir noticias por parte de los lectores, incluyendo a aquellos que buscan reafirmar sus ideas previas o tener más argumentos para justificar lo que ya creían previamente. Sánchez apeló a la "alfabetización digital" para superar este tipo de periodismo tecnológico.
[Alicante tendrá su cartera digital para garantizar la seguridad de los datos]
Por su parte, Rafael Muñoz se centró en el modo en que evolucionará la IA y la transferencia de conocimiento entre un sistema como chatGPT-3 y su inmediato sucesor, chatGPT-4, con 100 veces más capacidad, con cambios en su "arquitectura".
El proyecto de CENID parte del hecho de que la IA es una "red neuronal" de aprendizaje. Por esta razón, Andrés Montoyo, incidió en el enorme recorrido de la tecnología para la optimización de tareas. Para ello, el proyecto NL4DISMIS desarrolla diferentes especializaciones y tareas para los sistemas, por capas, que permiten que la IA desarrolle unas capacidades específicas gracias a que previamente se le ha aportado información muy precisa sobre el ámbito estudiado.
Fue en este punto en que Palomar recordó cómo ha evolucionado el software en las últimas décadas mientras que el hardware lo ha hecho de un modo mucho más lento. Una tendencia que puede invertirse en los próximos meses y años y que generará una serie de oportunidades, retos y también amenazas para las que necesitamos un análisis exhaustivo en el que las TL natural tienen un campo de investigación ingente.