Logotipo de Google DeepMind

Logotipo de Google DeepMind Pixabay | Google El Androide Libre

Noticias y novedades

Internet se está llenando de noticias falsas y textos creados con IA: ahora, Google puede tener la solución

Publicada

La era de la Inteligencia Artificial ha llegado, estemos preparados o no. El lanzamiento de ChatGPT supuso un antes y un después para el sector tecnológico, que desde entonces ha abrazado la tecnología de la IA generativa y la ha aplicado a todo tipo de aplicaciones. El problema es que buena parte del uso de la IA es malicioso, y sus propias creadoras no parecen ser capaces de hacer nada para evitar este mal uso.

Desde el primer momento en el que ChatGPT estuvo disponible para el público, fue usado para crear textos de noticias falsas, propaganda política, 'phishing' y 'spam'. Estos textos falsos se han convertido en uno de los grandes problemas de la Internet moderna, y no parecía haber ninguna solución al respecto, teniendo en cuenta que los textos generados son cada vez más 'humanos' y con información más avanzada.

Ahora, Google afirma tener la solución. En concreto, se trata de la división DeepMind, dedicada a la investigación de IA, que ha publicado hoy un estudio en Nature en el que explica el funcionamiento de una 'marca de agua' para texto que, si se adopta, podría dejar en evidencia todas las creaciones falsas.

La idea de poner una marca de agua a un texto no es nueva, pero hasta ahora no se han aplicado en los principales modelos de lenguaje en los que se basan ChatGPT, Gemini y otras IA generadoras de texto; la falta de calidad y la computación adicional necesaria para implementar las marcas lo han evitado, pero ahora, los ingenieros de DeepMind creen haber encontrado la solución.

Se llama SynthID-Text, y es una herramienta basada en un nuevo algoritmo que aplica marcas de agua a texto generado por IA; para ello, en vez de insertar contenido en el texto final, el algoritmo se centra en aplicar un 'sesgo' a las palabras usadas por la IA. A simple vista, el texto cumplirá con las exigencias del usuario que haya pedido su creación, y eso evitará que los usos adecuados de la IA se vean afectados; pero con un programa, será posible detectar este sesgo y determinar si el texto ha sido creado con una IA.

Al obligar al uso de determinadas palabras durante la generación de texto, DeepMind asegura que se puede crear una 'firma' que pueden ser reconocida por un programa que analice el texto y las palabras usadas. Existen dos métodos para aplicar esta 'firma', de una manera que distorsiona la creación (que afecta a la calidad del resultado final) o bien por un segundo método que preserva la calidad del texto.

En las pruebas realizadas por los investigadores en modelos de lenguaje disponibles de manera pública, SynthID-Text fue capaz de mejorar la detección de texto creado con IA en comparación con los métodos ya existentes. Además, los investigadores analizaron 20 millones de respuestas del modelo de lenguaje Gemini de Google, y descubrieron que el segundo método no reducía la calidad de las respuestas que la IA daba a los usuarios. La última ventaja de SynthID-Text está en el coste computacional que tiene la herramienta, que fue 'neligible' en el estudio; eso hace que su implementación sea más probable, ya que se elimina una barrera importante (las compañías no quieren asumir el coste adicional de poner la marca de agua en el texto).

Sin embargo, aún no hemos llegado al punto en el que cualquier texto creado por IA pueda ser detectado. Los propios investigadores advierten que las marcas de agua de texto se pueden eliminar, simplemente editando el resultado que ofrece la IA antes de publicarlo. Pese a todo, DeepMind cree que este estudio demuestra la viabilidad de una herramienta que produzca marcas para contenido generado por IA, para mejorar la transparencia y asegurar un uso responsable de las IA.