Durante años se advirtió del peligro de la inteligencia artificial generativa y su capacidad de producir desinformación, ahora el lobo está llamando a la puerta y pilla a la industria tecnológica sin herramientas para hacer frente a esta situación. OpenAI ya está abriendo el acceso a su software para reconocer el contenido creado por su popular generador de imágenes, DALL-E. Aún en fase de pruebas, esta herramienta puede identificar correctamente el 98,8% de imágenes creadas por este generador.
La empresa de Sam Altman compartirá su detector de falsificaciones con un pequeño grupo de investigadores centrados en la desinformación que circula por la red para probar la herramienta en el mundo real, informa The New York Times. Este equipo de desarrolladores identificará donde debe mejorarse el sistema para ser más preciso, aunque al basarse en probabilidades, nunca llegaría ser del todo certero.
Tanto en Estados Unidos como en otras regiones del mundo, incluida la Unión Europea y España, este año tienen lugar numerosos procesos electorales, especialmente vulnerables a la desinformación masiva e hiperealista que generan las nuevas IAs. De ahí que las principales empresas tecnológicas inmersas en esta carrera se hayan comprometido a ofrecer detectores de contenido creado por las máquinas.
La empresa de Sam Altman solo es capaz de reconocer los dibujos o imágenes generados por su propia IA. No sería, por lo tanto, compatible con los contenidos creados por otras herramientas como Midjourney o Stability.
Algunas de las propuestas que han surgido en los últimos meses son la de Adobe, que, junto a compañías como Microsoft (también socio de OpenAI), han lanzado una marca que pretenden que sea universal para identificar a todas las imágenes creadas artificialmente. Esta marca se integraría en los metadatos para dificultar su alteración.
OpenAI también planea incorporar las credenciales digitales de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) en imágenes generadas por Dall-E este año. Actualmente, Microsoft, Amazon, Adobe y Getty también están trabajando con C2PA para combatir la desinformación.
OpenAI, ya intentó desarrollar un test para reconocer aquellos textos fabricados por su chatbot, ChatGPT. Sin embargo, el proyecto quedó archivado por ofrecer resultados poco confiables. Además de texto y fotos, OpenAI también cuenta con Sora, un generador de videos que ha dejado a todo el mundo sorprendido por su realismo.
En paralelo a los detectores de contenido ya generado, las diferentes empresas ponen límites al uso que se puede hacer de sus herramientas para evitar que se difundan imágenes falsas que comprometan a personas reales, principalmente famosas. Sin embargo, los usuarios han demostrado en numerosas ocasiones que es posible saltarse ese bloqueo.