Detectar que imágenes y contenido han sido generados por alguna herramienta de inteligencia artificial se ha convertido en una urgencia a la hora de luchar contra los contenidos falsos que se están usando en internet para manipular a la población. La guerra entre Israel y Hamás es el centro de este debate actualmente, donde se han puesto en duda la veracidad de las fotografías de los bebes asesinados por Hamás, que Israel ha compartido. Sin embargo, las herramientas de detección creadas hasta el momento no han aportado altos niveles de precisión, algo que sí asegura haber conseguido OpenAI con su nueva herramienta.
Mira Murati, directora de tecnología de OpenAI, empresa creadora del popular chatbot ChatGPT y el generador de imágenes DALL-E, dijo el martes que su herramienta para determinar si una imagen ha sido generada por la IA es "99% confiable". Esta herramienta, según detalle Bloomberg, se está probando internamente para más adelante lanzarla públicamente.
El boom generado por las inteligencias artificiales generativas en el último año ha propiciado la creación de numerosas plataformas, trucos y herramientas para verificar la procedencia de los contenidos que circulan por la red. La propuesta más reciente es de Adobe, que, junto a compañías como Microsoft (también socio de OpenAI), han lanzado una marca que pretenden que sea universal para identificar a todas las imágenes creadas artificialmente. Esta marca se integraría en los metadatos para dificultar su alteración.
Detectando IAs
OpenAI, empresa de Sam Altman, ya intentó desarrollar un test para reconocer aquellos textos fabricados por su chatbot, ChatGPT. Sin embargo, el proyecto quedó archivado por ofrecer resultados poco confiables. Ahora la compañía promete ser más precisa, según ha indicado Murati junto a Sam Altman en la conferencia Tech Live del Wall Street Journal en California.
Las marcas de agua o los detectores son las armas con las que la industria quiere aportar confianza al uso de la IA frente a las numerosas alertas y críticas recibidas por sus usos negativos: tanto la creación de fake news y desinformación, como la lucha con los artistas por su propiedad intelectual.
OpenAI aún no ha indicado cómo funciona su detector de IA, si podrá analizar todas las imágenes de la red o solo reconocerá las creadas por su propio generador de contenido, DALL-E. Este sistema incluía en cada foto una pequeña muesca en la esquina, pero en las nuevas generaciones ese detalle se ha eliminado, aunque la compañía afirma en su web estar" experimentando con un clasificador de procedencia, una nueva herramienta interna que puede ayudarnos a identificar si una imagen fue generada o no por DALL-E 3".
Alucinaciones y chips propios
En esta conferencia, ambos directivos han tratado otros temas como la posibilidad de erradicar las alucinaciones de modelos de lenguaje natural como GPT-4, que nutre a ChatGPT. Las alucinaciones son aquellos detalles que el chatbot se inventa sobre cualquier tema durante la conversación. En la conferencia se le preguntó si esas falsedades ya no se producirían en próximas actualizaciones como el esperado GPT-5, a lo que contestó que "quizás". "Hemos avanzado mucho en el tema de las alucinaciones con GPT-4, pero no estamos donde necesitamos estar", aclaró.
Otra cuestión planteada recientemente, es la intención de la compañía de producir sus propios chips para los ordenadores donde entrenan sus grandes modelos de IA. Una estrategia que les permitiría no depender de Nvidia, actual gigante del sector. La compañía aún no habría tomado una decisión en firme como reflejan sus declaraciones. "El camino predeterminado ciertamente sería no hacerlo", dijo Sam Altman, "pero nunca lo descartaría".
También te puede interesar...
- Fake news de Israel en Twitter (X): la UE exige medidas rápidas a Musk contra la desinformación
- Así es el Merkava IV, el implacable tanque israelí que atraviesa blindados y destroza búnkeres a 8 km
- Twitter (X) ya no muestra el titular y solo deja ver la imagen de los tweets en los enlaces compartidos