Cuando las imágenes con IA entran en la guerra: el bebé israelí quemado que divide a los expertos
Herramientas de detección de IA y expertos en la materia difieren del origen de una de las imágenes más crudas del conflicto entre Israel y Hamás.
16 octubre, 2023 11:26La guerra entre Israel y Hamás se libra también en internet. A los hackeos realizados por bandas de cibercriminales se suman las fake news difundidas en las redes para generar mayor caos entre la población, un peligro por el que la Unión Europea ha pedido medidas más contundentes a Elon Musk. El conflicto se ha iniciado cuando las herramientas de IA generativa están al alcance de todo el mundo, propiciando la duda sobre la mayoría de las fotografías que llegan desde la guerra. Una fotografía ha generado más debate que el resto.
Una de las informaciones de la guerra más cuestionadas ha sido los 40 bebés decapitados por parte de Hamás, que Israel ha denunciado internacionalmente. Ante la demanda de pruebas, Israel compartió en sus redes sociales una imagen sobrecogedora de lo que se entiende que es un bebé carbonizado. La cuenta de Twitter oficial del primer ministro del país, Benjamín Netanyahu, también la publicó en esta plataforma, pero la noticia aún no ha sido confirmada.
Ante la imagen, que fue igualmente publicada por un comentarista judío de Estados Unidos, Ben Shapiro, empezó a circular por las redes la idea de que sería una fotografía generada por inteligencia artificial. Esta posibilidad cobró más fuerza después de que Jackson Hinkle, con medio millón de seguidores en Twitter (ahora X) analizará la imagen en la herramienta gratuita AI or Not, de la empresa Optic.
¿Real o no?
Esta herramienta ha sido creada para detectar contenido generado artificialmente por las diferentes IA generativas. En concreto, el sistema consideró que la imagen publicada por Israel era falsa, como se puede ver en este tuit de Hinkle. La idea de que cuentas oficiales de Israel están difundiendo información falsa ha corrido como la pólvora entre los más críticos con su gobierno. Sin embargo, no todos están de acuerdo con el análisis aportado por la IA de Optic.
Hany Farid, profesor de UC Berkeley y experto en imágenes manipuladas digitalmente afirma al medio 404 que la imagen no muestra ningún signo de haber sido creada por la inteligencia artificial. Farid afirman que la imagen contiene detalles del mundo real que aún se les resisten a los generadores de contenido.
Se centra en la forma de las estructuras y las líneas rectas como los de la pata de la mesa. También las sombras serían un indicativo de que la instantánea es real y no una creación artificial. No obstante, no solo cuenta la palabra de este experto, el investigador ha pasado la foto por otras herramientas de detección de imágenes de IA entrenadas con un gran número de muestras, las cuales han decidido que se trata de un contenido capturado por una cámara real.
[Fake news, manipulación y hackeos: cómo ChatGPT es un "profundo riesgo para la Humanidad"]
"Es necesario razonar sobre la imagen en su totalidad. Cuando miras estas cosas, es necesario que haya una serie de pruebas. No puedes simplemente presionar un botón para obtener una respuesta. Así no es cómo funciona. No es CSI", explica Farid a 404. Por el contrario, este especialista no se atreve a determinar lo que muestra la fotografía. Si se trata o no de un ser humano, debería decidirlo un forense, sugiere Farid.
Otras escenas del conflicto han pasado también por el examen de la IA para conocer si se trata de un contenido falso o real, como la que muestra el cuerpo sin vida de un periodista palestino. Imagen propiedad del New York Times que habría conseguido un 52% de probabilidades de ser o no real.
Frenar la desinformación
Las principales herramientas generativas han ido tomando medidas para evitar que sus plataformas se usen para crear imágenes peligrosas o engañosas. Algunas añaden marcas de agua y la mayoría bloquea algunas peticiones o palabras clave. También han surgido muchos sistemas de detección de IA, tanto para texto escrito por la tecnología como para imágenes, aún así no cuentan con un alto porcentaje de acierto.
Adobe ha propuesto recientemente una marca de agua que se integra en los metadatos del contenido para dificultar que cualquier borre ese identificador de la procedencia del contenido. Pretenden que sea universal y más herramientas lo usen. Mientras, son las redes sociales las que tienen la obligación por ley de moderar su contenido.
Redes sociales como Twitter son la autopista perfecta para distribuir esta información confusa y no siempre cierta. La Unión Europea ya ha exigido medidas a Elon Musk por la desinformación que genera su red social, ahora llamada X. Linda Yaccarino, CEO de X, asegura que están eliminando decenas de miles de mensajes sobre el conflicto, así como vinculadas a Hamás. La plataforma también da prioridad a las notas aplicadas por los usuarios de su comunidad que añaden comentarios a los mensajes publicados dando contexto o desmintiendo detalles de la información compartida.