El otro día recibí un meme que decía: "La imagen de Godzilla que se ha publicado es falsa. Difundir para no generar pánico". Después de reírme, me paré a pensar: ¿por qué es gracioso? Básicamente, porque se trata de una reducción al absurdo del problema de los bulos y las noticias falsas. La situación se ha agravado tanto, que hasta hay un bulo que acusa a los medios de verificación de manipular contenidos.
Habría que sufrir una alarmante falta de criterio para creerse que la ilustración de una criatura fantástica insertada cutremente en el fondo de una ciudad refleja un suceso real. Sin embargo, ante un bulo relativamente plausible, el sesgo de confirmación nos hace dar más peso a la información que valida nuestras propias creencias. El problema es que, más allá de los mecanismos cerebrales de los que se aprovechan quienes difunden mentiras, la tecnología plantea un peligro aún más grave sobre lo que es real y lo que no.
Podría decirse que Photoshop fue la primera gran herramienta que amenazó con destruir la línea que separa la realidad de la ficción. Prueba de ello han sido los escándalos asociados a medios de comunicación que han manipulado las fotografías de sus portadas. Así que tiemblo al pensar qué pasará cuando las tecnologías capaces de adulterar audios y vídeos se vuelvan masivas. Porque, por si aún no lo sabe, ya es posible falsificar contenido audiovisual con resultados increíblemente realistas gracias a la inteligencia artificial (IA).
"El hecho de que históricamente hayamos podido confiar en los vídeos como prueba de que algo ha sucedido no ha sido más que un golpe de suerte", advirtió ya en 2017 el investigador de Google Brain Ian Goodfellow, famoso mundialmente por haber creado las redes generativas antagónicas (GAN, por sus siglas en inglés).
Gracias a esta técnica de IA, puede ver a Obama diciendo que "el presidente Trump es un completo idiota". Y la única razón por la que el actual mandatario de EEUU no entró en cólera al enterarse es porque el vídeo es lo que ya se conoce como ultrafalsificación, o deepfake.
Para que se haga una idea de los riesgos a los que nos enfrentamos con las GAN, una start-up capaz de diseñar falsificaciones de voz afirma que podría recrear la de cualquiera. Repito, la de cualquiera. Obviamente, para que falsifiquen la de uno mismo, los manipuladores deberían tener acceso a suficientes grabaciones de nuestra voz, algo poco frecuente para la mayoría de los mortales. Pero, piense en el peligro que supone para los líderes políticos y sociales, como Obama, cuyas voces y rostros están ampliamente disponibles por internet.
Y la cosa no acaba aquí. Lo peor de las tecnologías capaces de manipular contenidos audiovisuales ya no son las falsificaciones en sí mismas, sino su capacidad de hacer que acabemos cuestionándolo todo. Son varios los expertos que advierten de que el mayor peligro no es que un contenido falso se vuelva viral, sino que la información real sea acusada de ser falsa. Imagine que se filtra una grabación con un gran escándalo político, pero, en lugar de generar consecuencias, el protagonista del vídeo se limita a afirmar que se trata de un deepfake.
El mayor peligro no es que un contenido falso se vuelva viral, sino que la información real sea acusada de ser falsa
Si todavía no tenemos criterio suficiente para cuestionar cualquier información aleatoria que nos llega, ¿cómo vamos a ser capaces de abordar las ultrafalsificaciones? Como siempre, la clave está en la educación, y no solo de la sociedad general, sino también la de los propios periodistas, responsables de aclarar qué es real y qué no antes de que llegue a la gente.
Pero dado que las redes sociales y los servicios de mensajería pueden seguir difundiendo bulos independientemente de lo que digan los medios, es necesario que nos paremos a pensar algunas cosas como: ¿Cuál es la fuente del contenido? ¿Qué intereses podría haber detrás de esta información? ¿Es un contenido que tiene lógica y sentido o simplemente me lo creo porque reafirma aquello que yo ya pensaba? Estas preguntas no garantizan que siempre vayamos a ser capaces de distinguir lo real de lo falso, pero sí nos ayudarán a tener un poco más de criterio, el mismo que utilizamos para no creernos que Godzilla está invadiendo las calles.