Una de las principales herramientas para identificar vídeos ultrafalsos creados mediante inteligencia artificial es ser capaz de detectar las señales "chivatas" de la fisiología humana que las máquinas aún no han aprendido a reproducir, explicó a Efe un experto en este campo.
Ante la alarma generalizada por estos vídeos en los que se modifican imágenes de forma sintética para, por ejemplo, poner en boca de un político algo que este jamás ha dicho, el director de Ética y Gobierno en la Iniciativa de Inteligencia Artificial de Harvard-MIT, Tim Hwang, recetó recurrir a las señales "chivatas".
"Por ejemplo, las caras en los vídeos ultrafalsos pestañean con menor frecuencia que en el mundo real", dijo Hwang a Efe, y explicó que eso se debe al hecho de que en el aprendizaje automatizado -la técnica usada para modificar estas imágenes- se entrena a los sistemas con datos que, en muchas ocasiones, son sesgados.
"Para hacer un vídeo ultrafalso del expresidente de EEUU Barack Obama o del actual presidente, Donald Trump, normalmente se recurre a muchas imágenes de internet, en las que estos rara vez aparecen con los ojos cerrados. Por tanto, lo que el sistema aprende es a producir imágenes de Obama o Trump con los ojos abiertos, en las que apenas pestañean", apuntó el experto.
Estas señales "chivatas" son sesgos en los datos de origen con los que se "enseña" a los sistemas de aprendizaje automatizado que no capturan todos los detalles fisiológicos de los seres humanos y que permiten, si se observan las imágenes con atención, distinguir un vídeo real de uno ultrafalso.
"La tecnología de detección de ultrafalsos es muy buena. Puede que este no sea un problema tan grande como la gente cree", indicó Hwang, aunque alertó de que ni las técnicas de detección ni las que buscan engañar "serán siempre perfectas", por lo que en su opinión la lucha contra los ultrafalsos será "una carrera armamentística en permanente cambio".
Uno de los escenarios hipotéticos que más alarma ha generado es el de que estos vídeos manipulados sean usados para propagar desinformación en la previsiblemente crispada campaña de las elecciones presidenciales en EEUU el año que viene, especialmente tras las injerencias por parte de "hackers" rusos en la de 2016.
Al planteársele esta posibilidad, el director de Ética y Gobierno del proyecto impulsado por las universidades de Harvard y el MIT -Massachusetts Institute of Technology- indicó que, en su opinión, se ha sobredimensionado este riesgo, ya que quienes se dedican a propagar información falsa son "gente pragmática" cuyo objetivo es crear la mayor cantidad de contenidos con el menor esfuerzo.
"Eso se puede hacer, por ejemplo, escribiendo mensajes de texto o manipulado imágenes con Photoshop. Todavía resulta mucho más fácil crear información falsa que no requiera aprendizaje automatizado como en el caso de los ultrafalsos. Por eso creo que veremos mucho más estas técnicas en lugar de los exóticos ultrafalsos", apuntó.
Durante los últimos meses se han popularizado en internet vídeos manipulados con esta técnica de figuras públicas de toda índole: desde políticos como Trump, Obama y la exsecretaria de Estado Hillary Clinton hasta actores como Nicolas Cage y empresarios de la industria tecnológica como Elon Musk (Tesla) y Mark Zuckerberg (Facebook), entre otros.
"Creo que las personas seguirán siendo las responsables en última instancia de determinar qué es real y qué no lo es, pero las plataformas tecnológicas deberían ponérselo fácil", dijo el experto ante la posibilidad de que los ultrafalsos ganen cada vez más presencia online.
Para ello, sugirió que las compañías de internet como Facebook, Twitter o Google "den el primer paso" y expliquen al internauta que, en base a los análisis de sus sistemas y a otros casos detectados, un contenido determinado es susceptible de haber sido generado sintéticamente, aunque la decisión final de compartir o no ese contenido recaerá sobre el usuario.
"Los ultrafalsos son muy buenos creando mejores marionetas, pero no necesariamente mejores marionetistas. Se puede hacer que Trump diga algo de forma muy creíble, pero ningún sistema de aprendizaje automatizado puede determinar qué es lo que Trump debe decir para que el contenido suene creíble", remachó el experto. EFE