Esta IA es capaz de pasar los gestos faciales de una persona a otra
Investigadores han creado una IA que copia gestos faciales, que los hace indistinguibles de la realidad incluso para el ojo más entrenado.
5 junio, 2018 20:33Noticias relacionadas
- Tomar curvas peligrosas con la moto será menos peligroso con esta IA avisándonos
- El cofundador de Siri se une al equipo de Sherpa, el asistente inteligente español
- Intel crea un "cerebro" digital con 8 millones de neuronas, imitando a los nuestros
- Encontrar a perros perdidos usando fotos de sus hocicos ya es una realidad en China
Una nueva era de vídeos falsos está a punto de empezar, gracias entre otras cosas a una IA que copia gestos faciales.
Dentro de nada no nos podremos creer nada de lo que leamos, escuchemos, o incluso veamos con nuestros propios ojos; ya es posible crear “fakes” muy convincentes, tanto que son usados políticamente. Pero eso no es nada comparado con lo que nos espera.
El desarrollo de un equipo de científicos de EEUU, Reino Unido, Francia y Alemania demuestra que dentro de nada, nos podrán engañar hasta con gestos faciales. La red neuronal que han creado es capaz de traspasar gestos faciales de una persona a otra, a partir de un simple vídeo.
La IA que copia gestos faciales nos hace dudar de la realidad
La IA apenas necesita unos minutos de vídeo para comprender cómo son las caras de las personas objetivo, y qué tiene que hacer para modificar la imagen para que parezca que están haciendo un gesto concreto.
Puede fijarse en los movimientos de la cabeza, de los músculos de la cara, e incluso en el movimiento de los ojos; y es capaz de tener en cuenta detalles que a simple vista se nos pasarían por alto, como la iluminación y las sombras.
De esta manera, el sistema es capaz de trasladar movimientos y gestos que hace una persona, a otra persona que aparezca en otro vídeo. Desde la manera en la que movemos la cabeza, hasta los pestañeos o ticks nerviosos.
Los resultados son sorprendentes. En el vídeo publicado, los investigadores consiguen que personalidades famosas muevan sus caras al igual que el ejemplo mostrado; incluso es capaz de funcionar sobre el mismo vídeo, y los resultados son indistinguibles de los movimientos originales.
Por si solo, este avance ya nos hace imaginarnos vídeos falsos de políticos o personas famosas haciendo gestos impropios; pero su aplicación maliciosa podría ir mucho más allá. Recordemos a FakeApp, un programa capaz de suplantar las caras de las personas que aparecen en un vídeo.
Con este tipo de herramientas, sería posible crear vídeos falsos potencialmente incriminatorios, o devastadores para la fama o las aspiraciones de una persona. Sus propios creadores son conscientes de ello, y por eso han decidido publicar los resultados: para que todo el mundo sepa de las posibilidades de las nuevas técnicas de manipulación y puedan prepararse contra ellas.