Una app ha conseguido hacer realidad el sueño de mucha gente: ver a sus famosos y famosas favoritos en escenas pornográficas. Y es que los humanos a veces somos criaturas muy simples.
A finales de 2017 nos hacíamos eco en Omicrono del uso de aprendizaje automático para cambiar la cara de una persona en vídeo, con una calidad sorprendente; en su momento era un aviso de lo que estaba por llegar, una advertencia de que dentro de nada no íbamos a poder creernos nada de lo que viésemos.
La app para crear vídeos falsos usa aprendizaje automático
Desde entonces, ha pasado poco más de un mes, y la tecnología ha evolucionado a un ritmo impresionante. Tanto, que se ha formado una enorme comunidad en reddit llamada r/deepfakes (NSFW) en honor al creador de este sistema; en apenas un par de semanas, ha atraído a decenas de miles de usuarios, por un buen motivo: casi todos los post consisten en porno, principalmente de actrices famosas en escenas de sexo.
Deepfakes, el usuario, ha lanzado un programa llamado FakeApp, que facilita hasta cierto punto la creación de vídeos falsos en los que podemos cambiar la cara de las personas que salen; sigue siendo un proceso complicado y largo, que implica usar CUDA y obtener las caras que queremos intercambiar. Además, necesitamos un ordenador potente (preferiblemente con gráfica Nvidia por aquello de usar CUDA), y mucho espacio en disco.
La app nos permite entrenar a una Inteligencia Artificial usando aprendizaje automático, para que encaje la cara que queramos en el cuerpo de nuestra elección.
Cuanto más tiempo lo dejemos procesando, y más y mejores sean las muestras, mejores serán los resultados; hasta el punto de que los mejores vídeos falsos son prácticamente indistinguibles de la realidad. Aunque en los peores, el vídeo resultante puede ser toda una pesadilla de caras malformadas. Incluso después de cinco horas de pasadas, se siguen viendo fallos y errores gráficos.
La red se llena de vídeos falsos, y empieza a ser un problema
Pese a estos inconvenientes y dificultades, la comunidad ha respondido con una gran cantidad y variedad de vídeos porno falsos. Estrellas como Katy Perry, Natalie Portman o Scarlett Johansson ocupan los primeros puestos de los post más votados; no son ellas, por supuesto, pero para una mente calenturienta es mas que suficiente.
Y aunque muchos vídeos incluyen una marca de agua de FakeApp, muchos usuarios no la incluyen, por lo que podrían compartirse como vídeos reales.
La velocidad a la que la comunidad ha adaptado esta tecnología da miedo; y según el creador de FakeApp, esto es sólo el comienzo, ya que pretende lanzar una versión mucho más fácil de usar.
Y no hablamos sólo de porno. También hay demostraciones como esta, en la que se mezcla la cara de Adolf Hitler con la del presidente argentino Mauricio Macri. El potencial para crear “fake news”, noticias falsas, es tremendo, y es prácticamente seguro que será usado en propaganda política.
Probablemente estamos ante el comienzo de una oleada de vídeos falsos, superando incluso a lo que es posible en las grandes producciones de cine.
Noticias relacionadas
- Tomar curvas peligrosas con la moto será menos peligroso con esta IA avisándonos
- El cofundador de Siri se une al equipo de Sherpa, el asistente inteligente español
- En Japón ya tienen "consignas para redes sociales", que te bloquean la cuenta el tiempo que quieras desconectar
- Por primera vez, un servicio de música online promete la calidad de sonido de los máster