El concurso Deepfake Detection Challenge lanzado por Facebook convocó a 2.000 equipos que pudieron probar sus modelos de detección de rostros falsos e imágenes manipuladas, utilizando para ello herramientas de deep learning, sobre una base de datos única creada expresamente para el evento. El resultado no deja de ser preocupante: el equipo que consiguió el mayor número de aciertos se quedó en un 65% de eficacia. Un desafío para la comunidad de inteligencia artificial.
En septiembre de 2019 Facebook, la Asociación sobre IA, Microsoft y académicos de la Universidad Técnica de Munich, la Universidad de Nápoles Federico II, Cornell Tech, MIT, la Universidad de Oxford, UC Berkeley, la Universidad de Maryland, College Park y la Universidad de Albany – SUNY lanzaron este reto, una iniciativa abierta y colaborativa para estimular la creación de nuevas tecnologías innovadoras para detectar las falsificaciones y los medios manipulados.
Arrancó con unos 4.000 vídeos para analizar, pero en diciembre del pasado se amplío con un nuevo paqueta de vídeos para el entrenamiento de las herramientas de más de 115.000 vídeos, creados para este desafío, en el que participaron más de 2.100 equipos que presentaron un total del 35.000 modelos de detección de rostros en marzo de este 2020, cuando finalizó el reto. El objetivo es
Ahora, tras anunciar los ganadores el pasado mes de junio, la organización va a someter a prueba la base de datos, en código abierto, para que otros investigadores de inteligencia artificial puedan usarlos en su investigación: en total 3.500 actores y 38,5 días de datos, disponibles en el segundo semestre de este 2020.
"Modificamos los videos usando una variedad de diferentes modelos de generación de deepfake, técnicas de refinamiento como la mejora de la imagen y aumentos y distractores adicionales, como el desenfoque, la modificación de la velocidad de fotogramas y las superposiciones", explican desde la organización. El objetivo era hacer que el conjunto de datos fuera representativo de la variedad de cualidades y métodos adversos que podrían ocurrir en los videos del mundo real compartidos online.
- rn
- rn
- rn
- rn