MADRID, 19 (Portaltic/EP)
Facebook ha dado más datos acerca del vídeo publicado por el responsable del tiroteo en Christchurch (Nueva Zelanda), que informan que este fue visto unas 4.000 veces antes de su eliminación, cifra que incluye las menos de 200 reproducciones activas durante la retransmisión en directo.
La red social asegura que sigue trabajando con las fuerzas de seguridad para eliminar cualquier rastro de este vídeo o de otros que contengan "discurso de odio o incitación al terrorismo", y aunque la Policía neozelandesa ha pedido a la red social que oculte ciertos detalles, como parte de la investigación en curso, otros han sido compartidos por esta a través de la página de noticias oficial.
En concreto, la compañía señala que el vídeo de la retransmisión llegó a tener 4.000 visualizaciones antes de ser retirado. Asimismo, ha eliminado 1,5 millones vídeos a nivel global en las primeras 24 horas, y más de 1,2 millones de esos vídeos fueron bloqueados cuando aún estaban siendo cargados.
El vídeo fue visto menos 200 veces durante su reproducción en directo. Aún así, el primer usuario que informó de la existencia del vídeo lo hizo 29 minutos después de que empezara la retransmisión, lo que supone que el directo había terminado hacía 12 minutos.
Antes de que Facebook fuese alertado de la existencia del vídeo, un usuario del portal web 8chan publicó un enlace a una copia del vídeo presente en un sitio de archivos compartidos.
El vídeo original fue eliminado de Facebook Live y troceado para poder facilitar la detección de cualquier contenido similar tanto en Facebook como en Instagram, donde también han sido borradas las cuentas del sospechoso y cualquier otro perfil impostor similar a este, que seguirán siendo eliminados en el caso de localizarse.
Sin embargo, la compañía informa que algunas variantes, como las grabaciones de pantalla, son más difíciles de detectar, por lo que ha tenido que expandir esta función a sistemas de detección adicionales, incluido el uso de tecnología de audio.
Desde el ataque Facebook ha estado en contacto directo con organizaciones miembros del Foro Global de Internet contra el Terrorismo (GIFCT, por sus siglas en inglés), y ha compartido más de 800 vídeos relacionados con el ataque a través de su base de datos colectiva, junto con las URL y el contexto de sus enfoques de cumplimiento.
Facebook identifica los tiroteos como "ataques terroristas", lo que significa que "cualquier elogio, apoyo y representación" de los mismos viola sus "estándares comunitarios" y "no está permitido en la plataforma". Además, la compañía está analizando el contenido abusivo presente en otras redes sociales para evaluar si podría trasladarse a cualquiera de sus sitios web.
La compañía asegura que seguirá trabajando por localizar contenido peligroso que viole sus normas y políticas, y continuará informando sobre cualquier novedad relativa a estos atentados.