Las fotos íntimas publicadas sin permiso de Facebook desaparecerán con una IA
Facebook promete que una IA se encargará de detectar las fotos íntimas publicadas sin permiso de la red social y así moderarlas.
15 marzo, 2019 15:08Noticias relacionadas
- Tomar curvas peligrosas con la moto será menos peligroso con esta IA avisándonos
- Cuando veas porno vigila la puerta... y la privacidad: Google y Facebook saben lo que ves
- El cofundador de Siri se une al equipo de Sherpa, el asistente inteligente español
- Intel crea un "cerebro" digital con 8 millones de neuronas, imitando a los nuestros
No hay que avergonzarse de admitirlo; la mayoría de nosotros hemos mandado fotos algo más privadas de lo que a muchos les gustaría. Sí, hablamos de los famosos nudes, que son una fuente de agresiones a la privacidad personal por parte de algunos indeseables. Estas fotos íntimas publicadas sin permiso son todo un peligro y se usan usualmente para vengarse de personas, provocándoles un calvario difícil de superar.
Facebook cree que esto es importante y ha prometido que lanzará una nueva herramienta que se valdrá de la inteligencia artificial para detectar este tipo de fotos y removerlas de inmediato del sistema.
La IA y Facebook evitarán esas fotos íntimas publicadas sin permiso
Este sistema estará activo tanto en Facebook como Instagram y se tendrán que reportar por parte de los usuarios este tipo de fotos. Este sistema, dice Facebook, apoyará mejor a las víctimas marcando estas fotos y vídeos y eliminándolas de la red. Así lo ha hecho saber la misma Facebook en un post de su blog. Según el responsable global de seguridad de Facebook:
“A menudo las víctimas temen las represalias por lo que se muestran renuentes a informar el contenido por sí mismas o desconocen que el contenido haya sido compartido”. El nuevo sistema de Inteligencia Artificial significa que dicho contenido se puede encontrar y enviar a moderadores humanos “antes de que alguien lo reporte”.
Aunque es cierto que el miedo por las represalias o la vergüenza de estas situaciones motiva a que estos casos no se denuncien, que Facebook vaya a dejar en manos de un algoritmo un asunto tan delicado nos escama. Ya hemos visto los problemas que ha generado su tremenda fobia a los desnudos y al contenido “sexual”, y teniendo en cuenta que el término en el que se basaría el algoritmo es bastante ambiguo, no nos da muchas esperanzas. Nos referimos al concepto de “imágenes íntimas sin consentimiento”.
Según un informe de The Asssociated Press, el sistema no sólo mira las imágenes, sino el título que las acompaña- Si el texto contiene “palabras despectivas o vergonzosas” significaría probablemente “que alguien subió dicha foto para avergonzar o buscar venganza en la otra persona”. Esta medida es claramente insuficiente para atrapar al responsable de lo que se conoce como “pornografía de venganza”.
Facebook ya dijo al medio The Verge que se esforzarían por incluir un nuevo programa llamado “no sin mi consentimiento”, que ayudaría a mejorar estas herramientas de reporte y responder las peticiones de eliminación con más velocidad. A estas promesas se le une otra de mejorar el filtro de IA y extender este sistema a más países. Este no está exento de polémica; el programa permitirá a los usuarios enviar imágenes y vídeos que se sospechen que se compartirán en Facebook primero. Facebook bloqueará dicho contenido para que nunca se cargue en la red, pero no dejamos de estar dando esas fotos íntimas a Facebook primero.
Sí, este sistema es preciso, muchísimo más que un filtro automático. Pero obviamente a nadie le gusta la idea de compartir nudes a Facebook para evitar que estos salgan en la red. De hecho, no son pocos los escándalos que ha habido alrededor de la red de Zuckerberg por el mal uso que le ha dado a los datos privados de sus usuarios, por lo que no hay que pensar mucho para entender esa preocupación.
Imagen de portada | Freestocks.org en Unsplash