Las normas de Facebook sobre sexo, violencia y terrorismo, al descubierto
Una investigación de más de 100 manuales de la compañía revela que no es posible controlar todos los contenidos. Los moderadores tienen "10 segundos" para hacerlo.
22 mayo, 2017 08:19Noticias relacionadas
- La violación de una menor en directo en Facebook sin que nadie llamara a la Policía
- Por qué Facebook permitió retransmitir la muerte de un hombre en directo
- Las actualizaciones de Facebook pueden describir la personalidad
- Cuatro detenidos por torturar a un joven y retransmitirlo por Facebook Live
- Tres detenidos en Suecia por emitir una violación en directo en Facebook
Una investigación del periódico británico The Guardian ha revelado las reglas internas de Facebook para determinar qué deben publicar o no sus más de 2.000 millones de usuarios respecto a temas tan polémicos como el sexo, la violencia la pornografía, el racismo o el terrorismo.
El diario ha revisado más de 100 manuales internos, hojas de cálculo y diagramas que establecen los criterios que hasta ahora ha manejado Facebook para intentar moderar este tipo de temas.
Una de las conclusiones es que la compañía seguirá permitiendo Facebook Lives en los que aparezcan autolesiones porque el manual interno asegura que se trata de encontrar un equilibrio entre permitir gritos de ayuda y desalentar el comportamiento de posibles imitadores.
Los últimos acontecimientos han puestos a la compañía en el centro de las críticas por su permisividad con la violencia. Facebook asegura que sus ejecutivos buscan normas para reaccionar ante nuevos retos como el de la venganza a través de vídeos sexuales pero que los moderadores a veces sólo tienen "10 segundos" para tomar una decisión, asegura The Guardian.
Una fuente interna ha reconocido que la empresa no puede "mantener el control de su contenido" porque "ha crecido demasiado y muy rápido". Y entre los contenidos que más les cuesta controlar están los sexuales, por ser más complejos y confusos.
En uno de los documentos internos a los que ha tenido acceso el periódico se asegura que Facebook revisa más de 6,5 millones de informes a la semana sobre cuentas potencialmente falsas.
El control de los mensajes que se cuelgan en Facebook ha abierto además un fuerte debate entre los que hablan de libertad de expresión y los que aseguran que la compañía se ha convertido en un editor que debe controlar el contenido que cuelgan en su red.
Los conflictos del control
El diario destaca las múltiples contradicciones a las que se enfrenta la compañía. Por ejemplo, Facebook elimina mensajes en los que se dice que "hay que disparar a Trump" puesto que al ser un jefe de Estado entra en una categoría protegida pero permite "así hay que romperle el cuello a esa perra" porque considera que no son amenazadas creíbles.
Considera que los vídeos que muestran una muerte violenta pueden llegar a suponer una conciencia sobre determinados problemas (como enfermedades o injusticias) por lo que no siempre tienen que ser eliminados.
"Creemos que los menores necesitan protección y los adultos necesitan tener la opción de poder verlos o no. Por lo que advertimos de su contenido", aclara la compañía.
Lo mismo ocurre con las fotos de abuso de animales que podrían convertirse en el inicio de una respuesta social o la denuncia de este tipo de actuaciones.
En cuanto a la desnudez, sigue siendo un conflicto. Facebook permite desnudos artísticos pero no si muestra una actividad sexual. Las directrices respecto a este tema cambiaron el año pasado después de la protesta tras eliminar una foto de la guerra de Vietnam porque aparecía una chica desnuda.
Ahora, sus documentos internos establecen que se permiten "excepciones de interés periodístico" a esta norma.
Facebook ha asegurado al periódico británico que estaban utilizando un software para interceptar algún contenido gráfico antes de que llegara a colgarse pero "queremos que la gente sea capaz de discutir los acontecimientos mundiales y actuales, por lo que el contexto en el que una imagen violenta se comparte es importante".
Aclaran que no eliminan de forma automática un abuso infantil que no sea de contenido sexual puesto que el menor puede ser identificado y rescatado con este post. "Se trata de ayudar al niño”.
Y la polémica se amplía cuando el que cuelga estos contenidos tiene más de 100.000 seguidores lo que lo designa como figura pública y se le niega estas protecciones dadas a los privados.
En uno de los documentos filtrados, Facebook reconoce que "la gente utiliza un lenguaje violento para expresar la frustración online" pero no siempre las amenazas son creíbles hasta que no dan motivos para entender que "ya no es simplemente una expresión de la emoción sino que ha derivado en una trama".