The Guardian publica los criterios de actuación de Facebook ante ciertas situaciones.
Se han filtrado los métodos de actuación de Facebook frente a situaciones que pudieran no ser legales o apropiadas. En los documentos que han salido a la luz, podemos ver, entre otras cosas, qué contenido se considera legal, no legal, adecuado y no adecuado. Como si de un protocolo estatal se tratase, desde FB lo tienen todo controlado ante ciertas situaciones: pornografía, terrorismo, racismo o en general cualquier tipo de violencia.
Es bien sabido por todos que Facebook usa moderadores para poder controlar todo el contenido de su red social. Concretamente a día de hoy son 4500 personas y tienen pensado ampliarlo a 7500. Las IA aún no son lo suficientemente autónomas como para valerse por sí solas, por lo que aún tienen que seguir recurriendo a este ‘arcaico método’.
El 13 de mayo ocurrió de nuevo: un hombre ardía en llamas en un directo en Facebook tras bañarse en queroseno. Sumamos, por lo tanto, otro hecho destacable más a los anteriores sucesos (suicidios y muertes emitidas en directo).
Los moderadores reciben miles de peticiones diarias, como vemos en The Guardian. Concretamente, en lo que refiere única y exclusivamente a cuentas falsas, por ejemplo (a lo que denomina ‘FNRP’: ‘Fake, Not Real Person’), recibe hasta 6,5 millones de informes para revisar.
Además, con la brutal cantidad de usuarios (casi 2 000 millones ya), es prácticamente imposible establecer un consenso para todos.
Medidas de actuación para casi todas las situaciones
En muchas ocasiones, un moderador no tiene más de 10 segundos para actuar
El problema de este sistema de moderación es que muchas veces un contenido inapropiado no tiene por qué ser ilegal. Por ejemplo, un vídeo donde se muestre maltrato animal está permitido. Un vídeo en directo donde alguien se esté autolesionando, también. Igual ocurre con los vídeos de abortos.
Los 4500 modereadores tienen una presión bastante alta. No solo tienen que actuar rápido, sino que además tienen que decidir si ignorar el contenido, borrarlo o escalarlo a un superior. Una pequeña parte de ese grupo asegura que se cumpla la ley, respondiendo a peticiones directas de cuerpos de seguridad gubernamentales.
Eso sí, los desnudos están únicamente permitidos si se aprecian a través de arte «echo a mano», pero nunca mediante arte digital (como una fotografía, por ejemplo). Las muertes humanas, por su parte, se permiten siempre y cuando «pueda ayudar a concienciar» (suponemos que hablan de accidentes de tráfico evitables, por ejemplo, no en cualquier contexto).
Las imágenes de abuso infantil, por ejemplo, también dependen del contexto: si algún tipo de celebración sádica sí. Evidentemente todo este contenido se muestra como no apto para menores de edad, pero para el resto de la comunidad sigue siendo visible.
Las guías son cientos de diapositivas proporcionadas directamente por Facebook (realmente con más de 100 manuales en total compuestos por diapositivas, hojas de cálculo y diagramas de flujo) en la que los moderadores deberían basar su criterio de control.
No obstante, como vemos, hay un poquito de holgura para que el agente pueda decidir por sí mismo en función del contexto, pero siempre teniendo en mente las normas de actuación de la red social.
Noticias relacionadas
- Cuando veas porno vigila la puerta... y la privacidad: Google y Facebook saben lo que ves
- Estados Unidos multa a Facebook con 5.000 millones por sus escándalos de privacidad
- La moneda de Facebook aún no ha salido y ya tiene un poderoso enemigo: Donald Trump
- El nuevo documental de Netflix busca la verdad de los escándalos de privacidad de Facebook