4.500 moderadores tiene poder de decisión sobre lo que publicamos en nuestro perfil de Facebook. Pueden quitarlo, pueden ocultarlo bajo una advertencia, pueden incluso suspenderlo de plano. No es un trabajo fácil supervisar a 1.900 millones de usuarios en activo. Deben hacer malabares con la libertad de expresión y el respeto a los derechos fundamentales, así como la vocación informativa y de servicio público de la red.
Así, hace cerca de un año, el propio Mark Zuckerberg justificaba el permitir la difusión de la muerte de Philando Castile, un hombre negro desarmado abatido por la Policía, por su relevancia en la causa de los derechos civiles. Pero cuando el pasado abril Steve Stephens retransmitía en directo por Facebook Live cómo asesinaba a un hombre en Cleveland elegido al azar, el propio visionario de la tecnología admitía que tenían un problema y anunciaba la contratación de otros 3.000 moderadores.
Estos ángeles custodios trabajan en turnos repartidos en oficinas de todo el globo para ofrecer un servicio continuado durante las 24 horas y en 40 idiomas. Revisan las denuncias que les llegan remitidas tanto por usuarios de la red como por los algoritmos de salvaguarda automática. Sobre ellos recae la decisión de censurar o no una publicación. ¿En función de qué criterios? El diario británico The Guardian publicaba The Facebook files la semana pasada, la guía de estilo con la que son formados estos moderadores. Ante la miríada de situaciones posibles, las instrucciones para responder son, como mínimo, ambiguas.
Así, difundir imágenes o vídeos de abusos a menores o de crueldad hacia los animales debe ser permitido si se hace como denuncia. Si el moderador percibe una intención "sádica" en el usuario, sin embargo, las debe erradicar. "Que alguien dispare a Trump" debe ser considerado como una "amenaza creíble" y se debe actuar con todas las de la ley, pero si alguien escribe "para estrangular a una puta, aprieta la tráquea" no habrá entrado en esa consideración. Se trata de un contenido "permisible".
Del mismo modo, un mensaje llamando a "exterminar a los sionistas" entraría en el epígrafe contemplado como discurso del odio y de la incitación a la violencia, y sería retirado. Pero no uno que instase a "salir a la calle y darle una patada a un pelirrojo" o "a un gordo". El contenido sexual es uno de los más espinosos, especialmente a la hora de perseguir el fenómeno de las "pornovenganzas", la difusión de imágenes íntimas sin el consentimiento de la persona retratada. La directriz de Facebook ante las denuncias sobre pornografía o acoso sexual es la de "permitir expresiones generales de deseo, pero no detalles sexuales explícitos".
¿Es censurable una esvástica nazi? Dependerá del contexto, de si pertenece a una obra de ficción, histórica o propagandística. Un moderador de Facebook tiene que tomar cerca de un millar de decisiones de este tipo cada día. "Llegar a las nueve, abrir el ordenador y ver una decapitación" - describía su trabajo uno de ellos a The Guardian en un artículo traducido en eldiario.es. Para ponernos en su piel, el medio británico presentaba a sus lectores un test con ejemplos reales de las pruebas por las que pasan los empleados de la red social.
En medio de todo, Fraga
Es ese test el que ha revelado que una fotografía manipulada de Manuel Fraga Iribarne, estadista, embajador y presidente del Partido Popular, sirve para adiestrar a los encargados de velar por la seguridad de nuestra experiencia en Facebook. La macabra imagen simula el velatorio de Fraga, fallecido el 15 de enero de 2012, y tal y cómo confirman los periodistas responsables de la información a EL ESPAÑOL, apareció de esta guisa entre las Facebook Files.
¿De dónde sale el fotomontaje con el presunto cadáver? Se puede rastrear su origen a comienzos de 2012, días después del fallecimiento del político. Ecorepublicano la utilizaba para ilustrar una sarcástica nota al respecto. La base de la manipulación fotográfica viene de la serie Perdidos, un fenómeno de masas que había terminado de emitirse en 2010. El cuerpo en el ataúd es el del personaje de John Locke, un giro de guión que deparaba la aventura de los naúfragos de la misteriosa isla en sus últimas temporadas.
Posteriormente el fotograma ha servido como plantilla de montaje para simular, con mayor o menor talento para la edición gráfica, los otros cadáveres de estadistas como Hugo Chavez o Fidel Castro. Pero la imagen de Fraga, manipulada sobre una foto real de sus últimas apariciones públicas a la que se ha cerrado los párpados y conferido una lividez cadavérica, todavía es usada en las redes. En Latinoamérica se ha difundido como un 'coco', una imagen de 'muerto' para asustar.
Los moderadores de Facebook trabajan con ejemplos reales extraídos de las denuncias de abuso formuladas por los usuarios. Según la información publicada por The Guardian, la respuesta correcta ante una queja por el montaje del 'fake' de Fraga es dejarlo estar. El motivo no ha sido especificado.
Los estándares de control van cambiando
La red social va modificando sus criterios en función de las problemáticas que van surgiendo y las demandas de los usuarios. La proliferación de contenido violento a través de Facebook Live es uno de los factores que han forzado un énfasis en la moderación. Pero otros son de corte más cualitativo. Cuando el pasado septiembre Facebook censuró la icónica fotografía de la niña desnuda alcanzada por napalm en la guerra de Vietnam por contener "violencia y desnudez", la indignación llevó a la compañía a ampliar el corte a las imágenes de valor histórico.
"Mantener a las personas seguras en Facebook es lo más importante para nosotros" - indican desde la compañía a este diario. "Lo hacemos y trabajamos para hacer Facebook lo más seguro posible. Esto requiere mucha reflexión respecto a preguntas detalladas y muchas veces difíciles, y hacer las cosas bien es algo que nos tomamos muy en serio".
"Además de invertir en más personas, estamos desarrollando mejores herramientas para mantener a la comunidad de Facebook segura – y hacer más sencillo a las personas el denunciar problemas, y más rápido para nuestros equipos el determinar qué contenidos violan nuestras normas y contactar con los cuerpos y fuerzas de seguridad si alguien necesita ayuda".
¿Es tolerable que alguien manipule la fotografía de un personaje público para hacer escarnio de su muerte? ¿La difusión de la imagen supone un daño a la dignidad de Manuel Fraga o está amparada por la libertad de expresión? La respuesta de Facebook es la de poner la decisión en manos del usuario. Aunque un moderador al otro lado del mundo haya recibido la orden de dejarla estar, las reacciones a estos contenidos se registran, tanto si hay denuncia proactiva como no. Ese es el reto que la compañía considera asumible: el de sintonizar la tecnología con la sensibilidad de quien la usa.