Helle Thorning-Schmidt, copresidenta del Consejo de Supervisión de Meta.

Helle Thorning-Schmidt, copresidenta del Consejo de Supervisión de Meta.

Política Digital ENTREVISTA

¿Quién vigila a Meta? Así funciona su Consejo de Supervisión, según Helle Thorning-Schmidt

Publicada

Fue la primera mujer en ocupar el cargo de Primera Ministra de Dinamarca (2011-2015), después ejerció como directora ejecutiva de Save the Children y ahora es copresidenta de Meta Oversight Board, el llamado 'Tribunal Supremo' de la compañía. Un órgano que tiene como objetivo equilibrar la libertad de expresión con la prevención de daños reales.

La empresa matriz de Facebook, Instagram y WhatsApp creó este Consejo de Supervisión independiente en 2018 para abordar los crecientes escándalos sobre su gestión de la moderación de contenido.

Muchos aducen que se trata de una maniobra más para lavar su imagen pública, en medio de constantes polémicas. Thorning-Schmidt defiende -en entrevista online con DISRUPTORES- que el Consejo que copreside ha cambiado Meta para mejor.

Un modelo "independiente"

Desde su creación, Meta ha vendido el Consejo de Supervisión como un órgano independiente para resolver casos difíciles en la moderación de contenido. "Ni los gobiernos ni las plataformas deberían tomar estas decisiones por sí solas", afirma Thorning-Schmidt.

La empresa no puede contratar ni despedir a los miembros del Consejo. Sin embargo, es la madre del proyecto y quien paga su salario. Meta ha cumplido hasta ahora con todas las decisiones del Consejo, de acuerdo con Thorning-Schmidt, aunque no con sus recomendaciones.

La exgobernante danesa reconoce que Meta ha rechazado recomendaciones clave. Por ejemplo, en Camboya: "Seguidores del Primer Ministro emitieron contenido muy duro en Facebook amenazando a la oposición, lo que el Primer Ministro camboyano respaldó. Le pedimos a Meta que suspendiera su cuenta por un tiempo, y no quisieron hacerlo". "Cumplieron con nuestra decisión de eliminar el contenido, pero no con nuestra recomendación de sancionarle", comenta.

¿Cuál es la diferencia entre una decisión y una recomendación? "Una decisión es si un contenido debe permanecer o eliminarse. Una recomendación son ideas sobre cómo Meta puede mejorar sus políticas. Publicamos todas nuestras decisiones y recomendaciones para fomentar la transparencia", añade la danesa.

¿Impacto real o superficial?

El Consejo ha abordado casos controvertidos, como las políticas relacionadas con el uso de palabras específicas que provocan la eliminación de contenido. Ahora los millones de usuarios de Meta saben qué palabras pueden conllevar sanciones o recibir un aviso cuando algo roza el límite para que puedan etiquetarlo como sátira. "Modificando una palabra o dos en su publicación, pueden permanecer en la plataforma, y creo que eso es muy empoderador".

Esto puede ser positivo para que las personas no sufran censuras inapropiadas de su contenido, pero también puede ser negativo, ya que facilita a quienes tienen malas intenciones saltarse la moderación. Además, este tipo de medida no deja de ser superficial. Es un parche que no va a la raíz de los problemas estructurales de Facebook o Instagram. Entre ellos, la falta de uniformidad en la aplicación de las normas y los errores en la moderación automatizada.

Helle Thorning-Schmidt, copresidenta del Consejo de Supervisión de Meta.

Helle Thorning-Schmidt, copresidenta del Consejo de Supervisión de Meta.

Otro caso del que la copresidenta del Oversight Board está "muy orgullosa" tiene que ver con la eliminación errónea de contenido educativo sobre temas de salud. "La hipersensibilidad con respecto a mostrar los pezones en su plataforma hizo que eliminaran mucho contenido que en realidad tenía un propósito formativo", señala.

Cita como ejemplo un caso sobre cáncer de mama en el que había médicos que mostraban diferentes estadíos de la enfermedad y se veían pezones femeninos. El Consejo pidió a Meta tener en cuenta los problemas de salud en sus eliminaciones, y desde entonces -según Thorning-Schmidt- se eliminan muchos de estos contenidos. La pregunta subyacente es, ¿cómo es posible que Meta no hubiera considerado antes las implicaciones de salud pública de sus políticas?

IA, ¿solución o problema?

El contenido generado por inteligencia artificial, los llamados deepfakes, y la transparencia en este ámbito es otra de las áreas donde el Consejo ha insistido en que Meta debe mejorar.

"En primer lugar, hay mucha IA en torno a la desnudez. Meta debería tener mejores capacidades para la detección de señales de falta de consentimiento en sus plataformas, y también más rapidez para retirar dicho contenido, que puede ser extremadamente dañino", afirma la danesa.

La experta no cree, sin embargo, que todo el contenido falso se deba eliminar. "Valoramos mucho la libertad de expresión y creemos que solo se debe eliminar aquello que sea dañino", sostiene. Pero, ¿quiénes son los miembros del Oversight Board para decidir lo que es dañino y lo que no?

"Si alguien hiciera un video de ti y de mí bailando juntos en la discoteca, sería falso pero no dañino", afirma Thorning-Schmidt. No considera grave que algo así pudiera suponer ser un daño reputacional. Al contrario, cree que debe permitirse como "sátira", una posición sin duda cuestionada.

Protección de menores

Otro tema de gran preocupación es el impacto del uso infantil de las redes sociales. Thorning-Schmidt cree que la solución no es prohibir su acceso a ellas -como hizo Australia recientemente con los menores de 16 años- sino enseñarles cómo manejarse en ellas.

La exmandataria danesa parece trasladar toda la responsabilidad a los progenitores: "Aplaudo todo lo que Meta ha hecho en este espacio en los últimos años. Por ejemplo, en Instagram hay mucha orientación para padres sobre cómo pueden limitar con quién hablan sus hijos, con quién intercambian material, ver quiénes son sus amigos y el tiempo que pasan en la plataforma…".

"Aplaudo todo lo que Meta ha hecho en este espacio [uso infantil de las redes sociales] en los últimos años. En Instagram hay mucha orientación para padres sobre cómo pueden limitar con quién hablan sus hijos"

En varios estados de EEUU, los gobiernos, distritos y escuelas han demandado a la empresa por lo contrario. Acusan a Meta de no revelar, de ocultar y de impedir que los usuarios conociesen los riesgos asociados a las redes sociales, a través de temas de conversación engañosos, y por preocupaciones relacionadas con la explotación infantil.

Esto se suma a la publicación de investigaciones sobre cómo Instagram puede exacerbar problemas de autoestima, ansiedad y depresión entre los (y, sobre todo, "las") jóvenes, así como a las confesiones de exdirectivos de la empresa que han testificado en diversas audiencias ante el Congreso y el Senado estadounidense.

Ante esta realidad, resulta sorprendente la benevolencia de la otrora CEO de Save The Children con el gigante tecnológico, sacudido por los escándalos. Su postura parece ignorar -o tal vez no- que Meta se beneficia económicamente de los millones de adolescentes que utilizan sus plataformas, y de los usuarios pedófilos que acuden a ella a buscar contenido y posibles víctimas.

Resulta obvio que prohibir el acceso a menores de 16 años podría tener un alto impacto en sus ingresos publicitarios. Sin duda, si se priorizan los intereses comerciales sobre el bienestar de sus usuarios, cualquier progreso será superficial, en el mejor de los casos.

Modelo insuficiente

Thorning-Schmidt considera que han logrado avances en muchas direcciones: "en términos de salud, de IA, y también ayudando a los usuarios a tomar mejores decisiones y a recibir advertencias antes de que se elimine su contenido", destaca. "Moderar contenido es extremadamente complejo. Se trata constantemente de un equilibrio entre la libertad de expresión, los derechos humanos…", añade.

Esta afirmación, aunque cierta, puede interpretarse como una excusa para justificar los errores de Meta. En lugar de centrarse en solucionar problemas estructurales como la falta de moderadores humanos capacitados o las inconsistencias en sus políticas, parece conformarse con medidas reactivas, parciales y paliativas.

Helle Headshot fue la primera mujer en ocupar el cargo de Primera Ministra de Dinamarca (2011-2015) y también ha ejercido como directora ejecutiva de Save the Children.

Helle Headshot fue la primera mujer en ocupar el cargo de Primera Ministra de Dinamarca (2011-2015) y también ha ejercido como directora ejecutiva de Save the Children.

Tampoco queda claro por qué, con todos los recursos que tiene Meta, sigue siendo incapaz de abordar eficazmente los problemas de moderación de contenido. Entre otras cosas, por la dependencia en sistemas automatizados, sin duda más baratos.

Aunque la copresidenta del Oversight Board asegura que la situación ha mejorado, los usuarios continúan reportando tanto casos de eliminación arbitraria como de contenido dañino que permanece en las plataformas incluso tras haberse denunciado. Además, el Consejo no tiene autoridad para abordar los problemas relacionados con WhatsApp, una aplicación ampliamente usada para campañas masivas de desinformación, entre otras.

Visto lo visto, y dada la dependencia financiera de Meta que tiene el Consejo de Supervisión que copreside la exgobernante danesa, la pregunta es: ¿se trata de una verdadera herramienta de cambio o es simplemente un escudo que permite evitar un escrutinio más profundo del gigante tecnológico, y desviar las críticas?

Al menos ahora los usuarios tienen otra opción a la que acudir para tratar de resolver sus disputas con diferentes plataformas: el nuevo Centro de Apelaciones de la UE. Un órgano nacido el pasado octubre para arbitrar disputas con Facebook, TikTok y YouTube (y otros gigantes tecnológicos en el futuro). Eso sí, el centro está subvencionado -no por casualidad- por el propio Oversight Board de Meta.