Piensa en qué ocurre cuando subes una cosa a Internet. Desde nuestra perspectiva, el elemento que subimos (foto, vídeo, documento, etcétera) se sube, y ya está. Pero no es así; existen herramientas de moderación en esas mismas plataformas para evitar que subamos cualquier cosa totalmente indebida. Y hay un conjunto de herramientas que se suman al trabajo de humanos en esta labor que, en ocasiones, es titánica.
Pero estamos en plena pandemia por coronavirus, y eso implica 2 cosas: la primera que las 'fake news' de la epidemia están a la orden del día. Y la segunda, que la parte humana de la moderación de estas plataformas ya no existe, pues está confinada en su casa.
Desde luego se puede hacer teletrabajo, pero hablamos de que por culpa del virus la moderación de contenidos se ha visto cortada por la mitad. Eso provoca que las 'fake news' y el contenido "malicioso" referente al coronavirus se puedan expandir más, relegados a la moderación de unos algoritmos que no son siempre eficaces.
¿De qué estamos hablando?
La moderación de contenidos ha sido un tema controvertido desde hace años. En sus inicios buscaba censurar la desnudez o banear de las redes a nazis y gente de extrema derecha. Tras años se regularon estos problemas y se convirtió en un asunto legal.
En Estados Unidos, por ejemplo, la ley obliga a las empresas a eliminar propaganda terrorista, contenido pornográfico infantil y contenidos de corte similar. Al adquirir las redes sociales tanto protagonismo y convertirse en plataformas con millones de usuarios, la moderación tuvo que aumentar en escala.
¿Cómo moderar tal cantidad de contenido? Algunos datos para que nos hagamos una idea de la magnitud de la que estamos hablando. Cada minuto se suben 400 horas de vídeo, y consumimos más de mil millones de horas de vídeo al día en esta plataforma. De hecho, las sesiones de visualización duran de media unos 40 minutos.
Entonces, ¿cómo hacerlo? Al principio se recurrieron a grandes empresas de consultoría para externalizar el trabajo, además de contratar moderadores por todo el mundo. Lo cuál, obviamente, deja cabos sueltos a nivel de privacidad, y dentro de las firmas tecnológicas el miedo a que estas personas tuvieran acceso a ese contenido era mayor.
Se dispusieron salas habilitadas y pisos de producción con controles al personal para evitar que roben datos, prohibiendo por ejemplo que lleven dispositivos móviles. Y aunque a día de hoy se usan algoritmos en conjunto de moderadores humanos, estos están sufriendo los peores momentos de la crisis del coronavirus.
Google y Facebook, afectadas
Según reveló The Intercept la semana pasada, empleados de Facebook relacionados con la moderación sufrían confusión y miedo debido a que los encargados de los mismos les impiden hacer teletrabajo, a pesar de las declaraciones de Facebook de pedir que estos trabajen desde sus casas, incluso con los beneficios a nivel de salud pública que esto conlleva.
Al menos 6 contratistas se han quejado de que no pueden trabajar desde casa. E incluso un empleado llegó a asegurar que todo su equipo, formado por más de 20 personas, estaban recluidos en este tipo de salas sin impedirles trabajar desde casa. Después de esto, Facebook impidió que los trabajadores y moderadores entrasen a sus oficinas.
Google por su parte anunció, junto a otras empresas que iban a compartir esfuerzos todas ellas para responder al COVID-19, incluido el de "eliminar el fraude" y la información no veraz. Esto implica, como han hecho otras empresas, mandar a sus trabajadores a casa, lo que deja a los moderadores de contenido de las principales 2 grandes firmas de Internet en sus hogares. ¿Qué ocurrirá?
Los algoritmos, la gran salvación
Facebook ha permitido que algunos moderadores entrenados en filtrar contenido no tan sensible ayuden a entrenar modelos de aprendizaje automático para etiquetar contenido. El contenido más sensible se destina a los empleados a tiempo completo, de nuevo, desde sus casas. Tanto Google como Facebook se apoyarán en la automatización de la moderación de contenidos.
Google, por su parte, es la más perjudicada debido al volumen de contenido que se sube a sus principales plataformas. YouTube por ejemplo tendrá que depender de sus algoritmos aún con los moderadores humanos trabajando desde sus casas. De hecho, ya han admitido que cometerán algunos errores, al igual que Facebook, ya que la dependencia de la IA dará lugar a falsos positivos.
Una pequeña parte de la plantilla seguirá yendo a las oficinas de Google para garantizar la continuidad de los productos de Google, en casos en los procedimientos para mantenerlos no se puedan realizar en teletrabajo. Mientras dure la situación de aislamiento, la firma tendrá que depender más de estos sistemas automatizados.
Las consecuencias de esto se harán notar; se podrán dar situaciones en las que el algoritmo elimine más contenido, que lo identifique como potencialmente peligroso bajo falsos positivos o que no haya un moderador humano capaz de revisar manualmente la reclamación en caso de realizarse.
Los anunciantes y los desarrolladores podrían recibir respuesta a peticiones de soporte y de atención al cliente en un lapso de tiempo más amplio de lo habitual, un problema también para los usuarios que dependen directamente de YouTube. Por otra parte, L afirma ya ha afirmado que ninguno de sus productos se verá afectado en lo que respecta al funcionamiento.