Hace 5 años, en 2016, Facebook añadió en España y en el resto del mundo las llamadas reacciones. Una serie de emojis que nos permitirían calificar una publicación en Facebook y no depender del vetusto 'Me Gusta' que nos había acompañado desde hace años. Ahora, nuevos documentos internos de la firma indican que este sistema estaba puntuado para fomentar la desinformación y la negatividad en Facebook.
Según un extenso reportaje de investigación del The Washington Post, Facebook desarrolló un algoritmo para calificar y mostrar las noticias que eran más propensas a mostrar reacciones negativas con los emojis de 'triste' o 'enfadado'.
Una práctica que habría sido confirmada por Frances Haugen, exempleada de Facebook que hace poco declaró en el Congreso en contra de la compañía, afirmando que la empresa promovía la negatividad y la desinformación de forma consciente dentro de la red social para aumentar sus beneficios propios.
Publicaciones dañinas
Remontémonos a 2016. En ese momento, Facebook incluyó 5 nuevas reacciones para dar carpetazo al mítico 'Me Gusta' de Facebook. Estos eran: 'me encanta', 'risa', 'sorprendido', 'triste' y 'enfadado'. 5 reacciones que estaban basadas en emojis relacionados.
Por otra parte, Facebook estaba ajustando el algoritmo que se encarga de presentar noticias en los feeds principales de los usuarios para que estos emojis sirvieran como indicativos de qué contenido mostrar, y según estos documentos, Facebook diseñó dicho algoritmo para favorecer las noticias que provocaran principalmente las reacciones más negativas o emocionales del nuevo sistema. Es decir, 'sorprendido' o 'enfadado'.
Tanto es así, que el algoritmo calificaba los emojis de reacción como una vara de medir hasta 5 veces más valiosa que los 'me gusta', por lo que las publicaciones que provocaban muchas reacciones tendían, según el algoritmo, a mantener a los usuarios más atentos a dicha noticia y así mantenerlos activos en Facebook.
Algo que a algunos empleados preocupó, ya que creían que dicho sistema podría favorecer publicaciones más controvertidas, abriendo "la puerta a más spam, información abusiva o clickbait", escribió un empleado en dichos documentos. Un compañero le respondió que era posible, y los científicos de Facebook confirmaron que los emojis con reacciones de este estilo eran mucho más propensos a conllevar este tipo de contenido.
Esto, según detallan los documentos, provocó que los moderadores de contenido y los equipos dedicados a acabar con la toxicidad de la plataforma estuvieran literalmente luchando por nada. Este proceso se habría amplificado de forma sistemática durante estos últimos 3 años, coincidiendo finalmente con las declaraciones en el congreso de los Estados Unidos de Frances Haugen.
Sistema de puntuación
Aunque las reacciones son solo una parte de las mecánicas que Facebook estaría llevando a cabo para fomentar el flujo de esta clase de contenido, el algoritmo es una de las más importantes debido a su alta influencia. El algoritmo se encarga de asignar una serie de puntos para aplicarlos a una puntuación que aplica a cada publicación y así ordenarlas, decidiendo cuáles aparecen más arriba y cuáles más abajo.
Facebook no ha publicado los valores que el algoritmo aplica a cada publicación y menos a cada emoji, según la compañía para evitar que usuarios con conocimientos específicos usen dicha información para favorecer su contenido por encima del resto. No obstante, algunos de estos mecanismos incluían recopilar cuántos comentarios largos generaba una publicación o si el vídeo asociado estaba pregrabado o era en directo.
Según estos documentos, en 2017 cada reacción de una publicación valía hasta 5 veces un 'Me Gusta' en aquel momento, con el argumento de que una reacción implicaba más carga emocional que un clic o un 'Me Gusta'. En un principio Facebook mostró una posición comedida respecto al funcionamiento de las reacciones y posteriormente alentaron a los usuarios a que usaran estas reacciones de forma activa.
Las respuestas, por ejemplo, tenían un peso mucho mayor: 30 veces un 'Me Gusta', provocando que Facebook supiera que la interacción de los amigos de un usuario creaba una tendencia a que los usuarios relacionados publicaran más.
De hecho, el Wall Street Journal aseguró el pasado mes de septiembre que el interés de Facebook por fomentar comentarios, respuestas o acciones repetidas provocaban una tendencia mucho mayor de compartir publicaciones divisorias políticamente. Este énfasis en la interacción se conocía internamente como 'interacciones sociales significativas'.
Pero ¿qué pasaba si una publicación era ascendida por el algoritmo y se encontraba con los equipos de moderación de contenido peligroso? La cuestión se basaba en las puntuaciones que, según científicos de Facebook, no tenían límite. Aunque estos algoritmos calificaban algunas publicaciones como malas y reducían su puntuación a la mitad, algunas de estas obtenían millones de puntos, haciendo casi imposible que incluso reduciendo dicha puntuación a la mitad estas descendieran en popularidad.
Lo peor es que cuando se descubrió que este algoritmo estaba agravando el problema que precisamente estos equipos querían cortar de raíz, se pusieron sobre la mesa algunos "ajustes" para intentar reducir el daño potencial. Estas propuestas, en varias ocasiones, fueron rechazadas por instancias superiores.
Aún con todo, se llevaron a cabo experimentos para comprobar qué ajustes podían realizar para solucionar este problema y que posteriormente Haugen denunció en el congreso de los Estados Unidos. Esto es debido a que estas pruebas pasaban por desactivar medidas de seguridad para ciertos conjuntos de usuario para comprobar si estas medidas funcionaban.
Posteriormente, Facebook redujo el valor de las reacciones. En 2018. el emoji enfadado pasó a valer 4 veces más que un 'Me Gusta', equiparando este valor para todas las emociones. Según documentos de 2019, el emoji menos usado era el del enfado, con 429 millones de clics a la semana. Los 'Me Gusta' pasaron a ser 63.000 millones a la semana y las reacciones de 'me encanta', a 11.000 millones.
Así, los científicos determinaron que las reacciones negativas como el enfado o la sorpresa eran mucho más frecuentes en publicaciones de corte negativo, como "noticias cívicas de baja calidad, información cívica errónea, toxicidad, información errónea sobre la salud y contenido antivacunas". Ya en abril de 2019, Facebook intentó degradar el contenido que estaba recibiendo reacciones de enfado de forma desproporcionada.
Protestas internas
El mayor problema se refleja en julio de ese mismo año, con una propuesta interna que intentaba conseguir que el valor de las reacciones se equiparara al de un 'Me Gusta', o incluso que no valieran absolutamente nada. De esta forma, según la propuesta, se habrían reducido la toxicidad y las preocupaciones sobre políticas divisorias que asolaban la comunidad. Una propuesta que fue rechazada.
Más tarde, en ese mismo año, se celebró un debate para hablar de cómo ajustar el algoritmo para que dejara de amplificar este tipo de contenido dañino y, de nuevo, se intentó que se valoraran menos estas reacciones. Incluso se llegó a plantear quitar el botón de las reacciones por completo. También se rechazó.
Finalmente, en el año 2020 Facebook cedió pero no por presión interna, sino porque se descubrió que los usuarios estaban hartos de la reacción de enfado, que se había popularizado tanto que estaba apareciendo en todas las publicaciones. Finalmente, Facebook redujo el valor de las reacciones a 1,5 veces el de un 'Me Gusta' y en septiembre, la reacción de enfado pasó a valer cero y las reacciones de 'me encanta' y 'triste' consiguieron valer 2 veces un 'Me Gusta'.
No obstante, el daño se había hecho. Los documentos reflejan que Facebook quería fomentar las retransmisiones en vivo, aumentando el peso de estas hasta 600 veces un 'Me Gusta'. Así, se obtenía una viralidad ultrarrápida para vídeos "de baja calidad" y a su vez estos tuvieron un papel importante en los eventos políticos de Estados Unidos, como las protestas raciales por el asesinato de George Floyd o el asalto al Capitolio a principios de año.
Después de todos estos problemas, Facebook limitó el peso de los streamings a 60 veces un 'Me Gusta'. Eso, unido al valor cero que se le aplicó a la reacción de enfado, consiguió que la plataforma moviera menos contenido "violento" y peligroso, sin que el flujo de actividad se viera afectado. Sin embargo, según Haugen, la tardanza de estas medidas y el rechazo a ajustes anteriores provocaron que Facebook tuviera un papel inesperado en algunos de los capítulos más oscuros de la historia reciente del país.
También te puede interesar...
- Facebook pierde a sus jóvenes: nuevos documentos internos afirman su debacle
- Los grupos prohibidos de Facebook: filtran qué individuos y grupos están vetados
- Facebook lleva su alternativa a Clubhouse a todo el mundo