El pasado 6 de enero, durante el asalto al Capitolio, todos los ojos se volcaron sobre las redes sociales. ¿Qué papel juegan estas plataformas sobre la polarización de la sociedad? ¿Qué (más) pueden hacer para promover una conversación libre de falsedades y desinformación? En definitiva, ¿qué responsabilidad para con la sociedad tienen las redes?
Lo cierto es que estos debates se aceptan y se promueven dentro de las propias big tech, plenamente conscientes de su influencia. Y de entre todos los líderes del sector, probablemente el co-fundador y CEO de Facebook, Mark Zuckerberg, es quien ha mostrado una mayor disposición a discutir fórmulas para mejorar la capacitación digital de la ciudadanía, eliminar el contenido dañino y, en última instancia, construir democracias más resilientes.
Para conocer el punto de vista de esta empresa, conversamos con Laura Bononcini, directora de Asuntos Públicos para el Sur de Europa de Facebook. Coincide esta entrevista con el segundo aniversario de Zona from Facebook, una iniciativa sin ánimo de lucro enfocada precisamente a la formación digital de jóvenes, pymes, familias, mujeres…
Capacitación digital de pymes y ciudadanos
Paradójicamente, Zona from Facebook estaba concebido inicialmente como un espacio físico (que en España está en Madrid, en el Paseo de la Castellana). “Queríamos que la gente tuviera un lugar en el que adquirir las competencias digitales que necesitan en sus vidas, pero también un sitio en el que se pudieran reunir y conocer entre sí. Por eso, era también un espacio a disposición de instituciones académicas, asociaciones, ONGs o cualquiera que quisiera organizar debates o intercambiar ideas”, tengan o no que ver con la propia Facebook.
En cierto modo, Zona viene a ser una representación física de la misión originaria de la compañía: conectar personas y generar comunidades.
“El balance de Zona from Facebook es muy positivo. En estos dos años han pasado por nuestros programas de formación más de 100.000 personas”, afirma Bononcini.
Como es lógico, la pandemia interrumpió algunos de sus planes. Para una empresa nativa digital como Facebook no fue complicado trasladar la iniciativa al entorno online. “Con la formación virtual podemos llegar a mucha más gente y, sobre todo, de zonas muy diferentes de la geografía española”, constata esta directiva.
Por eso, el futuro del proyecto será híbrido. “España es un país muy avanzado en el acceso a la digitalización”, dice en referencia a la extensión de nuestra red de banda ancha. No obstante, "desde un punto de vista de la capacitación digital, y más concretamente la transformación digital de las pymes y la formación para un uso seguro de Internet, todavía hay pasos que podemos dar. Y todo esto será incluso más relevante en el futuro mundo post-Covid", apunta.
Zona from Facebook prevé continuar creciendo y extendiendo su impacto a través de alianzas con otras empresas, organizaciones, ONGs, Administraciones públicas, etcétera. “Queremos que sea un espacio abierto para cualquier stakeholder”, explica Bononcini.
¿Demasiado grande?
Este tipo de programas socialmente responsables no evitan, sin embargo, las dudas que suscita una empresa con más de 2.000 millones de usuarios. Si Facebook fuera un país, sería el más poblado del mundo.
Recientemente, la Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) y un grupo de fiscales de 48 de los 50 Estados del país demandaron a Facebook, exigiendo que se desprendiera de WhatsApp e Instagram. Y en nuestro continente, la Comisión Europea trabaja sobre la Directiva 'DMA', que estrechará la vigilancia a las big tech en materia de Competencia.
“Puedo comprender que la gente se preocupe por el tamaño que empresas como la nuestra han alcanzado. Pero si lo pensamos más detenidamente, lo fundamental es que los consumidores tengan alternativas entre las que elegir. En este sentido, todos nuestros servicios tienen muchos competidores”, expone Bononcini, citando a Snapchat, YouTube, TikTok…
Lo fundamental es que los consumidores tengan alternativas entre las que elegir, y todos nuestros servicios tienen muchos competidores: Snapchat, YouTube, TikTok…
“Todo esto no quiere decir que no seamos una empresa grande y exitosa. Estamos muy orgullosos de ello. Y precisamente por ese tamaño asumimos que tenemos una responsabilidad para con la sociedad. La responsabilidad de asegurar que nuestros usuarios están seguros y de luchar contra la desinformación y contra el discurso de odio”, declara.
“Por otro lado”, continúa Bononcini, “dado precisamente el tamaño y la influencia que tenemos, creemos que deberíamos operar bajo nuevos marcos normativos. Por eso, estamos muy contentos de que la Comisión Europea haya empezado a trabajar en ello. Verdaderamente creemos que ha llegado el momento de establecer leyes claras y específicas para las plataformas digitales”.
“Ser grandes no es necesariamente algo malo. En nuestro caso, creo, es lo contrario”, remacha la responsable de Public Policy de Facebook.
Desinformación, polarización y 'filtros burbuja'
Bononcini no esquiva tampoco las preguntas sobre el problema de la desinformación en Internet. Un problema muy complejo para el que no existen soluciones fáciles. Al final, como veremos, es un juego de equilibrios entre riesgos y beneficios.
Así, aunque parezca contradictorio, el primer paso para luchar contra la desinformación es limitar los contenidos a los que acceden los usuarios, reorganizando el orden en el que se les muestran. “La cantidad de información que se comparte en Internet y en las redes sociales es abismal, y eso es a priori algo muy positivo. Sin embargo, en la práctica, la sobreinformación no conduce a usuarios mejor informados. Más bien, todo lo contrario”.
La cantidad de información que se comparte en Internet y en las redes sociales es abismal, pero la sobreinformación conduce a usuarios mejor informados. Todo lo contrario
Es aquí donde entra en juego un algoritmo, que establece qué información recibe el usuario en su muro, basándose en sus intereses, su historial de navegación previo, etcétera. En este sentido, las redes sociales ejercen una desintermediación imperfecta de la información.
Sin embargo, como consecuencia de ese algoritmo, los usuarios tienden a consumir información que reafirma sus convicciones previas. Son los llamados filtros burbuja. Se cree que, en última instancia, esto podría estar alimentando la polarización social.
También aquí encontramos ese doble filo: “La polarización siempre ha existido. En cierto modo, las redes sociales -no sólo Facebook- han ayudado a luchar contra ella, porque dan acceso a muchas más fuentes de información de las que manejábamos antes”, apunta Bononcini. En efecto, las redes sociales dieron vida al periodismo ciudadano que precipitó la Primavera Árabe y que ha ayudado a destapar incontables escándalos.
Para inclinar la balanza hacia los efectos positivos del filtrado de los contenidos, Facebook aboga por “otorgar al usuario el control”. Aplicando una transparencia y usabilidad progresivas, hoy el usuario puede indicar si desea ver contenido más diverso, o si quiere que no se le muestren ciertos contenidos en particular. “Esta opción está disponible para cada post y para cada anuncio”, recalca.
En tercer lugar, la polarización tiene que ver con la proliferación de contenido dañino en Internet. En sus políticas de uso, las plataformas digitales como Facebook prohíben los contenidos manifiestamente perjudiciales, incluyendo las noticias falsas (fake news) así como la pornografía infantil, el enaltecimiento del terrorismo, etcétera.
Uno de los grandes desafíos es eliminar el contenido dañino lo más rápido posible. Facebook aplica soluciones de inteligencia artificial y cuenta con 35.000 personas trabajando en esa depuración de contenidos, y creciendo.
Asalto al Capitolio
Como medidas adicionales de protección al usuario, durante los días previos a las elecciones presidenciales de EE.UU. se bloqueó la opción de organizar eventos en Facebook, se eliminaron cuentas, se añadieron advertencias sobre algunos comentarios del ex presidente Trump…
Y pese a todos estos esfuerzos de 1) capacitación digital de la ciudadanía, 2) empoderamiento de los usuarios y 3) depuración de contenidos, el pasado 6 de enero ocurrió lo impensable: un grupo de radicales asaltó el Capitolio. “Tuvimos que tomar decisiones sin precedentes para sucesos sin precedentes”, rememora Bononcini.
La portavoz de Facebook se refiere a la eliminación del perfil de Donald Trump. La compañía ha dejado en manos de su consejo asesor la duración de ese bloqueo, por ahora de carácter indefinido. En cualquier caso, ha suscitado un enorme debate. ¿Es censura? ¿Es lícito?
“El cierre total de la cuenta de un presidente elegido en base a la decisión de direcciones corporativas es problemático” (Angela Merkel, 11 de enero)
“Nos hemos comprometido a hacer aquello que nuestro consejo asesor sugiera”, expone, antes de volver a reclamar “normas claras sobre cómo deberíamos responder a este tipo de situaciones”.
El discurso del odio no solamente viola las políticas de uso de Facebook, sino también la ley de algunos países. Aun así, “necesitamos más indicaciones y más regulación para saber cómo actuar. Una empresa privada no debería estar tomando este tipo de decisiones”, insiste.
Necesitamos normas sobre cómo responder a ciertas situaciones. Una empresa privada no debería tomar decisiones como bloquear la cuenta de Donald Trump
En este contexto, Bruselas está desarrollando una segunda Directiva (llamada ‘DSA’). Una vez que entre en vigor, dentro de unos dos años, armonizará a nivel europeo la responsabilidad legal de las plataformas sobre los contenidos que intercambian sus usuarios.
Por parte de Facebook, Bononcini asegura que ambas Directivas europeas serán “muy bienvenidas”, tanto por su carácter internacional como por la luz que puedan arrojar. “¿Deberíamos aplicar a las cuentas de representantes políticos elegidos democráticamente el mismo rasero que al resto de los ciudadanos? Esta es una de las cuestiones sobre las que la Comisión Europea tendrá que meditar”.