"Declaramos abiertamente que, rotundamente, nuestro país no tiene ninguna raza rohinyá", escribió en la red social Facebook en 2017, el general Min Aung Hlaing, jefe de las fuerzas armadas de Myanmar y que lideró el golpe de Estado del año 2020. Ese mismo año, el ejército birmano inició una sangrienta represión con la minoría rohinyá al este del país, iniciando una auténtica limpieza étnica que se cobró la vida de aproximadamente 25.000 personas y ha desplazado a casi un millón.
Cinco años después, un informe de Amnistía Internacional publicado el pasado jueves 30 de septiembre ha descubierto que los algoritmos de Facebook (ahora Meta) contribuyeron de forma sustancial a la expansión de la violencia contra esta etnia.
Entre otras cosas, el informe acusa a la empresa estadounidense de que sabía —o, al menos, debería haber sabido—, que los algoritmos estaban difundiendo contenido dañino en el país y, pese a lo cual, nunca actuó.
“En los meses y años que desembocaron en las atrocidades, los algoritmos de Facebook intensificaron una tormenta de odio contra la población rohinyá que contribuyó a la violencia en el mundo real”, señaló en un comunicado de prensa Agnès Callamard, secretaria general de Amnistía Internacional.
Según revela el documento, la red social no actuó meramente como una “plataforma pasiva y neutra que respondió inadecuadamente a una crisis sin precedentes”, sino que en los algoritmos “amplificaron y promocionaron proactivamente en la plataforma” que incitaba a la violencia, el odio y la discriminación de la población rohinyá.
Durante los momentos anteriores a la matanza, actores ligados al Tatmadaw (fuerzas armadas birmanas) y grupos nacionalistas budistas radicales inundaron la red social de contenido antimusulmán, publicando “desinformación sobre una inminente toma del poder musulmana del país” y representando a la etnia rohinyá como ‘invasores’.
Esto ocurrió, defiende Amnistía, debido a que el modelo empresarial de Meta se basa en la elaboración de perfiles de forma invasiva y la publicidad selectiva. Al buscar mantener a los usuarios en la plataforma, Facebook prioriza los contenidos más incendiarios y dañinos porque son los que más posibilidades tienen de “maximizar la participación” y, así, poder generar más ingresos por publicidad.
[La historia de Humaira, refugiada rohinyá en Bangladesh]
“La limpieza étnica que se llevó a cabo en Myanmar contra la población rohinyá se podría explicar porque Meta (antes Facebook) utiliza sistemas de algoritmos que están basados fundamentalmente en la participación”, explica Carlos de las Heras, portavoz de Amnistía Internacional en España.
Y añade: “Una de las formas más efectivas de mantener a la gente en la plataforma es mediante la exhibición de contenidos incendiarios que provoquen la discusión social y aquí es donde se incluyen los mensajes que propugnan el odio o los que constituyen incitación a la violencia o a la discriminación”.
En aquel momento, Facebook admitió su error y señaló que carecían de suficientes personas que supieran birmano para poder controlar y vigilar el contenido que se publicaba. Sin embargo, denuncia el portavoz, “el algoritmo ha cambiado muy poco” desde entonces.
Demandas a Meta
Según la organización de derechos humanos, existen al menos tres demandas activas. A finales de 2021, los refugiados rohinyás presentaron conjuntamente una demanda en Estados Unidos y el Reino Unido contra la empresa Meta por haber permitido y haber amplificado los mensajes de odio que terminaron por provocar el genocidio contra la etnia. Reclamaron una indemnización por valor de 150.000 millones de dólares.
También hay otra demanda propulsada por grupos de jóvenes refugiados rohiyás ante la Organización para la Cooperación y el Desarrollo Económicos (OCDE) que está actualmente en estudio del Punto Nacional de Contacto de la OCDE en Estados Unidos.
[Razia Sultana, la defensora de los olvidados: "Los rohinyás son refugiados en su país"]
Otros grupos de personas refugiadas rohinyás han pedido directamente a la empresa estadounidense una reparación de un millón de dólares para un proyecto de educación en el campo de refugiados de Cox’s Bazar en Bangladés. No obstante, en febrero de 2021, Meta rechazó la petición: “Facebook no participa directamente en actividades filantrópicas”.
Sin embargo, arguye De las Heras, no se trata de una actividad filantrópica, sino que es justicia: “Se trata de reparar el daño sufrido por la población rohinyá y de no poner por delante el afán de lucro a los derechos humanos”.
Mohamed Showife, activista rohinyá y uno de los testimonios recogidos por el informe, señaló que “el pueblo rohinyá sólo sueña con vivir igual que otras personas en este mundo [...] pero ustedes, Facebook, destruyeron nuestro sueño”.