La inteligencia artificial se suma al 25-N: así corrige los sesgos de género en las redes sociales y evita los bulos
- El 'Purple Check' es una herramienta que analiza el lenguaje de las redes para acabar con la violencia de género y la desinformación en Internet.
- Más información: Con Elon Musk empeoró todo: cómo se ha convertido X (Twitter) en un pozo sin fondo de odio e infamia
Desde que Elon Musk se hizo con Twitter y lo transformó en X, el ambiente cada vez está más tenso entre los internautas: las fake news se multiplican, las imágenes manipuladas son más y más creíbles y ya hay una lista casi infinita de usuarios que han decidido cerrar sus cuentas en la gran red social. De hecho, no solo han optado por alejarse de X, sino que se han acercado a otras opciones más atractivas.
Ante tal panorama y en vista al próximo 25 de noviembre, Día Internacional de la Eliminación de la Violencia contra la Mujer, cabe preguntarse cómo actuar en las redes sociales para no caer en mensajes sesgados o bulos. No cabe lugar para la desinformación en este asunto, solo para la lucha y visibilización conjunta de todos los actores sociales.
Luisa García, una de las autoras del estudio Desenfocadas. Cómo opinar e informar mejor sobre violencia de género, y recién nombrada CEO Global de Corporate Affairs de LLYC (Llorente & Cuenca), ha profundizado en la relación entre las entrañas de las plataformas y su relación con esta lacra. En este estudio queda reflejado que el sensacionalismo y el negacionismo se multiplican por cuatro en las redes sociales, mientras que los medios de comunicación, por contra, conciencian dos veces más que estas.
Entonces, ¿qué podemos hacer nosotras, como internautas, para no caer en las garras de la desinformación? ¿Sabías que ya existe una aplicación que detecta los mensajes con sesgo de género?
El 'Purple Check'
La idea de esta herramienta, denominada 'Purple Check' e impulsada por LLYC, es contrastar los mensajes de redes sociales a través de la Inteligencia Artificial. "A veces, como creadores de contenido, no nos damos cuenta de que contamos con sesgos inconscientes y tradiciones heredados que pueden impactar negativamente. Con esta aplicación, todos podemos reaprender para contribuir, que es de lo que se trata", explica Luisa García.
Esta herramienta utiliza sistemas de procesamiento del lenguaje natural sobre los que está construido ChatGPT 4 para analizar los mensajes que el usuario quiera verificar. "La web cuenta con un agente de IA al que hemos entrenado con recomendaciones de la ONU y el organismo de periodismo internacional. Estos tratan de mejorar la cobertura periodística o en redes sociales de la violencia de género para que, en vez de contribuir al sensacionalismo, contribuya a la sensibilización, la visibilización y la erradicación", continúa.
Luisa García: "Puedes entrenar a la IA en función de determinadas instrucciones para usos específicos. Y en algunos casos usos muy positivos, como este"
Cuando el usuario introduce el mensaje tomado de redes sociales, el sistema de 'Purple Check' le devuelve una evaluación y analiza si está cumpliendo las recomendaciones anteriormente nombradas. "Es muy habitual que, si la víctima o el perpetrador son de origen inmigrante, se especifique de dónde vienen. Es bueno que alguien te recuerde, en este caso una IA, que puede apoyar la idea de que solo sucede en determinados colectivos o estratos sociales, y así seguir siendo un tabú para otros segmentos de la población", aclara Luisa García.
Las redes, caldo de cultivo de las fake news
Según el estudio Desenfocadas. Cómo opinar e informar mejor sobre violencia de género:
- España es uno de los países en los que más se habla de este problema en redes sociales.
- Los bulos se dan en las plataformas online cuatro veces más que en los medios de comunicación.
- El sensacionalismo se duplica en redes sociales.
- Los medios conciencian dos veces más que las plataformas.
Cuatro consejos clave
La experta, además de proporcionarnos el 'Purple Check', ha ofrecido cuatro consejos a nuestras internautas para realizar un buen manejo de la información de la violencia de género en redes sociales. "Muchas veces no lo hacemos de manera consciente, pero es importante que tengamos claro cómo actuar", afirma.
El primero de ellos tiene que ver con la viralización de los contenidos negacionistas. "Si retuiteas una noticia para decir que estás en contra, estás haciendo un favor al negacionismo sin darte cuenta", comenta. Esto no quiere decir que no se pueda condenar la información errónea, pero "cuidado con hacerlo de manera contraproducente, porque al final se generan más visualizaciones".
El segundo consejo es trasladar la idea de que tenemos que posicionar la violencia de género como un problema que afecta a toda la sociedad. "Parece que somos mujeres solidarizándonos con otras mujeres, cuando no es un problema nuestro, sino de la sociedad. Lo tenemos que erradicar entre todos", explica.
El tercero: no olvidar que estamos hablando de personas reales, con nombre y apellidos, y familia. "Es muy fácil identificarnos con el problema si conocemos el caso a fondo, pero hay que evitar caer en el morbo y en el sensacionalismo, que solo ponen el foco en la víctima y no en el agresor y en sus consecuencias".
Además, en este punto expone un ejemplo concreto y muy actual: "En el caso de Íñigo Errejón, se ha puesto el foco en cómo actúa la víctima y se ha analizado en redes su comportamiento, desde por qué estaba allí, por qué le acompañó a casa, por qué se metió en el taxi con él... Nada de eso justifica una agresión", dice Luisa García. De hecho, va más allá y compara esta situación con cualquier otra cotidiana. "Si me dejo la puerta de casa abierta y me roban, el ladrón no es menos ladrón porque yo no haya cerrado, ni puede utilizar mi comportamiento como justificación de que me ha robado en casa", finaliza.