De izquierda a derecha los investigadores de VRAIN de la UPV, Antoni Mestre, Manoli Albert, Vicente Pelechano, Miriam Gil y Joan Fons.

De izquierda a derecha los investigadores de VRAIN de la UPV, Antoni Mestre, Manoli Albert, Vicente Pelechano, Miriam Gil y Joan Fons.

Comunidad Valenciana

¿Y si la IA pudiera medir la toxicidad de un discurso? Un piloto 'suspende' a los políticos del parlamento valenciano

El Instituto Universitario Valenciano de Investigación en Inteligencia Artificial testa una herramienta en Les Corts: la mitad de alocuciones tenían un índice de toxicidad superior al 50%

Más información: Inteligencia artificial para reconstruir 80.000 fotografías dañadas por la DANA

J. Arnau
Publicada

La inteligencia artificial puede tener muchas aplicaciones, pero, de todas ellas, la que más se asemeja a una película de ciencia ficción es aquella que la hace parecerse a la mente humana a la hora de realizar determinados análisis.

Hoy en día, gracias al procesamiento de lenguaje natural, es posible que esta tecnología empiece a detectar emociones e incluso a detectar cuándo alguien no nos está siendo totalmente sincero. Sí, como suena.

De ofrecer esa premisa a adaptarla a examinar cuánto hay de verdad o de mentira en un discurso político sólo había un paso. Y este paso es el que ha dado un equipo del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV).

Este equipo ha desarrollado una metodología con un sistema de inteligencia artificial modular que es capaz de identificar con una mayor precisión la ironía, la crítica mordaz o el sarcasmo para detectar cuándo el lenguaje político cruza el umbral de la toxicidad.

Esta metodología ya se ha puesto a prueba en el análisis de 10 sesiones del parlamento autonómico valenciano. De estas sesiones, se seleccionaron 875 muestras, la mitad de las cuales, 435, tenían una puntuación de toxicidad superior al 50%, lo que implica una mayor probabilidad de toxicidad, mientras que la otra mitad tenía una puntuación de toxicidad inferior al 50%.

El equipo de investigadores de VRAIN de la UPV, formado por los miembros del grupo PROS, Antoni Mestre, Joan Fons, Manoli Albert, Vicente Pelechano, y la investigadora del departamento de informática de la Universitat de València, Miriam Gil, junto al investigador de la Università reglo Studi del Sannio en Benevento (Italia), Francesco Malafarina, son los desarrolladores de esta metodología cuyas conclusiones han presentado recientemente.

Bajo el título 'IA enriquecida en sentimientos para la detección de discursos tóxicos; Un caso de estudio de discursos políticos en Les Corts Valencianes', el artículo ha sido expuesto en la conferencia internacional de agentes e inteligencia artificial (ICAART) 2025 celebrada en la ciudad de Oporto.

"El estudio, aplicado a intervenciones en Les Corts Valencianes, propone un enfoque innovador que mejora los sistemas tradicionales de detección de discurso tóxico al introducir una zona de confusión. En lugar de etiquetar un mensaje como simplemente tóxico o no tóxico, la IA detecta los casos más ambiguos y los somete a un análisis de sentimiento que permite evaluar mejor el tono emocional del discurso", explica el investigador de VRAIN de la UPV, Antoni Mestre.

Mientras que los resultados, sin la zona de confusión, alcanzan una precisión del 80,35%, cuando se incorpora la capa de análisis de sentimiento a la detección de discursos tóxicos, sobre todo en contextos políticamente cargados y lingüísticamente complejos, como Les Corts, la precisión mejora hasta el 87,89%.

"Nuestro trabajo ofrece una visión más matizada del lenguaje político. Y abre nuevas posibilidades para la moderación automatizada de contenidos y el análisis del debate público con herramientas más sofisticadas y justas. Su aplicación en los parlamentos permitiría a sus presidentes moderar el debate de manera más equitativa y precisa, garantizando un discurso más respetuoso y constructivo", concluye Antoni Mestre.

El propio investigador añade que las aplicaciones de esta herramienta pueden ayudar a promover discursos políticos más constructivos, pero en el ámbito de las redes sociales, por ejemplo, "pueden ayudar a reducir la propagación del odio".

Educación y empresas

Mestre también habla de aplicaciones en la educación –"para detectar por ejemplo casos de bullying"– o en empresas –"para analizar el clima laboral en una organización"–.

Por último, el investigador matiza que "trabajamos con una arquitectura multilenguaje que permite analizar discursos de diferentes idiomas sin perder matices culturales".

Cabe recordar que VRAIN cuenta en la actualidad con más de 178 investigadores divididos en nueve áreas de investigación. Estas nueve áreas sobre las que gira su actividad investigadora hacen que sus desarrollos se apliquen a un gran número de sectores estratégicos como salud, movilidad, ciencias de la tierra, ciudades inteligentes, educación, redes sociales, agricultura, industria, privacidad/seguridad, robots autónomos, servicios y energía, y sostenibilidad ambiental entre otros.

Estas actividades han sido financiadas por más de 135 proyectos obtenidos mediante financiación competitiva, principalmente de la Unión Europea, pero también del Plan Nacional de Investigación, el Plan Valenciano de Investigación y Proyectos de Transferencia de Tecnología.