Un algoritmo presentado ayer por Jigsaw, la incubadora de ideas de Alphabet dedicada a la aplicación de soluciones tecnológicas para luchar contra la censura, los ciberataques o el extremismo, trabaja en ser capaz de detectar insultos y ataques personales en una conversación en la web.
La idea va mucho más allá de las típicas “listas de términos prohibidos” tradicionalmente utilizadas. La censura de términos dejaba mucho que desear, porque cumplía la doble función de impedir la mención de determinadas palabras aunque no fuesen utilizadas para agredir, y de estimular la imaginación de los agresores para saltarse los filtros y seguir insultando. Frente a eso, el algoritmo, llamado Perspective, utiliza el machine learning para tratar de aislar y entender la naturaleza de los comentarios que llevan a una persona a abandonar una conversación, a partir del estudio de miles de comentarios almacenados.
El resultado, convertido en una herramienta que puede ser instalada libremente en páginas web y con el que muchos estamos jugando ahora mismo, no es un producto terminado. Está pensado para seguir aprendiendo a medida que se incrementa su uso, para convertirse en un auténtico “detector de mala leche”, un analizador constante que puede aliviar enormemente el coste en el que muchas publicaciones tienen que incurrir para intentar ofrecer un foro de discusión razonablemente sano. En temáticas tan dispares como deporte, política o sistemas operativos, un verdadero desafío.
Hace catorce años que gestiono una página abierta a comentarios. A lo largo del tiempo, he llegado a ser capaz de mantener un entorno razonablemente sano a base de invertir trabajo personal y de desarrollar un sistema de listas negras y listas blancas de comentaristas que logra que las ocasiones en las que alguien se siente blanco de un ataque personal sean pocas. Mucho trabajo, y solo factible para volúmenes relativamente escasos. Intenta hacerlo así con centenas o miles de comentarios, y rápidamente lo darás por imposible.
Que un algoritmo detecte ya no un insulto, un taco o una ironía excesivamente afilada, sino la mala leche, el comentario que te duele, que te hace sentir mal o que te lleva a abandonar la conversación nos demuestra una cosa: que la inteligencia artificial aplicada al análisis del lenguaje natural está ya posiblemente al nivel de ser capaz de procesar conversaciones bastante mejor de lo que lo harían muchos humanos.
En que este tema avance hay decididamente mucho a ganar... y una paradoja: la única manera de controlar a supuestas inteligencias naturales para que conversen civilizadamente va a ser utilizando una inteligencia artificial. Triste, sí. Veremos cómo evoluciona.