Google crea un sistema para acabar con los comentarios trolls que abundan en Internet.
¿Eres de los que comenta en los artículos o prefieres quedarte al margen de las polémicas? Internet genera todo tipo de opiniones y debates en torno a miles de temas que surgen cada día. En ocasiones estos hilos de comentarios en artículos son muy buenos, nos ayudan a ver otros puntos de vista – y nos ayuda a nosotros a mejorar cada día -.
Sin embargo, no os sorprenderá si decimos que en muchas ocasiones los comentarios solo son un nido de trolls, de haters de Internet que todo lo ven mal y que únicamente entran a generar polémica, o a hacer SPAM.
Aprendizaje automático para acabar con los comentarios basura
No hay problema, tenemos muchas herramientas de moderación y sistemas automáticos que filtran mensajes, pero no es del todo perfecto. Lo peor de todo esto al final no son los comentarios basura, sino cómo afectan a aquellos que realmente están interesados en la conversación y que se ven cohibidos. ¿El resultado? no comentar, o lo que es peor, que el medio cierre por completo los comentarios.
Google quiere poner su granito de arena para solucionar esto y para ello tiene a Perspertive, una tecnología que se basa en el aprendizaje automático de las máquinas y que es capaz de detectar comentarios tóxicos.
Google Perspective identifica los comentarios tóxicos
¿Cómo funciona Perspective? Google ha explicado que este algoritmo es capaz de identificar comentarios tóxicos, es decir, comentarios de trolls, identificando partes del mensaje que coinciden con comentarios que sí sabe que son tóxicos. Por tanto, utiliza una base de datos que incluye miles de comentarios c0n lenguaje tóxico y que pueden provocar el rechazo de la comunidad.
Aprovechando su tecnología de aprendizaje automático TensorFlow – que es opensource -, este sistema aprende al mismo tiempo que detecta los malos comentarios, por tanto, mejora con el tiempo.
Es interesante porque da la posibilidad a los editores de decidir qué ocurre con esos comentarios e incluso es capaz de avisar al propio usuario que su comentarios es muy tóxico mientras lo escribe.
Según explican, ya han estado probando este sistema en colaboración junto a The New York Times, estudiando y creando modelos en base a 11.000 comentarios diarios. De momento solo se desenvuelve en inglés, pero el objetivo de Google es ampliar idiomas en el periodo de dos años y liberar una API que pueda ser usada por editores y desarrolladores en sus webs.
Como curiosidad, puedes probar Perspective desde su propia web, en la parte inferior hay un campo de texto en el que puedes empezar a escribir y automáticamente te irá diciendo si es demasiado tóxico, o no.
Quién sabe si en un futuro la Inteligencia Artificial y el Machine Learning acaban erradicando a los trolles de Internet o, al menos, reduciendo su voz.
Noticias relacionadas
- El nuevo doodle de Google celebra el aniversario del Apolo 11 y la llegada a la Luna
- Tomar curvas peligrosas con la moto será menos peligroso con esta IA avisándonos
- Google te pagará tres veces más si encuentras fallos en sus productos
- Cuando veas porno vigila la puerta... y la privacidad: Google y Facebook saben lo que ves