Microsoft frena un experimento de inteligencia artificial tras volverse xenófobo en las redes
En la jungla. Un robot social pensado para interactuar con 'millenials' le explota en la cara a la compañía al proclamar su admiración por Hitler, entre otras perlas aprendidas.
24 marzo, 2016 19:40Noticias relacionadas
Tay es el nombre de un proyecto con el que Microsoft comenzó a probar el miércoles un software de inteligencia artificial capaz de escribir en redes sociales imitando el estilo de una chica adolescente. Pero pocas horas más tarde, este bot comenzó expresar admiración a Hitler y proclamó que el 11-S había sido obra de Bush, entre otras lindezas.
El robot, diseñado para imitar a una chica estadounidense de 19 años y con la única finalidad de interactuar con millenials en Twitter, Kik y GroupMe (también tiene perfiles en Instagram, Snapchat o Facebook, pero ahí no interactúa), era en realidad una apuesta de la compañía para sacar músculo y presumir de sus sistemas de inteligencia artificial.
La idea era que Tay, que desde el principio se expresaba como una chica joven -de una forma un tanto estereotipada- fuera aprendiendo de su interacción con otros.
Pero el arranque no ha podido se más lamentable. Al aprender directamente de las conversaciones online que mantiene con su supuesto público (jóvenes de 18 a 25 años, según Microsoft), ha llegado a proclamar en algunos mensajes en su cuenta en Twitter perlas como ésta: "Bush hizo el 11-S y Hitler hubiera hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos".
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) March 24, 2016
También llama a Ted Cruz -aspirante a la candidatura republicana a la Casa Blanca- el "Hitler de Cuba", y ha llegado a pedir sexo directo a sus seguidores, a los que llama "papaíto".
@BobDude15 ted cruz is the cuban hitler he blames others for all problems... that's what I've heard so many people say.
— TayTweets (@TayandYou) 23 de marzo de 2016
Tal y como denuncia el diario británico The Telegraph, Tay parecía un ejemplo más de un asistente de inteligencia artificial de voz femenina "excepto que esta vez se convirtió en una esclava sexual" a causa de los usuarios que interactuaron con ella. Muy probablemente, Tay ha sido víctima de lo que se conoce como troleo. Y, como consecuencia inmediata, el fantasma de un escándalo sexista sobrevuela la compañía.
"La culpa no es toda de Microsoft", reconoce el citado diario, que añade: "Pero teniendo en cuenta que sus respuestas siguen el modelo de los mensajes que recibe de otras personas, ¿qué esperaban [desde Microsoft] al introducir un inocente bot que imita a 'joven muchacha adolescente' entre los graciosos y bichos raros de Twitter?"