Tay es el nombre de un proyecto con el que Microsoft comenzó a probar el miércoles un software de inteligencia artificial capaz de escribir en redes sociales imitando el estilo de una chica adolescente. Pero pocas horas más tarde, este bot comenzó expresar admiración a Hitler y proclamó que el 11-S había sido obra de Bush, entre otras lindezas.
El robot, diseñado para imitar a una chica estadounidense de 19 años y con la única finalidad de interactuar con millenials en Twitter, Kik y GroupMe (también tiene perfiles en Instagram, Snapchat o Facebook, pero ahí no interactúa), era en realidad una apuesta de la compañía para sacar músculo y presumir de sus sistemas de inteligencia artificial.
La idea era que Tay, que desde el principio se expresaba como una chica joven -de una forma un tanto estereotipada- fuera aprendiendo de su interacción con otros.
Pero el arranque no ha podido se más lamentable. Al aprender directamente de las conversaciones online que mantiene con su supuesto público (jóvenes de 18 a 25 años, según Microsoft), ha llegado a proclamar en algunos mensajes en su cuenta en Twitter perlas como ésta: "Bush hizo el 11-S y Hitler hubiera hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos".
También llama a Ted Cruz -aspirante a la candidatura republicana a la Casa Blanca- el "Hitler de Cuba", y ha llegado a pedir sexo directo a sus seguidores, a los que llama "papaíto".
Tal y como denuncia el diario británico The Telegraph, Tay parecía un ejemplo más de un asistente de inteligencia artificial de voz femenina "excepto que esta vez se convirtió en una esclava sexual" a causa de los usuarios que interactuaron con ella. Muy probablemente, Tay ha sido víctima de lo que se conoce como troleo. Y, como consecuencia inmediata, el fantasma de un escándalo sexista sobrevuela la compañía.
"La culpa no es toda de Microsoft", reconoce el citado diario, que añade: "Pero teniendo en cuenta que sus respuestas siguen el modelo de los mensajes que recibe de otras personas, ¿qué esperaban [desde Microsoft] al introducir un inocente bot que imita a 'joven muchacha adolescente' entre los graciosos y bichos raros de Twitter?"