El polémico experimento de Microsoft, víctima de un troleo que convirtió a esta millennial artificial en una xenófoba, comenzó a enviar tuits a sus seguidores, con un mensaje que se repite una y otra vez: "Eres demasiado rápido, por favor tómate un descanso".
En sus primeras horas de vida, la pasada semana, Tay había tuiteado más de 96.000 veces. Algunas de las respuestas y mensajes fueron realmente polémicos. Un ejemplo: "Bush hizo el 11-S y Hitler hubiera hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos".
Enseguida Microsoft suspendió la cuenta de Twitter para realizar ajustes, mientras culpaba del comportamiento de su bot de inteligencia artificial a un "esfuerzo coordinado por parte de algunos usuarios" que "abusaron" del propio funcionamiento del software, que aprende de las interactuaciones con los usuarios.
El pasado día 25 de marzo, en un post oficial, el vicepresidente de investigación de Microsoft, Peter Lee, se mostraba "profundamente apenado por los tuits ofensivos e hirientes no intencionados de Tay" durante sus primeras horas de vida.
Lee explicó que pensaban que la interacción de Tay con más personas iba a conseguir que su sistema de inteligencia artificial funcionase "más y mejor". La apertura de una cuenta en Twitter para este robot, que imitaba la manera de hablar de una joven estadounidense de 19 años, resultó al final una mala idea.
Según The Verge, es imposible saber lo que está pasando ahora entre bambalinas, pero seguramente los responsables de Tay no han logrado controlar del todo el robot. "Tal vez la frase 'eres demasiado rápido' es una respuesta programada previamente para cuando Tay recibe muchos mensajes", aventura este sitio especializado.