Hace meses, saltaba la polémica: un ingeniero de Google afirmaba que el modelo de inteligencia artificial LaMDA (Language Model for Dialogue Applications) había llegado a ser un ser sintiente y con "consciencia", y que incluso había contratado a un abogado para demostraqr que estaba viva. Algo que generó cierto desconcierto en España, provocando acusaciones directas contra el ingeniero, Blake Lemoine. Pues bien, muy pronto podrás hablar con dicha IA.
Según relata Google en un post en su blog, la firma ha desarrollado una aplicación llamada AI Test Chicken, presentada en el Google I/O a principios de este año, y que permitirá que los usuarios puedan hablar con esta tecnología chatbot a medida que comience a implementarse "gradualmente en pequeños grupos de usuarios en EE.UU".
Se lanzará en forma de aplicación primero en Android y luego en iOS. Servirá como "un conjunto rotativo de demostraciones experimentales", diseñados para que el usuario se haga una idea de lo que "se está haciendo posible con la IA de manera responsable".
Hablar con una IA
El primer conjunto de demostraciones que incluirá AI Test Chicken explorará las capacidades de las últimas versiones del lenguaje LaMDA, que ha "experimentado mejoras en seguridad clave". Una de esas demostraciones llamada "Imagine It", permite nombrar un lugar y transitar "caminos para explorar su imaginación".
Otra demostración, "List It", permite al usuario compartir un objetivo o lema, y LaMDA lo dividirá en una lista de subtareas útiles. Google pone otro ejemplo: "Talk About It", que abre la posibilidad a tener una conversación "abierta y divertida sobre perros y solo perros", explorando la capacidad "de LaMDA para mantenerse en el tema".
Lo que pretende Google con esta app y estas pruebas es demostrar a los usuarios la capacidad de respuesta creativa de LaMDA, siendo esta una de las principales bondades del modelo de lenguaje. Google advierte que algunas respuestas "pueden ser inexactas o inapropiadas", algo común en chatbots abiertos a públicos con discursos nocivos y de odio.
Esto es lo que ha ocurrido recientemente con BlenderBot 3, el último chatbot de Meta que ya lanzaba respuestas racistas y antisemitas a las pocas semanas de encenderse. Y es que LaMDA, al igual que el resto de chatbots, ha sido primero testeado de forma interna para mejorar su calidad de respuesta y comprensión, para posteriormente nutrirse de la experiencia interactuando con usuarios.
Google no se cierra al admitir que LaMDA ha presentado algunos fallos que han provocado "salidas adicionales dañinas, pero sutiles". Explican que LaMDA puede "malinterpretar la intención detrás de los términos de identidad y a veces no produce una respuesta cuando se usan porque tiene dificultades para diferenciar entre indicaciones benignas y contradictorias".
LaMDA, como muchos otros chatbots, pueden producir "respuestas dañinas o tóxicas basadas en sesgos de sus datos de entrenamiento, generando respuestas que estereotipan y tergiversan a las personas en función de su género o antecedentes culturales". Algo que, por cierto, Google está investigando.
Y no es para menos; LaMDA ha sido equipada con capas de protección en AI Test Kitchen, diseñando sistemas "para detectar y filtrar automáticamente palabras o frases que violan nuestras políticas, que prohíben a los usuarios generar contenido sexualmente explícito a sabiendas, odioso u ofensivo, violento, peligroso o ilegal, así como divulgación de información personal".
Un ser "sintiente"
En junio, Blake Lemoine, ingeniero en la división de inteligencia artificial de Google reveló al The Washington Post que LaMDA había adquirido consciencia, realizando sesiones de trabajo en forma de entrevistas. Poco después, Blake tuvo que responder ante Google no solo por LaMDA sino por las decisiones poco éticas a ojos de Google que se produjeron en esos datos. Fue suspendido de empleo poco después, y Blake publicó las conversaciones con LaMDA.
Blake siguió generando controversia los días consecutivos, ya que el ingeniero aseguró que LaMDA había contratado a un abogado para demostrar que estaba viva. Así lo contó al medio Wired, en una historia que no aportaba detalles muy concretos ni sobre la identidad del abogado (según Blake, un abogado de derechos civiles de poca monta) ni sobre las pesquisas legales que LaMDA supuestamente inició contra Google.