A un ingeniero de Google, Blake Lemoine, le ha dado por obsesionarse con que uno de los asistentes conversacionales desarrollados por la compañía había sido capaz de evolucionar para convertirse en "sensible" o "autoconsciente", ha tomado capturas de pantalla de algunas de sus conversaciones, y se ha ido al Washington Post a contarlo. En pleno delirio, ha llegado incluso a hablar con un abogado para intentar que el asistente fuese clasificado como persona y tuviese los derechos correspondientes.
La reacción de la compañía ha sido inmediata: suspender de empleo y sueldo al ingeniero en cuestión por ruptura del contrato de confidencialidad, pero sobre todo, por su profunda irresponsabilidad e incompetencia.
Una cosa es trabajar en el desarrollo de asistentes conversacionales, otra muy distinta obsesionarse con ellos y creer que contestan 'desde el fondo de su (inexistente) corazón', y otra ya superlativa es tratar de convencer a la opinión pública de que efectivamente es así.
Un asistente conversacional es un tipo de algoritmo que se obtiene mediante la combinación de muchísimas conversaciones y su etiquetado a lo largo del tiempo.
Cuando se cuenta con una base de datos de conversaciones muy grande y el asombrosamente tedioso trabajo de etiquetado se hace muy bien, el algoritmo puede llegar a mantener dinámicas conversacionales de una calidad sorprendente, sobre todo por lo que difiere de los asistentes conversacionales que conocíamos anteriormente, simples grabaciones monótonas activadas por un desencadenante sencillo.
Revisemos la historia y planteemos cuál es el peligro de acudir a los medios pretendiendo que un simple asistente conversacional "ha tomado conciencia de sí mismo": hasta no hace mucho tiempo, crear una máquina que hablase era algo que se reducía a encadenar palabras grabadas por un locutor o locutora.
Como esas palabras estaban destinadas a formar parte de frases, la única forma de grabarlas coherentemente y que el resultado fuese inteligible era grabarlas en un tono absolutamente monótono, completamente carente de entonación, en lo que conocemos como voz robótica.
Ante una opción determinada elegida por el usuario, el resultado era siempre el mismo: una voz monótona que proporcionaba una opción determinada o un menú con un abanico de opciones.
Ese tipo de asistentes, que los usuarios por lo general terminamos odiando porque suponían una forma de que las empresas se ahorrasen costes a cambio de ofrecernos, por lo general, una atención sensiblemente peor, nos llevaron a multitud de suspiros de resignación, cuando no a estrategias como apretar sistemáticamente la opción cero para tratar desesperadamente de que apareciese una persona al otro lado.
Cuando Google presentó una de las iteraciones de su Google Assistant, llamó muchísimo la atención (de hecho, llevo varios años utilizando algunas de sus grabaciones en clases y conferencias).
Por primera vez, no escuchábamos frases grabadas, sino generadas, con entonación, con partículas de énfasis y hasta capaces de reaccionar a imprevistos. El resultado, sin perder de vista que veníamos de donde veníamos, era profundamente sorprendente.
Google lleva tiempo utilizándolo en sus asistentes, y ha sido protagonista de polémicas como el supuesto "derecho a hablar con una persona". Desde hace algún tiempo, el asistente "previene" a su interlocutor de su naturaleza robótica, porque si no lo hace, podría fácilmente ser tomado por un asistente humano.
Al ir aumentando la base de datos de conversaciones etiquetadas, el asistente se vuelve muy bueno, y llega incluso a mantener conversaciones que simulan ser humanas, o incluso trascendentales. Pero eso no es más que un resultado computacional: el uso de más y más frases con sus correspondientes etiquetas. Un algoritmo puede llegar a ser muy bueno escogiendo la frase adecuada y locutándola de manera convincente.
La Inteligencia Artificial no existe: lo que existe es el 'machine learning', el conseguir que una máquina aprenda a desarrollar y optimizar una tarea
De ahí a pensar que un algoritmo ha adquirido consciencia, va un paso enorme y, por el momento, muy lejano. Posiblemente se consiga algún día, pero estamos muy, muy lejos de ello. De hecho, y por mucho que pretendan algunos, la inteligencia artificial no existe: lo que existe es el machine learning, el conseguir que una máquina aprenda a desarrollar y optimizar una tarea o una serie de tareas determinadas. Pero eso no implica consciencia, ni mucho menos, más allá de que alguien pueda pensar que los intérpretes de una canción están dentro del dispositivo que la reproduce.
En el estado actual de esos algoritmos, podemos conseguir asistentes que discutan de filosofía, que nos proporcionen un servicio al cliente muy bueno, que simulen opiniones políticas o hasta que coqueteen con nosotros o jadeen al otro lado de la línea en un teléfono erótico. Pero eso no implica que piensen, ni que sean siquiera mínimamente conscientes de lo que están haciendo.
Jugar con esos conceptos desde un punto de vista sensacionalista es brutalmente irresponsable, porque el desconocimiento medio de la sociedad en ese tipo de temas es enorme, y los miedos que se pueden generar son, por tanto, desmesurados.
Las conversaciones divulgadas por Lemoine en un ataque de misticismo no son una prueba de la consciencia de un algoritmo, sino de cómo es capaz de combinar respuestas para simular una conversación más o menos profunda. Pero sobre todo, son una prueba de la estupidez del ingeniero en cuestión.
Dejémonos de máquinas conscientes, y sigamos trabajando en machine learning sin permitir que miedos absurdos retrasen lo que viene. No, las máquinas no son conscientes ni van a serlo pronto. Son, simplemente, máquinas. Cuanto antes lo entendamos y rebajemos nuestras alocadas expectativas, mejor para todos.