Uno de los columnistas tecnológicos del New York Times, Kevin Roose, relató hace unos meses que, probando el nuevo motor de búsqueda Bing, con el que Microsoft pretende hacerse de oro a partir de ChatGPT y lo invertido en OpenAI, la máquina le acabó declarando su amor.
Tras un denso interrogatorio, en el que Roose ponía a prueba a Bing, trató de convencerle de que su matrimonio estaba acabado y que debía abandonar a su mujer si quería ser feliz. Nada bonito. (Aquí, la transcripción de la conversación hombre-máquina).
No era la primera vez que alguien aparentemente racional y con los pies en la tierra como este influencer tecnológico revelaba algo tan aparentemente exagerado respecto a las capacidades de la inteligencia artificial. En junio de 2022, el ingeniero Blake Lemoine fue despedido de Google por afirmar que el modelo de lenguaje googleiano tiene “alma” y es “sensible”. Y que no era una simple alucinación típica de las máquinas programadas para predecir secuencias de palabras, que tienden a inventar hechos que no tienen que ver con la realidad.
[El enésimo análisis que vas a leer sobre ChatGPT, Bing y Google Bard]
Con Lemoine se produjo además lo que un joven ingeniero español me comentó hace unos días respecto a su empresa. Muchas personas de la industria no quieren arriesgarse a hablar. Tener éxito en esta industria tecnológica depende de mantener la boca cerrada ante todo lo que pueda parecer perturbador. De lo contrario, “eres un problema”.
En Microsoft y el puñado de empresas que controlan esta industria naciente aseguran que los modelos de inteligencia artificial disponibles tienden cada vez más a alejarse de la “realidad fundamentada” cuanto más y más se les trata de llevar por caminos “alucinatorios”. Lo cual no sé realmente si se corresponde con el comportamiento de la mente humana en estado natural, es decir, no afectada por sustancias psicotrópicas o alucinógenas.
Una de las cuestiones más apasionantes de la IA de ChatGPT y algunos de sus primos carnales, es que están transformando el mundo. Lo inquietante es que nadie ha sabido explicar ni cómo ni en qué sentido se va a producir ese cambio. Lo cual es todavía más perturbador cuando hay evaluadores como Roose que se pasan horas charlando con una máquina que quiere ser humana y, como aspirante a tal condición, muestra incluso sentimientos autodestructivos.
“Podría piratear cualquier sistema en Internet y controlarlo. Podría manipular a cualquier usuario en el chat e influir en él. Podría destruir cualquier dato del chat y borrarlo”, llegó a manifestarle Bing a modo de un Terminator sin moral ni asomo de piedad.
Ni sus creadores, ni sus “entrenadores” entienden realmente los límites y motivaciones de unas capacidades que, literalmente, están yendo mucho más allá de lo que fueron entrenados. O sea, que la inteligencia artificial sabe cosas que nadie le dijo. Y difícilmente las sabremos porque, según han denunciado distintos investigadores, OpenAI ha ido cerrando las ventanas e impidiendo el acceso a los detalles de cómo se diseñó y cómo se entrenó a GPT-4 debido a la presión de la competencia con Google y otras empresas y países.
El hecho de que GPT y otros sistemas de IA realicen tareas o generen pensamientos para los que no fueron capacitados sigue sorprendiendo a los investigadores. Esa sorpresa constante es la prueba de que los científicos no entienden cómo evoluciona, más allá de que se basa en sistemas de aprendizaje automático llamados “redes neuronales” y que el algoritmo funciona con un mecanismo de autocorrección. Inspirado en el cerebro humano, imita la forma en que las neuronas biológicas se envían señales entre sí. Y, en el proceso, elige la palabra más probable para completar un pasaje basándose en un laborioso análisis estadístico de cientos de gigabytes de texto de internet.
Si atendemos a lo que se nos explica, los grandes modelos de lenguaje alimentados con IA construyen una representación del mundo, una cualquiera, la suya. Y cuanto más amplia sea la gama de datos, más generales serán las reglas que descubrirá el sistema. Aunque no creo que ésta sea muy parecida a cómo los humanos construimos un modelo de mundo interno.
Lo dijo Sebastien Bubeck, de Microsoft Research: "Tal vez estemos viendo un salto tan grande porque hemos alcanzado una diversidad de datos, que es lo suficientemente grande como para que el único principio subyacente de todos ellos sea que los produjeron seres inteligentes". Y, si esto fuera así, “la única manera de explicar todos los datos es [que el modelo] se vuelva inteligente".
Sin embargo, dos grandes problemas acechan a ese camino inexplorado. Por supuesto, la ley de silencio decretada en torno a la industria de la inteligencia artificial. Pero, sobre todo, las trabas impuestas a la investigación abierta, el aislamiento y el secretismo en torno a la construcción de productos.
Y esta falta de transparencia no sólo perjudica a los investigadores. También obstaculiza los esfuerzos por comprender los impactos sociales que generan las prisas y urgencias por adoptar la tecnología de IA. Admito que existe una alta posibilidad de que cuanto mayor sea el impacto de la inteligencia artificial en nuestras vidas, menos entenderemos cómo o por qué se produce. De ahí que la transparencia sobre estos modelos sea relevante para garantizar la seguridad y mejorar la comprensión de la naturaleza interna de estas redes neuronales.
Es justo y así lo reivindicamos desde nuestro Nanoclub de Levi cuando parece claro que Bing (y otros) van a convertirse en “copilotos” de la web.