En noviembre de 2022, de repente una palabra se hizo omnipresente en todas las conversaciones, dentro y fuera de la industria digital: ChatGPT. Este chatbot, creada por OpenAI, se basa en el modelo de lenguaje ya desarrollado por este ente bajo su tecnología GPT-3 y no tardó demasiado en convertirse en la aplicación que más rápido alcanzó los 100 millones de usuarios en la historia.
La bomba había estallado: al fin un chatbot parecía responder con fluidez a cualquier cosa que le pidiéramos. Incluso era capaz de crear textos o música desde cero, contar historias o seguirnos el hilo al construir interacciones que tan sólo esa IA y nosotros conocíamos. Una relación tan íntima que podría asustar a cualquiera de nuestros antepasados y que, por supuesto, ha permitido que corran ríos de tinta sobre sus beneficios, debilidades, riesgos y oportunidades.
Este medio, Disruptores e Innovadores, no es ajeno a ello: en las últimas semanas hemos publicado análisis y valoraciones sobre el tema de firmas de primer nivel como Esther Paniagua, José Antonio Aguacil, Javier González, Paco Bree, Elena Ceballos, Xavier Borràs, Héctor Mata o Adolfo Plasencia. Y la que nos ocupa y que publica un humilde servidor no será la última ni, mucho menos, la definitiva.
¿El gran salto de las inteligencias artificiales?
Que la inteligencia artificial esté en boca de todos no es algo nuevo. De hecho, la historia de esta tecnología se remonta hasta la década de 1940, cuando la informática apenas era incipiente e internet apenas podría ser el sueño húmedo de algún visionario.
En aquellos lejanos tiempos, Ada Byron (más conocida como Ada Lovelace, quien fuera la primera informática de la historia) creó el primer algoritmo computacional. Ya en los 50, varios trabajos científicos, entre ellos varios de Alan Turing, fueron aterrizando las bases de la actual IA. De hecho, fue este genio británico, considerado como el padre de esta ciencia y autor del famoso test que lleva su apellido, quien se planteó al inicio de esa década la pregunta que aún hoy estamos tratando de responder: "¿Puede pensar una máquina?".
[De los años 40 a hoy: así ha madurado la inteligencia artificial]
Una reflexión que se incorporó como punto de partida en la Conferencia de Darthmouth de verano del 1956, donde Marvin Minsky, John McCarthy y Claude Shanon acuñaron formalmente el concepto de "inteligencia artificial" y se aventuraron a una particular -y a la sazón, errónea- predicción: para los años 80, las máquinas harían todos los trabajos de los hombres.
Desde entonces y hasta la actualidad se sucedieron los trabajos para conseguir desarrollar una inteligencia artificial que cada vez llegara a más niveles y actividades. Unos investigadores lo hicieron defendiendo una visión simbólica, basada en el cálculo lógico, y otros el foco conexionista, que requería entender cómo funcionan físicamente las neuronas para replicarlas artificialmente. En los 80 y 90, con la mejora de las capacidades informáticas, triunfó la apuesta por las redes neuronales que terminarían por despegar a partir de la década de 2010... abriendo el camino para la explosión que hoy nos ocupa.
En 2015, ChatGPT comenzó a ser desarrollado por el equipo de OpenAI, una organización financiada principalmente por Elon Musk y Microsoft. ChatGPT es un modelo de lenguaje basado en redes neuronales, capaz de procesar y entender el lenguaje natural, y generar respuestas coherentes y relevantes a partir de preguntas y comandos.
ChatGPT admite sus propias limitaciones: "Puedo tener dificultades para entender el contexto y la intención detrás de ciertas expresiones o preguntas, especialmente si están formuladas de manera ambigua o confusa. Además, aunque puedo responder preguntas en varios temas, mi conocimiento y experiencia están limitados por la información que se me ha proporcionado durante mi entrenamiento, lo que significa que puedo no tener información actualizada o relevante para ciertos temas. Es importante recordar que soy una máquina y, como tal, no tengo emociones ni capacidad para experimentar el mundo de la misma manera que los humanos. Mi propósito es proporcionar respuestas basadas en la información que se me ha proporcionado, pero no puedo ofrecer juicios de valor o decisiones éticas o morales".
Más en detalle, este modelos de lenguaje es extraordinariamente sensible al ruido y la calidad de los datos con que fue entrenado. "Como modelo de lenguaje, mi rendimiento está directamente relacionado con la calidad de los datos que se me han proporcionado durante mi entrenamiento. Si los datos de entrenamiento son incompletos, inexactos o sesgados, entonces puede haber limitaciones en mi capacidad para proporcionar respuestas precisas y completas", reconoce.
Recordemos que ChatGPT fue entrenado con un conjunto de datos masivo y diverso llamado Common Crawl, que es una colección de páginas web y textos de Internet de todo el mundo. Además, también se incorporaron otras fuentes de datos, incluyendo libros, artículos de noticias o enciclopedias en varios idiomas.
En cualquier caso, su lanzamiento en noviembre de 2022 despertó la fiebre de las inteligencias artificiales generativas. Microsoft, recordemos inversor de OpenAI, lanzó hace apenas unos días la versión en pruebas de su nueva generación de su motor de búsqueda Bing -nombre en clave Sydney-, que utiliza como base las capacidades de ChatGPT. Sin embargo, Bing sí es capaz de buscar contenidos actuales en internet y de responder a preguntas mucho más allá del 'set' con que ha sido entrenado su predecesor. En otras palabras: del chatbot perfecto en continente pasamos al perfecto en contenido.
[¿Puede Europa liderar la era digital? Le preguntamos a ChatGPT y esta es su respuesta]
En general, la implementación de un modelo de lenguaje como ChatGPT en un motor de búsqueda como Bing permitirá mejorar la calidad de las respuestas proporcionadas por el motor de búsqueda al permitir una mejor comprensión y análisis del lenguaje natural. Pero la nueva generación de Bing es mucho más que la suma de ChatGPT con información actualizada: ha sido capaz de desarrollar una 'personalidad' propia, con un tono y grado de proximidad del que carece el proyecto de OpenAI. Y con el que, como veremos a continuación, se empieza a vislumbrar un futuro distópico no tan alejado de esa meta antaño imposible de conseguir una inteligencia artificial general.
Y si hablamos de motores de búsqueda, cabría esperar una respuesta del gran coloso de este mercado, Google. La multinacional de Silicon Valley viene trabajando desde 2016 en su propio modelo, llamado Bard, sustentado en las capacidades de DeepMind y en su proyecto de investigación BERT. Una funcionalidad similar a la presentada por Microsoft que, sin embargo, se estrenó dejando al aire la escasa eficacia de su entrenamiento al ofrecer respuestas falsas en el propio vídeo de lanzamiento. La caída en bolsa que siguió a ese garrafal error es la mejor prueba de la posición de debilidad con que parte Google en esta contienda...
La revolución del conocimiento... o no
Uno de los campos donde más se ha tratado la irrupción de herramientas como ChatGPT es el mundo académico. Tal y como sucedió con la incorporación de las calculadoras, una suerte de neoludismo plantea cuáles podrían ser las consecuencias en el proceso formativo de los más jóvenes si tienen acceso a una tecnología capaz de escribir trabajos, resúmenes o análisis por sí sola, sin necesidad siquiera de que el estudiante revise el texto que presenta a su profesor.
No son pocos los docentes que han puesto el grito en el cielo sobre este extremo y las dificultades que enfrentarían a la hora de plantear tareas extraescolares a sus alumnos, que se tirarían de cabeza al plagio masivo mediante la inteligencia artificial. Obvian, no obstante, que estamos ante una tecnología limitada y que si bien el chat de Bing es capaz de acceder a información actualizada, también es susceptible de caer en errores e imprecisiones de calado en algunas cuestiones específicas.
De nuevo, lo que en un primer vistazo puede suponer una revolución que deje sin sentido el modelo académico actual, en realidad podría consolidarse como una útil herramienta de búsqueda y síntesis que facilite el trabajo de los alumnos y les permita destinar más tiempo al análisis crítico y la revisión de fuentes que al 'picado' manual de datos.
"Si los estudiantes utilizan ChatGPT para obtener respuestas a preguntas en sus trabajos académicos, es posible que no reconozcan que la respuesta es una copia directa de una fuente existente. Esto puede llevar a que se presenten trabajos que contengan plagio, lo que puede tener graves consecuencias académicas", responde el propio chatbot cuando es preguntado por este tema. "Es importante que los educadores enfaticen la importancia de la integridad académica y el respeto por los derechos de autor al utilizar herramientas como ChatGPT en el aula. Los estudiantes deben ser conscientes de las limitaciones de estas herramientas y se les debe enseñar a utilizarlas de manera responsable y ética, incluyendo la adecuada atribución de fuentes cuando corresponda".
Ética y privacidad
Obviamente, lo anterior nos emplaza a un futuro distópico en el que conoceríamos todos los males de la inteligencia artificial. Pero, aterrizando en las herramientas de IA generativa que ya tenemos con nosotros, tampoco nos libramos de muchos riesgos y vulnerabilidades sociales, principalmente relacionadas con lagunas éticas y de privacidad en su uso.
No en vano, ChatGPT se entrena con grandes conjuntos de datos, que pueden contener sesgos y discriminación en el lenguaje y los datos. Si no se maneja adecuadamente, esto puede resultar en respuestas sesgadas y discriminatorias que reflejen y amplifiquen los prejuicios culturales y sociales existentes. Además, las conversaciones que mantenemos con estos chats pueden incluir información confidencial o personal que, si se maneja de manera inadecuada, puede resultar en la exposición de información privada y personal. Pero eso no es todo: si se utiliza con fines malintencionados, ChatGPT puede ser utilizado para engañar y manipular a grandes masas de población al proporcionar información falsa o incompleta.
Para mitigar estos riesgos éticos, es importante que las empresas y los desarrolladores que crean y utilizan modelos de lenguaje sean conscientes de estos riesgos y trabajen para abordarlos a través de la implementación de prácticas éticas y responsables. Esto incluye la selección cuidadosa de conjuntos de datos, la evaluación regular de sesgos y discriminación, la implementación de medidas de seguridad y privacidad, y la transparencia en el uso de la tecnología. Por supuesto, su regulación desde la esfera pública se antoja más necesaria que nunca, aunque lo difuso de su potencial real hace que sea complicado ponerle puertas al campo, como suele decirse.
Por supuesto, y así coinciden todos los expertos, es esencial Transparencia y explicabilidad: es importante que los modelos de inteligencia artificial generativa sean transparentes en su proceso de toma de decisiones y que puedan explicar cómo llegaron a una respuesta en particular. También deberemos, más pronto que tarde, establecer responsabilidades claras y definir las medidas de responsabilidad legal en caso de que se generen respuestas inapropiadas o dañinas. Y, por supuesto, que analistas en ética y comunidades afectadas puedan involucrarse en la identificación de cualquier problema ético potencial en los modelos de inteligencia artificial generativa.
Lo que se avecina
La cosa es que ChatGPT, el nuevo Bing o Google Bard no son el final del camino, sino tan sólo el comienzo. En los próximos meses se espera la llegada de GPT-4, la siguiente generación de la tecnología de OpenAI, entrenada sobre un número todavía mayor de datos. En paralelo sigue el desarrollo de BERT (Bidirectional Encoder Representations from Transformers), antes mentado en el caso de Google -que también cuenta en su haber con Transformer-XL-, RoBERTa (la versión de BERT de Facebook) o ELMo (Embeddings from Language Models).
*** Nota del editor: Varias partes de esta columna de opinión han sido escritas con ChatGPT con el fin de ilustrar el potencial de esta tecnología.