Cada vez parece más claro que la importancia de ChatGPT va a quedar reducida al hecho de haber sido el primer algoritmo conversacional —y por tanto, utilizable absolutamente por cualquiera— presentado en abierto para mejorar su entrenamiento, que sirvió para abrir los ojos a muchos acerca del potencial del machine learning (por favor, no lo llamemos “inteligencia artificial”… no es inteligente!) pero que, en la práctica, es poco más que un “completador de frases” algo más sofisticado que el que utilizamos para escribir en nuestros smartphones.
Dejarse polarizar por este tipo de Large Language Models (LLMs) es sencillo. Si entrenamos un algoritmo con una enorme cantidad de textos y variables, conseguimos que se exprese de manera muy convincentemente correcta, y que haga muy bien lo que tiene que hacer: responder preguntas y mantener una conversación.
Que además, esas preguntas estén bien contestadas, es otra cuestión, que dependerá básicamente de la calidad de la información utilizada y, sobre todo, de lo que pretendamos que conteste. En muchos sentidos, el hecho de que esos algoritmos funcionen como un “autocompletador” hace que nos devuelvan nuestra propia imagen, como un espejo, y más si utilizamos técnicas como el denominado prompt injection.
La posibilidad de introducir en la conversación determinados elementos que pueden ser invocados posteriormente —y francamente, para hacer esas cosas, no hace falta ser ingeniero de cohetes: son técnicas intuitivas que se le ocurren a prácticamente cualquiera, y que solo hace falta manejar el lenguaje razonablemente bien para utilizar.
Ahora, con GPT-4 a punto de presentarse, con los recursos de Microsoft detrás, un incremento enorme en el número de variables y la capacidad de manejar modelos multimodales —es decir, de contestarnos con una imagen o un vídeo— deberíamos preguntarnos qué es lo que viene.
La importancia de ChatGPT va a quedar reducida al hecho de haber sido el primer algoritmo conversacional
El uso de ese tipo de modelos para la búsqueda de información o la resolución de preguntas parece claro, si bien, aunque pueda ser enormemente cómodo, nunca sustituirá a las búsquedas que devuelven múltiples resultados y nos permiten ejercitar nuestro pensamiento crítico a la hora de elegir quién o cómo queremos que nos respondan. Si nos limitamos a leer un párrafo correctamente escrito cada vez que tenemos una pregunta, seguramente estaremos encaminándonos hacia un futuro de manipulación e ignorancia.
En la práctica, el camino que ha abierto ChatGPT, que no ha sido en absoluto el desarrollo más sofisticado o más interesante de la historia del machine learning, ha sido el de que entendamos el potencial que tienen este tipo de herramientas. Ahora nos toca dejar de pensar en el “supermodelo” que lo sabe todo y lo contesta todo, y plantearnos qué podemos hacer nosotros con esta tecnología.
Es importante entender que da igual a qué te dediques: la clave de tu futuro estará en la capacidad que tu compañía tenga de convertirse en una generadora constante de datos sobre toda su actividad, datos que sirvan para alimentar el aprendizaje de tus algoritmos. Entender la importancia de los datos es fundamental, porque en un futuro muy cercano, algoritmos entrenados con nuestros propios datos (desde los que generamos cuando llevamos a cabo tareas en el ámbito de lo personal, como escribir un documento o un mensaje, hasta los que generan las empresas con sus operaciones de todo tipo) se encargarán de llevar a cabo automatizaciones avanzadas de todo tipo, y lo harán mejor que las personas.
[La importancia (relativa) de ChatGPT]
Esto, además, no tiene que ser visto como una amenaza, sino como algo inevitable: quienes pretendan mantener a personas llevando a cabo tareas que los algoritmos sepan hacer mejor y de manera más fiable, simplemente dejará de ser competitivo. Podemos hablar de lo que queramos: cadenas de montaje, operaciones financieras o hasta conducir.
Elon Musk ya tiene suficientemente perfeccionado su FSD, o Full Self Driving, como para que la larguísima cola de posibilidades que pueden surgir cuando nos enfrentamos a la conducción en circunstancias reales se soluciones sistemáticamente igual o mejor de lo que lo haríamos nosotros sin ningún tipo de ayuda. Entre cinco y diez veces mejor, concretamente, y con predicciones que apuntan a que será unas veinte veces mejor. ¿Cómo se consigue algo así? Simplemente, con datos: millones de recorridos en circunstancias reales con conductores reales que los comparten con Tesla en tiempo real, y decenas de millones más en circunstancias simuladas.
Algoritmos entrenados con nuestros propios datos se encargarán de llevar a cabo automatizaciones avanzadas de todo tipo, y lo harán mejor que las personas
Estamos ante el momento de la verdad: el machine learning va mucho más allá de los algoritmos conversacionales, y el futuro es que todos podamos hacernos nuestros propios algoritmos, sin necesidad de científicos de datos ni de programar en ningún lenguaje. Plantéate qué quieres automatizar, qué datos puedes generar para ello, y qué herramientas sencillas, que no requieran que te conviertas en programador aficionado, puedes utilizar.
El futuro del machine learning no está en hacer preguntas a un loro estocástico que contesta lo que predice que te va a interesar, sino en entender el potencial que tiene cuando los modelos los puedes hacer y entrenar tú mismo. Cuanto antes lo entendamos, cuanto antes le perdamos el respeto al machine learning, mejor para todos.
***Enrique Dans es Profesor de Innovación en IE University.