La presentación de ChatGPT por parte de OpenAI el pasado noviembre, seguida de uno de los procesos de viralización más impresionantes que hemos vivido en la historia de la tecnología (un millón de usuarios en tan solo cinco días) está sirviendo para que el mundo se dé cuenta de que había una tecnología llamada machine learning -no la llames "inteligencia artificial", porque las máquina no son, como tales, inteligentes, sino que se limitan a consultar bases ded atos y a aplicar estadísticas- que podía hacer cosas muy sorprendentes.
Después de años sirviendo para la automatización avanzada en todo tipo de conceptos, lo que ChatGPT ha hecho es aplicar un ámbito del machine learning, los llamados Large Language Models (o LLMs) a un ámbito conversacional, y aparentemente, ha sorprendido al mundo. El resultado inmediato es que cada vez hay más personas utilizándolo, pero no tanto para conversaciones, como inicialmente se diseñó, sino para otro ámbito, el de las búsquedas de información, en donde había un rey muy claro: Google.
Una Google que, además, cuenta con la tecnología para hacer cosas similares, pero renunció a mostrarla porque pensaba que podía disminuir su reputación de calidad y fiabilidad. Un LLM responde en función de afinidades y coincidencias estadísticas, y la única forma de intentar que sus respuestas sean correctas es filtrándolas a la entrada, es decir, excluyendo lo que se considere poco adecuado.
Dado que esto no es una tarea sencilla, te puedes encontrar con respuestas que no son factualmente correctas, directamente erróneas o auténticas barbaridades… eso sí, redactadas de manera que parecen escritas por un humano muy convencido de lo que dice.
La constatación de que algo como ChatGPT podía ser una amenaza para Google fue inmediata. La compañía reunió de nuevo a sus dos fundadores, que llevaban cierto tiempo sin pasar por allí, y resolvieron incorporar tecnologías similares a unos veinte productos, ante la evidencia de que Microsoft, inversor en OpenAI, se dispone a hacer lo mismo (y si no has visto lo delicioso que puede ser hacer, por ejemplo, fórmulas en Excel con un algoritmo como ChatGPT, búscalo, porque vale la pena).
"La constatación de que algo como ChatGPT podía ser una amenaza para Google fue inmediata"
Hasta aquí, todo muy bien: competencia en base a la innovación. Ahora bien, ¿cuál es el problema? El problema se llama pensamiento crítico. Ante una página de resultados de Google, con sus enlaces, un usuario puede ver muchas más cosas que el resultado: puede ver la fuente, un fragmento del texto, etc. antes de, finalmente, hacer clic, aterrizar en la página, y encontrar lo que buscaba. En ChatGPT y similares, el usuario hace una pregunta, y se encuentra un párrafo o los que sean con la respuesta, que puede ser o no correcta, pero lo parece.
En buena parte de la sociedad, la ausencia de pensamiento crítico es tal, que muchas personas identifican el primer resultado en una página de Google con la verdad absoluta.
A mí mismo me han llamado varias personas pretendiendo que yo era el responsable de servicio al cliente de una compañía aérea (y no me fue fácil convencerles de que no lo era, dado que además estaban en un estado bastante iracundo), simplemente porque durante años, un artículo mío en el que hablaba del desastroso servicio al cliente de esa compañía aérea indexaba en primera posición en el buscador.
Para esas personas, daba igual lo que yo argumentase: Google decía que yo era el servicio al cliente de esa compañía, y si yo afirmaba no serlo, seguro que estaba mintiendo.
Si la gente llega a tal nivel de ausencia de pensamiento crítico con una fuente como Google, ¿qué no ocurrirá con una como ChatGPT? La contestación a tu búsqueda puede ser una milonga del calibre '9mm Parabellum', pero da igual: para muchos, pasará a ser la nueva verdad absoluta.
Algunas herramientas como Perplexity.ai intentan paliar esto añadiendo las fuentes de lo que dicen, un muy buen intento de, por lo menos, poner al alcance de quien quiera cuestionarse la respuesta, las páginas a partir de las cuales se redactó.
Es interesante, y mi intuición es que probablemente Google, que no tiene ningún interés en ser tildada de mentirosa día sí y día también, quiera apuntar en esa dirección: no simplemente retornar un pedazo de texto como única respuesta, sino algo un poco más elaborado que permita discernir si viene de un artículo científico, de un periódico sensacionalista, o de una secta de negacionistas y adictos a las teorías de la conspiración. Por lo menos, posibilitar que la respuesta a esa pregunta esté a un clic de distancia.
Porque el problema del pensamiento crítico -o mejor, de su ausencia- no es solo que te engañe en una búsqueda y te lleve a conclusiones erróneas: es, además, la posibilidad de que pasemos a fiarnos de una herramienta hasta el punto de que pueda ser fácilmente utilizada para la manipulación de la sociedad.
"El pensamiento crítico no es algo que las empresas tecnológicas nos deban entregar"
El pensamiento crítico no es algo que las empresas tecnológicas nos deban entregar: es algo que tenemos que desarrollar por nosotros mismos, como individuos y como sociedad. El problema es que llevamos generaciones en las que buena parte del sistema educativo, aparentemente, renuncia a ello y prefiere la comodidad de un libro de texto y de prohibir los dispositivos en las clases: mejor prohibir, que arriesgarse a tener que hacer cosas nuevas.
Y la cuestión no es solo tarea del sistema educativo: los padres también se supone que deberían contribuir y educar. Pero claro, es mejor simplemente dar el móvil o la tablet al niño para "apagarlo" cuando da la lata.
Tras años de "esto es verdad porque lo vi en la tele", ahora podría llegar el "esto es verdad porque lo dice el algoritmo". Lo que nos faltaba. O nos ponemos las pilas, adiestramos el pensamiento crítico como sea y entendemos su importancia, o no auguro nada bueno.