En 1950, Alan Turing planteó la posibilidad de que las máquinas algún día podrían pensar por sí mismas. Es lo que se conoce como la inteligencia artificial general, AGI para los amigos anglosajones, en que esta tecnología pueda superar nuestras capacidades humanas en toda clase de razonamientos básicos y complejos. Nada parecido, ni remotamente, a la estupidez artificial que supone la actual generación de IA generativa, basada en cálculos probabilísticos estándar.

Sin embargo, esta posibilidad de que la IA pueda pensar siempre ha estado en el candelero de las fascinaciones técnicas. Ya en aquellos lejanos años cincuenta, John McCarthy, quien acuñó el término "inteligencia artificial", veía la IA como un campo donde las máquinas podrían replicar las capacidades cognitivas humanas. Marvin Minsky, otro pionero, se refirió a la mente como una "máquina hecha de máquinas" y soñaba con sistemas capaces de aprender y adaptarse. En su célebre conferencia de Dartmouth de 1956, los padres fundadores de la IA hablaban de replicar el poder creativo y lógico del cerebro humano.

El ideal de AGI se convirtió en un desafío intelectual y técnico. Era una búsqueda de conocimiento, comparable a lo que los alquimistas perseguían en su época: no oro, sino la piedra filosofal del entendimiento. Como dijo el científico y escritor Carl Sagan: "La ciencia no solo es compatible con la espiritualidad; es una fuente profunda de espiritualidad". La AGI representaba esa espiritualidad tecnológica: la idea de que comprender cómo funciona la mente nos haría, a su vez, comprendernos mejor a nosotros mismos.

Empero, la sociedad actual no parece seguir estos postulados. Hace unas semanas, Microsoft y OpenAI han redefinido la AGI no por sus méritos técnicos, sino por su impacto financiero. En otras palabras: la inteligencia artificial general ya no es aquella que iguale el razonamiento humano, sino aquella que genere mucho dinero para sus creadores.

No es una diferencia nominativa sin más: estamos ante un cambio de sus capacidades universales, por el momento en que genere un valor económico determinado. No es que la tecnología deba estar exenta del mercado; sería ingenuo pensarlo en un mundo donde la investigación depende en gran medida de la inversión privada. Pero subordinar el significado de la AGI a un criterio financiero, como es el caso, estamos desplazando una búsqueda cuasifilosófica por un pragmatismo que, aunque válido, carece de la profundidad que el concepto merece.

Oscar Wilde decía que "un cínico es alguien que conoce el precio de todo y el valor de nada". Reducir la AGI a una cifra borra su potencial de convertirse en una tecnología verdaderamente transformadora, revolucionaria, capaz de hacer saltar por los aires nuestra concepción humana y social. Y es que ya no hablamos de una tecnología que redefine lo humano, sino de un producto que meramente redefine los balances corporativos.

No es algo nuevo: la mercantilización de la inteligencia artificial general evoca un patrón recurrente en la historia de la humanidad. Por ejemplo, en el siglo XV, la exploración del mundo nuevo estaba impulsada tanto por el deseo de conocimiento como por la búsqueda de riquezas. Sin embargo, con el tiempo, la curiosidad quedó eclipsada por la explotación comercial y colonial.

Del mismo modo, la AGI, que alguna vez fue el Santo Grial del conocimiento computacional, se está convirtiendo en un medio para generar beneficios económicos, y nada más. Definir la AGI por su impacto financiero, de hecho, plantea una pregunta incómoda: ¿Estamos dispuestos a permitir que las fuerzas del mercado dicten los límites del progreso tecnológico? La AGI no es solo un algoritmo más sofisticado; tiene implicaciones filosóficas y sociales profundas. Si se convierte en un simple vehículo de rentabilidad, corremos el riesgo de ignorar preguntas esenciales sobre quién controla estas tecnologías, para qué se utilizan y cómo afectan a la humanidad en su conjunto. O quizás sea momento de recuperar el espíritu de Turing, McCarthy y Minsky...