En el gran escenario online de la carpa tecnológica se exhiben todo tipo de personajes: ilusionistas, equilibristas, cuentistas, escapistas y hasta payasos burlones. “¡Esto es grande! ¡Es magia! ¡Lo cambiará todo para siempre! ¡Estamos cerca de la superinteligencia!”. Son algunas de sus exclamaciones.

Son las exageraciones a las que nos tienen ya acostumbrados los últimos lanzamientos de aplicaciones de inteligencia artificial generativa, que encuentran eco en las redes sociales y plataformas de contenido online, y también en los medios de comunicación.

Llegó Gemini de Google y caímos en su embauco. Luego vino Sora de OpenAI para dejarnos boquiabiertos. Y luego aparecieron los aguafiestas periodistas para revelarnos que en realidad los vídeos de presentación de estas nuevas herramientas estaban trucados a base de efectismo torticero. Puro espectáculo. Esta semana, los protagonistas han sido la integración de Gemini en los productos de Google y la nueva actualización de ChatGPT: GPT-4 Omni.

La cruda realidad

Nuevas funciones que son, en opinión del profesor emérito de la Universidad de Nueva York Gary Marcus, el recurso que les queda a las tecnológicas “porque no saben cómo producir el tipo de avance de capacidad que llevaría a la mejora exponencial de su tecnología”: el salto hacia GPT-5. “Cada día sin GPT-5 -o un competidor equivalente- es evidencia de que es posible que hayamos llegado a una fase de rendimientos decrecientes de la IA”, asegura el experto. 

Rendimientos decrecientes y también decisiones de negocio. Es lo que ha llevado a dimitir a los otros protagonistas de la semana: el cofundador de OpenAI Ilya Sutskever y su jefe de alineamiento, Jan Leike. Este último, responsable del desarrollo seguro de la IA, ha asegurado que la seguridad “ha pasado a un segundo plano frente a los productos relucientes”.

Leike considera que debería prestarse más atención a aspectos como la seguridad y el análisis del impacto social de estas tecnologías, ya que [tratar de] “construir máquinas más inteligentes que las humanas es una tarea intrínsecamente peligrosa". Algo que, a su juicio, no se toma lo suficientemente en serio en la compañía creadora de ChatGPT.

Más allá del bombo y platillo, si miramos al uso real de la IA generativa en las empresas, resulta que todas esas promesas de impulsar los negocios como un cohete no se están materializando. El pensador Ricard Ruiz de Querol señala a un reciente informe de Deloitte sobre el asunto, que “viene a confirmar la incertidumbre actual acerca de la utilidad de su uso colectivo”.

Gráfico elaborado con datos de Deloitte.

“Parece ser que a muchas organizaciones les resulta difícil pasar de experimentos pilotos y pruebas de concepto a una implementación a escala que convierta los beneficios potenciales en valor tangible”, subraya Ruiz de Querol. Una de las dificultades que encuentran es la conciencia de que escalar los beneficios potenciales supone ampliar también el alcance de los problemas y riesgos potenciales. ¿Las recompensas potenciales de la IA generativa justifican los riesgos? ¿Se pueden mitigar?”, plantea el informe de Deloitte.

“Como las respuestas a esas cuestiones no están claras, más de la mitad de los encuestados permiten el acceso a la IA a menos del 20% de su fuerza laboral. Incluso en las organizaciones que reportan niveles muy altos de experiencia en IA generativa, el acceso de los trabajadores a herramientas aprobadas sigue siendo la excepción, no la regla”, constata.

Lo anterior -prosigue Ruiz de Querol- no impide que, como sucedió cuando se empezaron a introducir los PC en las empresas, los trabajadores accedan por libre a lo que les parezca interesante, incluyendo la plétora de asistentes personales cuya oferta prolifera por doquier.

En las empresas españolas no es diferente. Los ejemplos se limitan a iniciativas experimentales o piloto. Algunas de ellas se detallan en el informe ‘Uso responsable de la inteligencia artificial generativa, su utilidad empresarial y su enfoque en modelos de lenguaje de gran escala’, de la Fundación Cotec, que incluye también recomendaciones y obligaciones para la adopción respetuosa de este conjunto de tecnologías.

Ciclo de la vida de un modelo IA/IA Generativa. Fuente: Fundación Cotec.

En el ámbito público hay, si cabe, mayor precaución. Ruiz de Querol cita el caso militar, sobre el que discurre un artículo de la revista Foreign Affairs. El texto alerta del uso de la IA generativa en acciones militares críticas: “El problema es que el modo en que la IA propone decisiones no abarca la complejidad de cómo los humanos toman decisiones”, afirma.

"A pesar del entusiasmo por la IA y los LLM dentro del Pentágono, su liderazgo está preocupado por el riesgo que representan las tecnologías. Los hackatones (...) han identificado sesgos y alucinaciones en estas aplicaciones, y recientemente, la Marina de EE.UU. publicó una guía que limita el uso de los LLM, citando vulnerabilidades de seguridad y la divulgación involuntaria de información confidencial”, dice textualmente Foreign Affairs.

“Los militares deben poner límites a estas tecnologías cuando se utilizan para tomar decisiones de alto riesgo, particularmente en situaciones de combate. Los LLM tienen muchos usos dentro del Departamento de Defensa, pero es peligroso subcontratar las decisiones de alto riesgo a las máquinas", dice también el texto.

Un nuevo culto

A pesar de todo, la IA sigue obnubilado a muchos. Hace poco, en el podcast Hard Fork, de The New York Times, hablaron de una fiesta en un bar de San Francisco (EEUU) llena de programadores en calzoncillos que escribían código “para Israel” sobre el mismo escenario en el que se representaba una actuación de mimo.

Lo más bizarro -o tal vez escalofriante- fue cuando comenzaron a tocar canciones creadas por IA que ellos mismos habían escrito, y cuyas letras decían: “la IA es Dios, piensa en la IA”. Parecían estar bajo los efectos de lo que el programador y escritor islandés Baldur Bjarnason denomina “el efecto LLMentalista”.

Bjarnason describe cómo los grandes modelos de lenguaje (LLM) basados en chat “replican los mecanismos de la estafa de un psíquico". Durante un año, investigó el uso de IA generativa en las empresas de software, y se quedó perplejo al constatar que muchas personas están convencidas de que los LLM son inteligentes.

“Los creyentes en la burbuja de la IA suenan muy diferentes a los de las burbujas anteriores”, dice Bjarnason. Sufren una “ilusión de inteligencia”, cuyo mecanismo de funcionamiento explica en su libro The Intelligence Illusion. Su teoría es que, el efecto que provoca esta ilusión, es un mecanismo similar o idéntico al del engaño de un mentalista.

'The Intelligence Illusion', Baldur Bjarnason.

Los mentalistas realizan preguntas y respuestas que suenan muy específicas para su interlocutor, pero que en realidad son solo conjeturas estadísticamente genéricas, basadas en sus datos demográficos y respuestas anteriores, expresadas de manera que parecen muy específicas, y de forma muy segura. Lo mismo sucede con los chatbots más avanzados, que no es más que un truco estadístico, explica Bjarnason.

Bjarnason, Marcus, Ruiz de Querol o referentes como Emili Bender, Timnit Gebru, Melanie Mitchell o Margaret Mitchell son parte de lo que llamo el “ejército ‘anti-hype’”: personas que tratan de luchar contra los mitos del imaginario colectivo de la IA. Son, junto con tantos otros, los “aguafiestas” del circo de la IA, que, desde el periodismo, la academia y el tercer sector, ayudan a poner un poco de cordura en medio del ilusionismo.

Los aguafiestas del circo

También contribuyen a ello ciudadanos comunes y corrientes, usuarias y usuarios que comparten sus decepcionantes y nada mágicas experiencias con las máquinas. Incluso se empiezan a sumar a la lista sospechosos nada habituales, antiguos evangelistas del ‘hype’ de la IA que han acabado desertando.

Estas personas realizan una imprescindible labor de divulgación con el difícil objetivo de contrarrestar el hiperdelirio tecnológico. Muchas veces lo hacen “por amor al arte”: nadie les paga por ello, pero se sienten en la obligación de hacerlo. Una de ellas es Ariel Guersenzvaig, filósofo de la tecnología y profesor e investigador en Elisava (Universidad de Vic).

Guersenzvaig comparte a diario sus análisis críticos de noticias, artículos científicos y declaraciones de gurús tecnológicos, entre otros. “Los productos de IA que se difunden para el consumo masivo son, hoy por hoy, poco más que instrumentos de marketing”, asegura. Critica que la atención vaya a dichos artilugios y que apenas se hable “de los usos de la IA que sí tienen sentido y funcionan”. Por ejemplo, su aplicación en radiología, que es “menos atractiva pero mucho más relevante”.

Entre los múltiples ejemplos de anuncios inflados, Guersenzvaig menciona los taxis autónomos de San Francisco, que resultaron estar asistidos por trabajadores en un centro de operaciones; o las tiendas sin cajeros de Amazon, que dependían de más de 1.000 personas en India que supervisaban los videos y cobraban los productos que la gente se llevaba (es decir, que sí tenía cajeros, pero trabajando en remoto). De hecho, Amazon ha descontinuado este servicio.

Taxis autónomos. Fuente: Gizmodo.

“No es más que otro intento fallido de presentar imaginarios tecnológicos ficticios como tecnología punta para engañar al público y exagerar las posibilidades actuales. Para lograr esto, las empresas de tecnología elaboran narrativas complicadas apoyadas en prototipos que parecen innovadores, pero que en realidad son attrezzo para sus planes de marketing y relaciones públicas”, afirma el experto.

“Cuando se enfrentan a fallos y deficiencias evidentes, los fanáticos de la IA equiparan la crítica rigurosa con el escepticismo, y confunden razones y explicaciones con pesimismo”, sostiene Guersenzvaig. “¿Por qué los vendedores y defensores de la IA exigen que sigamos siendo optimistas incluso cuando se expone el engaño, la incompetencia y la absoluta inutilidad de sus productos?”, cuestiona.

El investigador cree, no obstante, que los “estafadores” del circo de la IA se están quedando sin trucos. Estos, cuando se baja el telón y comienzan a desmantelarse los decorados, quedan al descubierto. 

Así, se desvanece el mundo de ilusión que tan cuidadosamente habían construido. Y algunos de sus personajes, como los directivos de OpenAI que han dimitido esta semana, deciden abandonar al darse cuenta de que, en el circo de la IA, lo que más cuenta son los artificios.