Si 2023 ha sido un año de luces por doquier en la arena tecnológica, este curso está siendo mucho más contradictorio, plagado de notas agridulces y un mar de dudas en torno a varios de los fundamentos que sustentan la industria digital en estos momentos. No me refiero (que podría) a los numerosos despidos en empresas tecnológicas acontecidos en los poco más de tres meses de este ejercicio, sino a lo que esperamos, lo que hay y lo que sabemos sobre la inteligencia artificial.
Vayamos por partes: la inteligencia artificial es un concepto acuñado en 1956 y sobre el que se ha ido trabajando en una doble vertiente (conexionista y simbólica) desde entonces. En todas estas décadas, hubo incluso tiempo para un 'invierno de la IA' donde la desilusión por no alcanzar objetivos imposibles hizo derrumbarse las inversiones y el interés en este campo.
Avancemos un poco, hasta la década de 2010. El término de inteligencia artificial ya es relativamente común en el imaginario colectivo, pero casi todas las empresas lo usan con cautela. De hecho, el análisis de datos y la predicción de tendencias o la simulación de escenarios en base a ellos no se acuñaban como IA ni como algoritmos, sino como 'business analytics' o 'business intelligence'. Los colosos como Google o Microsoft sí aludían a este paradigma, pero para funciones muy concretas de búsqueda de información, personalización de resultados o en el ámbito más académico y científico. De hecho, los más veteranos recordarán el gran salto que encarnó IBM cuando hizo una apuesta comercial sólida por su división de inteligencia artificial, Watson.
En aquellos momentos, las tendencias de moda iban por otros derroteros, con la nube como principal atractivo. El auge de los modelos SaaS (primero), PaaS (segundo) e IaaS (el metal, el último y definitivo) era la gran obsesión del mercado. Todavía recordamos algunos la increíble batalla dialéctica y estratégica que se vivió durante el Oracle OpenWorld 2011 entre su fundador -Larry Ellison- y su antaño alumno aventajado, hoy creador de Salesforce Marc Benioff. Y todo a cuenta de qué se podía llamar nube y qué no.
Ese mismo debate es el que nos devuelve a nuestra realidad de hoy en día, cuando nos toca juzgar lo que es inteligencia artificial y lo que no. Qué es realmente una IA y qué es tan sólo una función 'if-then' o un algoritmo sencillo que analiza datos y ofrece ciertos resultados. Incluso hay discusión sobre cuán inteligentes son los grandes modelos de lenguaje (LLM) o su capacidad futura para seguir evolucionando y evitando las aluciones tan presentes en la actualidad.
En medio de esas conversaciones, surgen las primeras decepciones tras la burbuja generada por ChatGPT y el resto de LLM que surgieron o se popularizaron a su alrededor. Es normal y natural que esto suceda: Gartner siempre señala que tras un período de 'hype' en que las expectativas de una tecnología parecen exceder lo imaginable llega un valle de la decepción tras el cual se ve la fase de consolidación y de casos de usos reales que llevan a un mercado sano y sostenible.
Y en esas estamos. Mientras Nvidia sigue haciéndose de oro gracias a los pedidos de GPU para entrenar modelos de inteligencia artificial, otras tecnológicas empiezan a preguntarse dónde está el negocio, la tierra prometida, buscando el caso de uso que justifique esta revolución anunciada. Pero el tejido empresarial necesita tiempo de adaptación y que realmente la IA funcione a prueba de bombas, sea auditable y transparente... Muchos desafíos que aún están sobre la mesa, pero que tan sólo necesitan de eso: tiempo.