Cuando el 2023 aún no había dado sus primeros pasos, ChatGPT ya monopolizaba muchas tertulias de sobremesa con sus proezas literarias. Lo que empezó siendo un juego haciendo preguntas comprometidas a este chatbot o generando imágenes con Dall-E, se ha convertido en una explosión de herramientas basadas en la IA que abarcan todos los ámbitos. Su éxito entre la población ha generado alarma por los malos usos o millones de empleos en juego y, por consiguiente, la urgencia por una legislación internacional en la que la UE está en cabeza. Así termina el año en el que todo el mundo ha comprendido de lo que es capaz esta tecnología.
"Ha sido el año del iceberg", describe Walter Rivera, AI Technical Lead en Intel en una entrevista para EL ESPAÑOL-Omicrono durante el anuncio de Intel de sus nuevos chips con IA. "Antes de 2023, los expertos en IA conocían el poder de esta tecnología y la revolución que podría traer, pero gracias a 2023, incluso los no expertos han empezado a darse cuenta de la inmensidad del iceberg que hay bajo la superficie del océano". Una idea similar defiende Natalia Clavero, directora global de IA en Minsait, compañía de Indra, "este año ha sido el de la explosión absoluta".
ChatGPT de OpenAI, el detonante que ha terminado por encender la mecha, ha alcanzado los cien millones de usuarios y 'obligado' a todo el mundo a sumarse a la carrera. El primero en seguirle fue su socio Microsoft con Bing para buscar en internet, pero después llegó Google con Bard. El gigante de internet es el creador de los modelos transformers que han servido de base para esta revolución. Hace un año, se mostraba cauteloso a la hora de lanzar al mundo su IA, pero ahora ha aprendido a tirarse a la piscina y hace semanas presentaba Gemini, un nuevo modelo generativo que trabaja texto e imagen y que llegará a Android, Pixel 8 Pro y todos los servicios de Google. Meta, compañía de Mark Zuckerberg, también es uno de los grandes desarrolladores con modelos que se integrarán en sus redes sociales.
"ChatGPT ha sido una gran estrategia de marketing, no deja de ser una herramienta de entretenimiento, pero al llegar a la población en general no hay posibilidad de mirar para otro lado más tiempo", dice Clavero. Las empresas se han animado a incluir la IA en su transformación digital. Amazon, también ha lanzado un modelo, de momento, centrado en servir a las empresas como asistente y que más adelante podría estar en una Alexa más elocuente. Incluso Apple, más rezagado, está trabajando en la IA.
IAs para todos y en todas partes
Esta innovación ya se encontraba en muchos procesos previos, gestionando tareas más repetitivas y rutinarias, pasando desapercibida para el gran público. Ha sido la madurez de la inteligencia artificial generativa y su uso en herramientas sencillas como los chatbots el punto de inflexión definitivo. A lo largo de 2023 la población ha aprendido que con una descripción simple (llamadas prompts), se pueden crear en segundos imágenes y voces realistas, canciones pegadizas o escribir el software de aplicaciones y juegos. Sigue siendo un arte poder extaer buenos resultados, pero la sencillez del proceso contrasta con la experiencia necesaria antes para obtener una calidad parecida.
La IA conversacional como ChatGPT se ha expandido a un sinfín de chatbots capaces hasta de imitar personalidades de famosos. Duolingo, la aplicación para aprender idiomas, es un buen ejemplo de ello. Esta app lleva tiempo utilizando los grandes modelos de lenguaje natural para crear sus cursos más rápido. Pero este año, ha integrado GPT-4 (modelo que usa ChatGPT) para que sus suscriptores puedan practicar idiomas chateando con la máquina como si hablaran con un profesor nativo. Es parte de en lo que se ha convertido ChatGPT, en un año es más rápido, versátil, actualizado y permite crear chatbots especializados.
El aumento en la productividad es uno de los argumentos más usados para apoyar el uso y desarrollo de la IA. "Ha venido para asistir a las personas", afirma Natalia Clavero. Otro poderoso ejemplo de cómo esta innovación puede acelerar los procesos de trabajo está en el descubrimiento de nuevos materiales por parte de los científicos. La IA de Google DeepMind está facilitando el desarrollo de 400.000 nuevos materiales y sintetizados en un laboratorio robótico, que servirán para la producción de nuevas baterías, paneles solares y chips para ordenadores con mejor rendimiento. Décadas de esfuerzos reducidas a meses. También en medicina, donde analiza miles de corazones en segundos, siempre con la supervisión posterior de los médicos.
De igual manera, hace más de un año, el mundo se planteaba si la profesión de desarrollador de código iba a desaparecer por la llegada de Codex de OpenAI (todavía no había nacido ChatGPT), pero desde entonces esta comunidad ha aprovechado la IA para acelerar la elaboración de nuevas apps y programas, siempre con una revisión y corección final del profesional humano. "Ahora hay herramientas que aportan un copiloto para los desarrolladores: ayuda a generar, transformar o hacer pruebas con el código. Incluso echa una mano en la clasificación automática de incidencias o errores del sistema", recuerdan desde Minsait.
Y no habría software sin hardware, por lo que toda esta actividad ha desembocado en la aparición de primeros AI PC, como colofón a este año frenético. Los primeros ordenadores equipados con chips diseñados para procesar la IA de forma más rápida y eficientes. Apple, Intel y AMD, fabricantes de procesadores compiten en este nuevo objetivo de mercado. Incluso Qualcomm, rey de los procesadores para móviles Android, integra la IA en sus productos y se suma a la carrera por equipar los ordenadores inteligentes de mañana.
El lado oscuro de la IA
Todo este poder, conlleva una gran responsabilidad como dirían los fans de Spiderman. Fake news, perdida de empleos, nuevos ciberataques, incremento de la contaminación y la amenaza de una inteligencia superior o AGI es el resumen de la otra cara de la inteligencia artificial que ha encendido un intenso debate, hasta pedir que se paralizara el desarrollo de la misma para defender a la humanidad. Sin perder de vista un futuro incierto, muchos expertos han pedido centrar la discusión en los problemas y riesgos más actuales.
Para empezar, los modelos generativos no son tan inteligentes como su nombre indica. Esta tecnología produce toda clase de contenidos basándose en predicciones, pero sin entender nada. Están entrenados para reconocer patrones en los datos y aprender a través de los millones de ejemplos que reciben y replicarlos. De ahí que, palabra a palabra, píxel a píxel, es fácil que se invente datos, cree escenas sin sentido o 'recicle' el trabajo de toda clase de autores, pues sus obras han servido para entrenarlos. Muchos de esos autores han demandado por infracción de copyright a empresas como OpenAI.
"Evidentemente, como toda tecnología, requiere madurez y regulación", indica Clavero, en referencia a las alucinaciones que tienen los modelos de procesamiento del lenguaje (PNL). Esos fallos, en parte, dan un pequeño respiro para los millones de profesionales que este año han dudado de si perderían su puesto por culpa de esta nueva revolución. Sam Altman, CEO de OpenAI, ha terminado reconociendo que "hay trabajos que van a desaparecer", salvo los profesores, en su opinión. No obstante, son muchas las voces de defienden el uso de la IA para asistir y no sustituir a las personas.
[Las cinco claves para identificar las fotos falsas que se han hecho con inteligencia artificial]
Y si preocupan sus desvaríos o el posible daño laboral, también resulta preocupante como estas herramientas han propiciado la aparición de información falsa casi imposible de detectar. Las noticias falsas ya suponían un dolor de cabeza para redes sociales y las democracias, pero ahora se pueden crear en minutos y sin muchos conocimientos técnicos.
Cualquiera puede manipular la foto de otra persona, en un año en el que en España muchos padres se están planteando si el Gobierno debería prohibir los teléfonos móviles en los colegios. Como solución, algunas empresas unen fuerzas para crear marca de agua universal con las que delatar el origen de la imagen o la fuente artificial de un texto, un esfuerzo cuyos frutos podrían ser más visibles en los próximos años.
Otra preocupación llega desde el sector de la ciberseguridad. Las empresas han intentado vetar algunos usos peligrosos, como la capacidad de generar código malicioso o mensajes elaborados para engañar a las masas. Sin embargo, no es tarea fácil, por su naturaleza no consciente, la IA es fácil de engañar y acaba realizando la tarea que le pide el hacker. Como contrapunto, las compañías de ciberseguridad también se apoyan en esta tecnología para frenar a los piratas informáticos.
Y aunque su uso no sea malintencionado, la simple utilización de estas herramientas ya supone un riesgo para el planeta, que se traduce en miles de litros de agua necesarios para refrigerar los servidores en los que se ejecuta los sistemas. Investigadores de las universidades de Riverside y Arlington estimaron que para el entrenamiento de GPT-3 de OpenAI se consumieron 700.000 litros de agua dulce limpia. Según la empresa francesa Schneider Electric, la IA representa actualmente 4,3 GW de demanda energética, cifra que se espera que crezca a una tasa anual compuesta del 26% al 36%, hasta los 20 GW para 2028 si el desarrollo de la IA continúa a este ritmo.
Deberes para 2024
A finales de octubre de este año, el G7 respaldaba el 'Proceso de IA de Hiroshima', un conjunto de directrices que invita a fomentar sistemas seguros y confiables a nivel global. Sin duda, la mayor tarea pendiente para 2024 es la regulación. Por su parte, la Unión Europea ha firmado el acuerdo sobre la AI Act para tratar de evitar los riesgos asociados del uso de la inteligencia artificial con una ley que aún debe ser ratificada tanto por los Estados miembros como por el Parlamento Europeo.
[Los 'padrinos' de la IA exigen controles de seguridad urgentes para evitar una "catástrofe"]
Ningún otro territorio cuenta con una ley tan amplia, aunque el presidentede EEUU, Joe Biden, firmó hace un par de meses un decreto por el que las empresas tecnológicas deben notificar al Gobierno cualquier avance que suponga un "riesgo grave para la seguridad nacional". Conscientes de este decisivo paso que darán las naciones, los directores de las principales empresas tecnológicas como Sam Altman de OpenAI, Satya Nadella de Microsoft, Bill Gates, incluso Elon Musk (uno de los más críticos), han ofrecido su ayuda a los principales dirigentes internacionales para regular la IA, pero a favor de una ley flexible que les permita seguir jugando en esta carrera comercial y tecnológica que han iniciado.
Europa empezó la redacción de su legislación hace años, desde entonces el proceso se ha acelerado en el último año ante la urgencia generada por el estallido de la IA generativa. Esta ley, aún en proceso de gestación, debe abarcar una tecnología que crece a un ritmo vertiginoso y cuyos resultados aún no se conocen plenamente. "La regulación tiene que ser flexible e intentar evolucionar al ritmo de la IA o llegará tarde, pero las empresas también deben hacer un esfuerzo por autorregularse", aclara Clavero.
La experta explica que muchas empresas ponen primero la IA al servicio de sus empleados para testarla por miedo a las alucinaciones, solo cuando están más seguros lo lanzan al gran público. Aunque, para Clavero a la legislación y la autorregulación debe sumarse la educación de la población para rebajar el impacto del mal uso de esta tecnología en la sociedad.
Nueva legislación, un desarrollo responsable, sostenibilidad y educación son los deberes que el 2023 deja a su sucesor en materia de inteligencia artificial, la tecnología que lo puede cambiar todo a un ritmo de infarto.