Tras dos años de trabajo, largos debates y reuniones con expertos y directivos de compañías tecnológicas, la Unión Europea se ha convertido en la primera Administración del mundo en regular la inteligencia artificial. Y al igual que con la normativa que puso coto al poder excesivo de las redes sociales, ofrece una hoja de ruta al resto del mundo con la que abordar uno de los mayores desafíos sociales que enfrenta nuestra época.
En la pionera AI Act, acordada este viernes entre la presidencia española del Consejo de la Unión Europea y los negociadores de la Eurocámara, cabe resaltar la labor realizada por nuestra Secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas.
Los asombrosos avances recientes de los modelos generativos han impulsado una concienciación global sobre los peligros que entraña una tecnología con tantas posibilidades benéficas como potencial destructivo.
La proliferación de robots conversacionales y programas de producción de imágenes deepfake generaron una extendida inquietud sobre el perfeccionamiento de unos sistemas de manipulación casi indetectables. De hecho, ChatGPT irrumpió en mitad de la tramitación de la ley y obligó a modificar sobre la marcha su planteamiento.
Además, el descubrimiento de nuevas aplicaciones de la IA despierta incertidumbres sobre la influencia que pueden ejercer estas disrupciones sobre el proceso democrático, la protección de la privacidad, la salud pública, el mercado de trabajo o incluso la industria armamentísica.
Cabe recordar que el pasado marzo miles de intelectuales y líderes tecnológicos, incluido Elon Musk, pidieron a los laboratorios de inteligencia artificial suspender durante seis meses los experimentos, al considerar que "pueden plantear profundos riesgos para la sociedad".
Y más recientemente, trascendió que antes del despido (y posterior reincorporación) del CEO de OpenAI, Sam Altman, investigadores de la compañía habían alertado de un descubrimiento que, de comercializarse, podría suponer "una amenaza para la humanidad".
La necesidad imperiosa de dotar de un marco regulatorio a esta tecnología había llegado a ser un consenso global. Pero Europa se ha adelantado a países como Reino Unido, EEUU, o China, que ya habían celebrado cumbres sobre IA y audiencias de las Big Tech con los poderes públicos, y que preparan sus propias legislaciones.
Lo que hasta ahora eran sólo buenas intenciones sin una idea clara sobre cómo materializarlas en normativas se han concretado en una ley concebida para proteger los derechos fundamentales de los ciudadanos.
Para ello, se ha optado por una aproximación que clasifica los distintos modelos de IA generativa según su nivel de riesgo. Desde los algoritmos de recomendación, sobre los que sólo pesarán requisitos de transparencia, a los modelos de alto riesgo como los sistemas de identificación biométrica, cuyo uso en espacios públicos se restringe al máximo. Pasando por aquellas aplicaciones de la inteligencia artificial que plantean un "riesgo inadmisible" y que se prohibirán de forma terminante, como los métodos de control social y vigilancia en lugares de trabajo, o los que manipulan el comportamiento humano para vulnerar su libre albedrío.
La UE ha dado también un importante paso al exigir a las compañías tecnológicas una mayor colaboración e intercambio de información con las Administraciones, y al establecer multas considerables por el uso indebido de estos recursos.
Es de agradecer que las grandes empresas de inteligencia artificial hayan aceptado la regulación aprobada, aunque algunas patronales la hayan criticado por considerarla incompleta y capaz de provocar una fuga de talentos de suelo europeo. Hasta ahora, los desarroladores se habían mostrado partidarios de una autorregulación mediante compromisos internos y normas éticas propias.
Pero la potencia invasiva y desestabilizadora sin precedentes que acarrea una tecnología capaz de influir y condicionar las decisiones de los individuos, y el carácter automático de unos procesos impredecibles hasta para sus creadores, justifican la intervención del Estado. Las propias compañías de IA como Alphabet, Open AI o Microsoft son conscientes de ello, hasta el punto de que han acabado haciendo lobby a favor de la regulación.
Las empresas son las primeras interesadas en establecer unas reglas del juego a la carrera tecnológica de forma que no les fuerce a seguir introduciendo innovaciones potencialmente abusivas. A nadie se le escapa que, ante un proceso de avance imparable y ciego capaz de derivar en la creación de una inteligencia superhumana que acabe volviéndose contra la nuestra, se impone la prudencia y el celo por la seguridad.
La creación de unas pautas deontológicas que mitiguen los riesgos de la IA, y que pongan los desarrollos científicos al servicio de la humanidad antes que a los desnudos intereses comerciales, es indudablemente positiva.
Pero no puede olvidarse que los avances tecnológicos (y más la desbocados y vertiginosos de nuestros días) siempre van mucho más rápido que la legislación de los gobiernos. Por eso, los ineludibles objetivos de supervisión han de equilibrarse con una flexibilidad normativa que no lastre la necesaria innovación ni la competencia.
Europa tiene la oportunidad de liderar la próxima ola de digitalización. En un contexto de rivalidad regulatoria y de dominio tecnológico de países como EEUU y China, la UE debe seguir dotándose de una gobernanza económica ágil para no quedarse atrás.