Más de una docena de voces han firmado una nueva carta criticando la regulación europea en inteligencia artificial, la AI Act, norma pionera en el mundo para controlar los riesgos asociados a esta tecnología. Los altos directivos de empresas como SAP, Spotify, Ericsson, Meta, Klarna, Mirakl o Taxfix denuncian el riesgo de que el Viejo Continente "se quede atrás en la era de la IA debido a la fragmentación de las regulaciones".
La misiva, que sigue a otra que ya protagonizaron Spotify y Meta, alerta de que "Europa se ha vuelto menos competitiva y menos innovadora en comparación con otras regiones". Critican los firmantes que "a falta de reglas coherentes, la UE va a perder dos piedras angulares de la innovación en IA".
La primera son los desarrollos en modelos abiertos que se ponen a disposición de todos sin cargo para que los usen, modifiquen y desarrollen, multiplicando los beneficios y difundiendo las oportunidades sociales y económicas. La segunda son los últimos modelos multimodales, que funcionan de manera fluida a través de texto, imágenes y voz y permitirán el siguiente salto adelante en IA.
"Nosotros estamos comprometidos con la privacidad de los usuarios y queremos reglas claras a escala global, que superen fronteras y que nos den transparencia y claridad sobre cómo actuar", detalla Joelle Pineau, vicepresidenta de AI Research en Meta, en declaraciones a DISRUPTORES - EL ESPAÑOL. "Muchas compañías europeas, que no tienen equipos propios que trabajen en modelos fundacionales, ya están viendo el potencial de estas tecnologías. Y quieren tener grandes modelos abiertos disponibles para ellos, saben que es un tema crucial para su futuro".
Una alusión directa al anuncio de que modelos como LLaMA de Meta, no estarán disponibles en suelo europeo. En ese sentido, añaden los firmantes, "el desarrollo de la IA se producirá en otros lugares, privando a los europeos de los avances tecnológicos de los que disfrutan los EE. UU., China y la India".
Pero la carta es mucho más tajante si cabe. Llega a acusar a la Unión Europea de tomar decisiones regulatorias de forma "fragmentada e impredecible, mientras que las intervenciones de las Autoridades Europeas de Protección de Datos han creado una enorme incertidumbre sobre que tipos de datos se pueden utilizar para entrenar la inteligencia artificial". Al mismo tiempo que amenazan con que "la próxima generación de modelos de IA de código abierto, y los productos y servicios que construimos sobre ellos, no comprenderán ni reflejarán el conocimiento, la cultura o los idiomas europeos".
Con todo ello, las grandes tecnológicas plantean una elección muy clara a los reguladores comunitarios: "Puede optar por reafirmar el principio de armonización consagrado en marcos regulatorios como el RGPD para que la innovación en IA ocurra aquí a la misma escala y velocidad que en otros lugares. O puede seguir rechazando el progreso, traicionar las ambiciones del mercado único y observar cómo el resto del mundo se basa en tecnologías a las que los europeos no tendrán acceso".
"A la normativa actual le falta el detalle sobre cómo se va a aplicar de forma concreta y específica. Eso nos impide saber cómo debemos entrenar los modelos, que es un proceso que lleva varios meses", concluye Pineau.
Grandes nombres contra la AI Act.
La carta crítica está firmada por algunos de los grandes nombres de la industria digital, europea y global. Entre ellos, Börje Ekholm (presidente de Ericsson), Christian Klein (CEO de SAP), Daniel Ek (CEO de Spotify), Mark Zuckerberg y Yann LeCun (Meta), Miguel López (CEO de Thyssenkrupp) o Marco Tronchetti Provera (Pirelli).
También participan en ella algunas de las startups más destacadas del ecosistema de la IA, como Nabla, Unbabel, Flower Labs, Criteo, Kornia AI, YOOX, Ggml.ai, 8vance o Bineric AI. Además de representantes de la sociedad civil (como el español Miguel Ferrer, en nombre de Estech) y de la Academia, como los investigadores Eugenio Valdano, Josef Sivic (Czech Technical University), Marco Baroni (ICREA), Nicolò Cesa-Bianchi (U. de Milán), Patrick Pérez o Stefano Iacus (Harvard).