Una cuestión clave del reglamento europeo de inteligencia artificial aprobado hace unos días es el impacto que esta regulación pionera surgida de Estrasburgo puede tener sobre la investigación científica. En muchos aspectos, la Ciencia recuerda al Arte creativo, tiene bastante de intuición e inspiración, aunque su impacto se basa en la capacidad para desarrollar nuevos métodos y técnicas útiles para el progreso y la innovación tecnológica.
Esta capacidad para generar aplicaciones es lo que realmente distingue la buena ciencia de la mala, lo que identifica al genio investigador frente al resto. Una idea que, de manera más o menos literal, ya expuso Louis Pasteur, difuminando la frontera entre ciencia básica y aplicada. En contra de lo que se cree, Pasteur no fue ni médico ni cirujano. Y, pese a ello, sus avances en la lucha contra los patógenos y su archiconocida técnica de ‘pasteurización’ han salvado más vidas que probablemente cualquier otro de los avances científicos contemporáneos.
La inteligencia artificial, no hay duda, ha multiplicado la capacidad de los grupos de investigación para analizar datos, identificar patrones y desarrollar innovaciones a una escala y velocidad inimaginables. Uno de los grandes valores de la IA es su capacidad para simular la inteligencia humana y lanzarla a enorme velocidad, especialmente en lo que se refiere a sistemas informáticos y la programación de las máquinas para que aprendan a ser humanos.
A juzgar por los análisis publicados en revistas científicas y en las opiniones expresadas públicamente por científicos de todo el mundo, la AI Act europea tendrá, de momento, poco impacto sobre la creatividad científica, precisamente por las cautelas adoptadas por los europarlamentarios en este asunto y que han establecido determinadas excepciones.
Durante la tramitación del proyecto de ley, el Parlamento Europeo añadió una cláusula que exime a los modelos de IA desarrollados exclusivamente para investigación, desarrollo o creación de prototipos. Es decir, en la UE se ha trabajado para garantizar que la ley no afecte negativamente a la investigación. Realmente ha existido la voluntad de no interrumpir la innovación, por lo que sorprendería que esto vaya a ser un problema.
Sobre el papel, la UE impone sus normas más estrictas a los modelos de inteligencia artificial más arriesgados y está diseñada para garantizar que los sistemas sean seguros y respeten los derechos y valores europeos. Es decir, la ley trata de dar forma a una forma de pensar “a la europea” y sentar precedente. No es casualidad que en octubre pasado, Joe Biden firmara la primera orden ejecutiva sobre IA en EEUU, que exige a las agencias federales tomar medidas.
Algunos investigadores han acogido con satisfacción la ley por su potencial para fomentar la ciencia abierta, mientras que a otros les preocupa que pueda sofocar la innovación. Es difícil formarse un criterio equilibrado. Se diría que la UE ha optado por regular los modelos de IA en función de su riesgo potencial, aplicando reglas más estrictas a las aplicaciones más comprometidas y delineando regulaciones separadas para los modelos de propósito general, como GPT, que tienen usos amplios y realmente impredecibles. De ahí la psicosis general.
La ley regula sistemas de "riesgo inaceptable", como aquellos que utilizan datos biométricos para inferir características sensibles, como la orientación sexual de las personas. Las aplicaciones de alto riesgo, como el uso de IA en la contratación y el cumplimiento de la ley, deben cumplir ciertas obligaciones; por ejemplo, los desarrolladores deben demostrar que sus modelos son seguros, transparentes y explicables a los usuarios, y que cumplen con las normas de privacidad y no discriminan. Para las herramientas de menor riesgo, los desarrolladores tendrán que informar a los usuarios cuando estén interactuando con contenido generado por IA. La ley se aplica a los modelos que operan en la UE y cualquier empresa que viole las reglas se arriesga a una multa de hasta el 7% de sus ganancias globales anuales.
La IA se ha vuelto rápidamente poderosa y omnipresente y establecer un marco para guiar su uso y desarrollo tiene mucho sentido. Probablemente, las leyes no vayan lo suficientemente lejos y dejen exenciones excesivamente amplias para fines militares y de seguridad nacional. Volviendo a Pasteur, probablemente no estemos ante una ley clasificable como buena o mala. Dependerá de su aplicación. Pero, atención, porque las obligaciones para los sistemas de alto riesgo no se aplicarán hasta dentro de tres años.