El pleno de la Eurocámara aprobó el pasado 14 de juno un reglamento pionero a nivel mundial para mitigar los riesgos que plantea la Inteligencia Artificial ( AI) y contra los que ha estado alertando gran parte de la comunidad experta en esta tecnología, incluso la empresa OpenAI responsable de herramientas como ChatGPT o Dall-E. No obstante, esta misma compañía habría influido en la redacción de esta ley para suavizar las restricciones y obligaciones aplicadas a sus sistemas.
Afirma la revista Time que OpenAI ha presionado para reducir la carga que esta nueva ley podría aplicar a las empresas con un Libro Blanco. El medio internacional ha tenido acceso a este documento donde se refleja la propuesta de OpenAI ante la UE, que los funcionarios de la Comisión Europea han aportado ante una solicitud de libertad de información.
OpenAI propuso enmiendas que luego han visto reflejadas en el texto final de la ley de la UE aprobado por el Parlamento Europeo el 14 de junio y que no estaban en el borrador anterior. Estas enmiendas se empezaron a presentar en 2022 y en ellas uno de los principales objetivos de la empresa estadounidense era evitar que sus modelos de lenguaje natural GPT-3 (en el que ahora se basa ChatGPT) y el generador de imágenes, Dall-E 2 no se incluyeran en la categoría de sistemas de alto riesgo.
En su viaje por las principales capitales del mundo, entre las que está Madrid, Sam Altman no ha mencionado este Libro Blanco que Time muestra, pero sí ha dejado claro sus dudas sobre la nueva regulación antes de que fuera aprobada. El pasado mes de mayo advirtió que si no eran capaces de cumplir con la regulación dejarían de operar en Europa. Declaraciones que días más tarde matizó aclarando que no tenía planes de irse de la UE.
Las categorías aprobadas
Recuerda Time que Google también ha presionado a los funcionarios europeos para relajar esa carga reglamentaria para las grandes empresas que construyen sistemas de IA de uso general. "En sí mismo, GPT-3 no es un sistema de alto riesgo", dijo OpenAI en su documento,"pero [posee] capacidades que potencialmente pueden emplearse en casos de uso de alto riesgo".
El nuevo reglamento de la UE se basa en el riesgo que supone cada sistema. En el peldaño más alto de la pirámide se encuentran las aplicaciones de inteligencia artificial que Bruselas considera de "riesgo inadmisible" y que se prohibirán de forma terminante. En el segundo escalón están las que presentan un riesgo alto. Aquí se enmarcarían tecnologías capaces de puntuación en exámenes, programas de clasificación de currículums para procedimientos de contratación y podrían haber estado los modelos generadores de contenido como ChatGPT, por tener el poder de crear desinformación.
Sin embargo, este tipo de herramientas, se han colocado en un tercer peldaño del reglamento con los sistemas de inteligencia artificial de uso general, a los que se impondrá obligaciones específicas de transparencia, pero menos estrictas que los de la segunda categoría. Este es el caso de los deepfake, de los bots y de ChatGPT y modelos similares.
Reuniones con OpenAI
OpenAI asegura que este documento se redactó a petición de los formuladores para conocer su enfoque a la hora de "implementar sistemas como GPT-3 de manera segura"; "continuamos interactuando con los legisladores y apoyando el objetivo de la UE de garantizar que las herramientas de IA se construyan, implementen y utilicen de manera segura ahora y en el futuro", afirman.
En junio de 2022, tres meses antes de enviar este libro Blanco, miembros de OpenAI y funcionarios de la Comisión Europea en Bruselas se reunieron para aclarar dudas de la compañía que temían, como otras empresas, que la regulación fuera excesiva: "Les preocupaba que los sistemas de IA de propósito general se incluyeran como sistemas de alto riesgo" dice un registro oficial. Fuentes presentes en esa reunión aseguran que la empresa no hizo sugerencias para adaptar la regulación y se mostraron comprensivos con los riesgos que preocupaban a la Comisión y que estaban tratando de mitigar.
El esfuerzo de colaboración parece haber sido un éxito. El portavoz de OpenAI confirma a la revista que la empresa apoyó la introducción tardía de "modelos básicos" como una categoría separada. Ahora estos sistemas están sujetos a obligaciones como la prevención de la generación de contenido ilegal, la divulgación de si un sistema fue entrenado sobre material protegido por derechos de autor y realizando evaluaciones de riesgos.
[La IA podría "extinguir la humanidad", alertan el padre de ChatGPT y más de 100 expertos]
La votación del pasado 14 de junio en la Eurocámara todavía no es el final del camino. La versión final del reglamento todavía debe negociarse y acordarse entre los representantes del Parlamento y de los Gobiernos, una tarea que le corresponderá a la presidencia española a partir de julio. Bruselas cree que la entrada en vigor de todas las disposiciones de la norma no se producirá hasta 2026.
En marzo de este año, los creadores de ChatGPT realizaron una demostración ante los funcionarios sobre las medidas de seguridad del chatbot y cómo pueden controlar los temas y respuesta que el sistema da en determinados casos de riesgo. No obstante, los usuarios han demostrado que estas medidas se puede hackear para conseguir que el chatbot aborde temas controvertidos.