"Una Inteligencia Artificial (IA) segura que respete los derechos humanos y los valores de la Unión Europea": es el objetivo clave que se ha marcado el Consejo de la UE con la nueva Ley de Inteligencia Artificial que está preparando para garantizar el desarrollo de un mercado único de la IA europeo. Pretende promover la seguridad jurídica, fomente la inversión y facilite la gobernanza en un entorno cada vez más digital y desafiante en España y el mundo entero.
Países del Viejo Continente como Italia ya han prohibido ChatGPT al considerar que incumplía las normas de privacidad de los usuarios por, supuestamente, recopilar ilícitamente datos personales. Y, sin ir más lejos, la Agencia de Protección de Datos de España (AEPD) ha anunciado que comenzará una investigación a la empresa OpenAI, la compañía que ha desarrollado ChatGPT, por considerar que puede tener un importante impacto sobre los derechos de las personas. En ese marco, la AEPD defiende que el tratamiento de ingentes cantidades de datos requiere de acciones armonizadas a nivel europeo, en aplicación del Reglamento General de Protección de Datos (RGPD).
Francia e Irlanda están considerando seguir los pasos de Italia con ChatGPT mientras cada vez más voces europeas ponen en tela de juicio las bondades de la IA. El último ha sido el ministro de Transportes y Digitalización de Alemania, Volker Wissing, al reclamar a la UE una rápida elaboración de un marco jurídico uniforme que acote el potencial de la tecnología basada en la IA: "Es esencial encontrar un equilibrio (...) para una IA digna de confianza".
[MªJesús López, fundadora y CMO de YouForget.Me: "Debemos tomar control de nuestra huella digital"]
Wissing ha hecho hincapié en la necesidad de que esta nueva tecnología solo pueda utilizarse si respeta valores europeos como la democracia, la transparencia y la neutralidad: "Los sistemas de IA no deben manipularnos sino apoyarnos".
¿Qué es la regulación para los robots y la IA?
Avanzan a pasos agigantados, mucho más rápido que cualquier Estado. Así, la regulación para los robots y la IA está pensada para aportar valor y proporcionar una mejor experiencia al usuario. Teniendo como base la resolución de las cuestiones legales y éticas que plantea esta tecnología, se trata de establecer reglas sobre el desarrollo, mercantilización, el uso de productos, servicios y sistemas en un territorio determinado. En última instancia, se trata de armonizar las funciones entre las máquinas autónomas y el entorno en el que operan.
[Inteligencia artificial: la UE prohibirá la puntuación social y la vigilancia biométrica masiva]
El nuevo marco jurídico europeo desarrollará principios éticos y las obligaciones ligadas al desarrollo, la implantación y el uso de la IA, la robótica y otras tecnologías relacionadas, como el software, los algoritmos y los datos en la UE.
¿Quién regula la IA y cuándo entra en vigor la Ley europea?
Hasta el momento, ninguna jurisdicción en el mundo ha desarrollado una regulación específica para los problemas legales y éticos que plantea la IA. Más bien, al tiempo que crece el desarrollo y la penetración de la tecnología basada en IA, se van descubriendo aquellos vacíos legales que contribuyen a su crecimiento. Europa será la primera potencia mundial en tener su propia Ley de Inteligencia Artificial (AI Act), que se prevé esté lista para finales del 2023 y entre en vigor, como mucho, en 2025.
¿Por qué se debe regular la Inteligencia Artificial?
Existe un cierto consenso sobre la dificultad de abordar los dilemas éticos y legales que trae consigo la IA, y es que esta tecnología no sabe guardar un secreto porque, sencillamente, no está programada para eso. De hecho, la IA va perfeccionándose gracias a la información entrante porque no está capacitada para crear, sino para reproducir.
[La mayor diferencia entre Apple y Google es la privacidad]
Mientras ciertos programas causan auténtico furor, como ChatGPT, que crea textos automáticamente en una supuesta conversación con cualquier usuario, se da por hecho que el tratamiento de datos de OpenAI no cumple con el RGPD. También se teme por el potencial daño a la privacidad que pueden causar el software competidor Bard de Google y los programas que pueden generar imágenes a partir de descripciones de texto.
Qué pasa con la IA en EEUU y China
La administración que dirige Joe Biden ha comenzado a evaluar si es preciso imponer barreras a las herramientas de Inteligencia Artificial, como ChatGPT, en medio de la creciente preocupación por los usos de la tecnología. En especial, por su potencial para propagar desinformación. El Departamento de Comercio de EEUU ya ha hecho pública su solicitud formal para analizar qué medidas de responsabilidad deberían acompañar a las múltiples facetas que adquiere la tecnología basada en IA.
[Amazon vs Alibaba: ¿auge o caída del comercio online?]
En China, el Gobierno de Xi Jinping está ultimando un borrador de reglas diseñado para administrar la forma en que las empresas desarrollan productos de IA generativa, como ChatGPT, programados para generar todo tipo de contenidos a partir de los algoritmos preexistentes y los que introducen los usuarios. Al mismo tiempo, los gigantes tecnológicos chinos presentan sus productos rivales: Alibaba y su Tongyi Qianwen o Baidu y su Ernie Bot son muestra de ello. Pero la regulación que ha activado la poderosa Administración del Ciberespacio de China consiste en acotar los contenidos que esos productos pueden generar para que, en el caso del gigante asiático, reflejen los valores fundamentales del socialismo y no subvertir el poder estatal.