Así se controlará el desarrollo de la IA: las propuestas del 'padre' de ChatGPT, el G7 y la UE
Sam Altman se reúne con los principales líderes mundiales ante una nueva carrera por regular la inteligencia artificial antes de que sea tarde.
23 mayo, 2023 01:10En menos de una semana se han dado importantes pasos hacia la regulación internacional de la inteligencia artificial (IA), cuya rápida evolución está generando amplias preocupaciones en todo el mundo. Este lunes 22 de mayo, el presidente del Gobierno de España, Pedro Sánchez se ha reunido con Sam Altman, consejero delegado y cofundador de OpenAI, empresa responsable de ChatGPT.
Altman comienza así una visita por la Unión Europea donde se ha presentado la primera propuesta de ley del mundo sobre esta tecnología. Casi al mismo tiempo, el G7 ha acordado avanzar con prontitud en una regulación internacional. Todo, días después de que Altman sorprendiera ante el Capitolio de Estados Unidos pidiendo medidas para controlar una industria, en la que él es el principal impulsor.
"Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal", dijo Altman ante senadores estadounidenses la semana pasada. No es el único de los expertos en el desarrollo de la inteligencia artificial que apremia a los gobiernos a crear una regulación para evitar el lado perverso de la IA, o más bien, las aplicaciones negativas que se le puedan dar. La generación de noticias e imágenes falsas hiperrealistas, el abuso de datos personales o el diagnóstico erróneo en medicina son algunos de los muchos miedos que se están planteando alrededor de estas herramientas.
Las preguntas son: ¿la humanidad llegará a tiempo de controlar su desarrollo y evitar males mayores? y, ¿puede hacerlo sin frenar las posibilidades que esta innovación ya está aportando a innumerables campos como la medicina o la investigación? Europa está a la cabeza en esta carrera contra reloj y España tendrá un papel importante al asumir el 1 de julio la presidencia del Consejo de la Unión Europea, donde deberán tratarse las negociaciones finales para aprobar el Reglamento de la Inteligencia Artificial antes de que acabe el año.
En este particular debate entran ahora oficialmente tanto la administración estadounidense y los países del G7. Alemania, Canadá, Estados Unidos, Francia, Italia y Reino Unido con Japón al frente han confirmado este fin de semana que la IA es un punto fundamental en su agenda para la cooperación internacional y que las políticas y regulaciones de IA deben estar "centradas en el ser humano", en preservar los derechos humanos, la privacidad y los datos personales. Altman también se reunió el mes pasado con el primer ministro de Japón en su campaña por todo el mundo como amigo de la IA regulada.
A la hora de aplicar una serie de normas, se están valorando medidas más inmediatas como el control de los datos de los ciudadanos, la prohibición de aplicaciones ya conocidas y la creación de instituciones independientes que vigilen el trabajo de las empresas que desarrollan los sistemas de inteligencia artificial. Sin embargo, Sam Altman, el hombre que ha obligado a moverse más rápido a gigantes como Google, pide también estudiar casos que aún no se han dado como el control de la alineación de estas inteligencias o dicho de otra forma, que persiga los objetivos marcados por sus desarrolladores y no otros.
El problema de la privacidad
Uno de los problemas más polémicos que han protagonizado las llamadas inteligencias artificiales generativas como GPT-4, Midjourney y otras capaces de escribir o dibujar como los humanos, es el uso de los datos personales y el contenido protegido por derechos de autor con los que estos modelos se entrenan y que ha tensado la relación entre países europeos y las empresas. Artistas de todo el mundo han denunciado cómo estas herramientas han nacido gracias a la obtención de su trabajo sin pedirles permiso, también empresas como Apple ha limitado el acceso en sus oficinas para proteger sus datos confidenciales.
Italia fue la primera en prohibir ChatGPT y Alemania, Francia y España abrieron investigaciones sobre cómo trataba OpenAI los datos de los usuarios en esta herramienta. Tras presentar la información requerida Italia permitió la vuelta de este chatbot, pero estas tensiones también propiciaron la creación de un modo incógnito que permite hablar con el chat sin que la conversación se guarde para que la IA siga aprendiendo.
En su propuesta de ley, la UE sugiere pedir a las empresas resúmenes de los datos protegidos por derechos de autor que fueron utilizados para el entrenamiento, para que los titulares de esos derechos puedan reclamarlos a través de vías legales en la UE. Pero, no se indica que las empresas deban pedir permiso previo a estos profesionales.
No obstante, la parte más significativa de esta propuesta y también relacionada con la privacidad de los ciudadanos, es la lista de prácticas prohibidas que abordan actividades como el social scoring, aquella por la que la IA se usa para clasificar a las personas en función de su comportamiento social, posición socioeconómica y otras características personales. También se ha prohibido la utilización de identificación biométrica a distancia, tanto para gobiernos y autoridades públicas, como para entidades privadas. Aunque, se detallan excepciones como en el caso de que sirva para la persecución de delitos y previa autorización judicial.
Lo probado hasta ahora en la Unión Europea ha sido celebrado por organizaciones como European Digital Rights, EDRi, una federación de asociaciones europeas que defienden los derechos digitales. "Celebramos el veto absoluto a los sistemas de identificación biométrica en espacios públicos tanto en tiempo real como a posteriori y el veto de las políticas predictivas o el reconocimiento de emociones, la categorización biométrica y otros sistemas de IA arriesgados e inaceptables". Esos sí, la EDRi ha denunciado que esa prohibición no se aplica para migrantes en las fronteras europeas donde se usa el reconocimiento biométrico.
Por otro lado, se prohibirían sistemas que reconozcan las emociones, aquellos predictivos que anticipen delitos según el perfil o comportamiento de los sospechosos, incluso el uso de técnicas subliminales que trasciendan la conciencia de una persona para alterar su comportamiento. Estas son las principales prácticas que quedarían prohibidas, pero le seguirían aquellas consideradas de alto riesgo, sujetas a pruebas rigurosas y supervisión humana. En este segundo puesto entraría la conducción autónoma, los dispositivos médicos y maquinaria de infraestructuras críticas.
["Apagad la IA o moriremos todos", avisa uno de los mayores expertos en la materia]
Este texto aún puede sufrir cambios durante la presidencia española del Consejo y por ello, algunos agentes están pidiendo modificar ciertos detalles como el hecho de que para considerar una actividad de alto riesgo, su propio proveedor (la empresa o quien vende el servicio) también debe considerar que plantea un riesgo significativo para los derechos fundamentales, lo que daría el poder a las empresas de rechazar esa clasificación, según señala Daniel Leufer de Access Now en Newtral.
Necesidad de una IA ética
Ante la creciente preocupación por los contenidos falsos que generan modelos como GPT-4 ('cerebro' tras ChatGPT y Bing de Microsoft) la UE exigiría que estas herramientas generativas marquen los contenidos que produzcan a petición de los usuarios, así como sistemas para evitar que generan contenidos ilegales. Petición que también ha apoyado públicamente Altman en anteriores declaraciones. No obstante, más allá de la legalización, las marcas de agua o las técnicas para identificar el trabajo de la IA frente a la de un ser humano son todavía un reto técnico para los propios desarrolladores, dejan el campo bastante libre a quienes las quieren usar en detrimento de la verdad.
Aunque los modelos de inteligencia artificial generativa como ChatGPT o Midjouney no se consideran de alto riesgo en la propuesta de ley, si se consideran de tal complejidad que resulta muy difícil valorar su impacto en la sociedad a largo plazo, por lo que se les requeriría una supervisión adicional que consistiría en la creación de entornos controlados de pruebas o sandbox regulatorios establecidos por autoridades públicas para probar los sistemas de IA antes de su implementación. Este es un punto muy mencionado en las últimas semanas, pero que tiene una larga trayectoria en el debate sobre la regulación de la IA.
Preguntado por el senador de Luisiana, John Neely Kennedy, por qué medidas aplicaría, Sam Altman propuso durante la sesión del Congreso de EEUU la creación de una agencia que dé y quite licencias a las empresas de IA que no cumplan con las normas establecidas. Gary Marcus, profesor emérito de la Universidad de Nueva York, también apoyó en esa misma sesión la idea de una institución de control similar a la FDA que vigila la venta de medicamentos en Estados Unidos. Este académico pide que se haga un examen previo de las herramientas y un seguimiento posterior de su uso en el mercado.
La comunidad científica lleva tiempo pidiendo esa figura independiente como método de control, en parte, para poder supervisar el algoritmo o las entrañas de estos sistemas y comprobar que su programación o funcionamiento no genera desigualdades dentro de la sociedad. Este examen previo a su lanzamiento al mercado es uno de los puntos que enfrenta a académicos y empresarios, los segundos protegen el código de sus IAs como si fuera la fórmula de la Coca-Cola, más ahora con la carrera comercial iniciada entre Microsoft y Google.
[Así usa Google su inteligencia artificial para desarrollar medicamentos más rápido]
En la normativa de la Unión Europea definitiva se ha eliminado el requisito que obligaría a los modelos a pasar por una auditoría creada por expertos independientes que formaría parte de ese organismo de AI central que aplicaría control y supervisión. Por el contrario, la creación de este tipo de instituciones podría perjudicar a la actividad de la comunidad opensource, una de las fuentes principales de creación de modelos de aprendizaje profundo que está compitiendo frente a frente con grandes corporaciones como Google o alcanzando la calidad de sistemas como los de OpenAI. En un coloquio celebrado este lunes en la IE University, el fundador de OpenAI ha recalcado este lunes que "no es bueno" sobrerregular ya que, cortaría la capacidad de innovación y de creación las pequeñas compañías de modelos de lenguajes.
Consecuencias impredecibles
La tercera propuesta que mencionó el CEO de OpenAI, y que lo propuesto por las administraciones no contempla, por ser la más complicada de aplicar, es la creación de protocolos para descubrir cuándo un modelo es capaz de replicarse a sí mismo, lo que supondría que las máquinas pudieran crear copias de sí mismas de forma independiente. En anteriores declaraciones, el CEO de OpenAI, solicitaba la coordinación entre la mayoría de agentes en la industria y capacidad técnica para "alinear una superinteligencia", es decir, que persiga los objetivos marcados por sus desarrolladores y no otros.
[El momento más temido de la IA: ChatGPT-4 tiene signos de razonamiento humano, avisa Microsoft]
Esta idea de inteligencias artificiales que 'piensan y actúan' por sí solas es más propia de historias de ciencia ficción, pero también es uno de los miedos más fuertes entre los expertos en la materia. Claro que al no haberse dado el caso todavía, ni haber una idea más o menos unánime de cuándo y cómo ocurrirá, es complicado que se regule a priori. Lo que sí se solicita desde la industria es investigación y cooperación internacional para desarrollar controles técnicos.
A pesar de todo, y de las posibles consecuencias negativas imposibles de predecir que esta tecnología podría provocar, Altman sigue defendiendo que las IAs se abran al mundo aunque no estén listas ni sean perfectas, porque "la gente tiene que probarlas" y después de ver "cómo se puede utilizar de forma buena y mala, en base a ello, adaptarla a la sociedad", dice mientras se reúne con los principales dirigentes del planeta para buscar un consenso entre mercado y regulación.