Un modelo proinnovación con el que aspira a ser un superpoder científico y tecnológico. Así define el gobierno británico su estrategia regulatoria para la inteligencia artificial, publicada el pasado 29 de marzo. El plan del gobierno británico se desmarca del enfoque de la Comisión Europea (CE): en lugar de contar con un regulador único, específico para la IA, establece que la gobernanza debe realizarse de forma transversal, centrándose en los usos en lugar de la tecnología en sí.
Este enfoque implica que deben ser los reguladores sectoriales quienes establezcan su particular criterio -utilizando las leyes ya existentes- en función de cómo la IA se esté usando en sus sectores. No es una gran novedad, pues así es como venía funcionando hasta ahora el país británico. No les ha ido tan mal, Reino Unido ocupa el cuarto puesto mundial en el ranking mundial de excelencia de la IA, The Global AI Vibrancy Tool. Por delante están Estados Unidos, China e India, respectivamente. España ocupa el puesto 15.
El objetivo del ejecutivo británico es seguir escalando puestos. Lo que viene a decir con su estrategia es “sigamos como estamos, y asumamos los riesgos”. Los organismos reguladores, como la Autoridad de Competencia y Mercados, la Comisión de Igualdad y Derechos Humanos o la Agencia Reguladora de Medicamentos y Productos Sanitarios, ya venían haciendo ese trabajo a duras penas. Ahora se les atribuye dicha responsabilidad formalmente, pero sin dotarlos de recursos ni de talento preparado para ello. Esa es una de las principales críticas al plan del gobierno.
“No funcionará, principalmente porque los poderes de los reguladores son enormemente insuficientes, mal dirigidos hacia los usuarios finales, a menudo indefensos en la cadena de suministro de IA”, publicaba en respuesta Michael Veale, profesor de Derechos Digitales y Regulación en University College London (UCL).
UK proposes no AI regulation, instead just urging sectoral regulators to use existing powers. Won’t work, primarily as regulators’ powers are hugely insufficient, misdirected towards the often helpless final actors/users in the AI supply chain who technology (1/2)
— Michael Veale @mikarv@someone.elses.computer (@mikarv) March 29, 2023
“Esto es no hacer nada y esperar; dejarlo en manos de los reguladores sectoriales que ya están irremediablemente sobrecargados, mal financiados, inapropiadamente empoderados y políticamente lastrados; culpar a la falta de coordinación entre los reguladores, que de hecho lo hacen muy bien, e ignorar a los sectores carentes de un regulador apropiado”, compartía también, Lilian Edwards, profesora de Derecho, Innovación y Sociedad en la Universidad de Newcastle (Reino Unido).
If you'd read BBC report this am, you'd be forgiven for thinking UK Govt had announced a worked out plan for how to regulate the societal threats posed by "AI" which fill our news ( fake news, IP theft, stereotyping, concentration of power in a few billionaires, job impacts) 1/n
— Lilian Edwards (@lilianedwards) March 29, 2023
“Para más inri, el mandato es colaborar con la industria en los caminos a seguir, sin mencionar a la sociedad civil, ni a representantes de los usuarios, ni a los consumidores, ni a ciudadanos reales”, añade Edwards, también miembro del Consejo Asesor del Open Rights Group y de la Fundación para la Investigación de la Privacidad en Internet.
Modelo británico vs modelo europeo
Oliver Smith, especialista en ética tecnológica y exfuncionario del gobierno británico, critica también la falta de financiación, y apunta a otras debilidades de la estrategia: “Esquiva un tema transversal importante: cómo equilibrar los derechos de los creadores de contenido frente a los desarrolladores de IA”. Señala la gravedad de este problema “ya identificado e ignorado”, en un área -la de las industrias creativas- que el Reino Unido considera también una fortaleza estratégica.
Sin embargo, el experto ve una ventaja comparativa clara del modelo británico en comparación con el de la CE. “Centrarse en la regulación de los resultados, entendiendo los diferentes contextos en los que se puede utilizar la IA, es definitivamente más favorable a la innovación”. En la misma línea, el Alan Turing Institute señala en un comunicado que “este enfoque, basado en principios y en la fortaleza de los reguladores en Reino Unido, es crucial para la regulación efectiva de la IA”.
Oliver Smith, destaca que dicho enfoque implica un reconocimiento de algo obvio: que es difícil regular una tecnología de propósito general como la IA, que tiene múltiples usos y cambia muy rápidamente. Sin embargo, critica una omisión importante por parte del gobierno británico: que su estrategia favorece el riesgo o, como mínimo, acepta más riesgos que la CE. “Parte de lo que hace que la IA sea emocionante es que podrá ayudarnos en cosas que no habíamos pensado, lo que por su naturaleza significa que es menos probable que estén cubiertas por la regulación existente”, comenta.
Por otra parte, el hecho de que se delegue en organismos regulatorios separados deja lagunas que también aumentan los riesgos. El exfuncionario británico pone un ejemplo: “Si alguien usa ChatGPT como terapeuta y, tras recibir un mal consejo, termina haciéndose daño, ¿quién regula esto, o quién debería haberlo pensado? La legislación de protección al consumidor suele centrarse en los usos previstos por los fabricantes, y la terapia no es una de las utilidades contempladas por OpenAI. En tal caso, se culpará al usuario, pero eso no parece lo correcto”.
En este sentido, el experto cree que es probable que se requiera alguna legislación específica para cubrir estos riesgos de uso general. “El suministro eléctrico está regulado para que no te puedas electrocutar fácilmente cuando te enchufas a la red, ¿cuál es el equivalente de la IA?”, se pregunta.
Principios sobre papel
La estrategia británica establece un marco basado en los principios de fomento de la innovación, proporcionalidad, fiabilidad, adaptabilidad, claridad y colaboración. Estos se aplican a cuatro elementos clave del marco. El primero es una definición de la IA basada en sus características únicas: la adaptabilidad (lo que puede dificultar la explicabilidad de sus resultados) y la autonomía (puede tomar decisiones sin la intención expresa o el control continuo de un ser humano, por lo que puede ser difícil atribuir responsabilidades).
El segundo elemento es la adopción de un enfoque específico del contexto. Esto implica reconocer que una misma tecnología de la IA -como pueden ser los grandes modelos de lenguaje o LLMs- se puede utilizar tanto en situaciones de alto riesgo como de bajo riesgo. Por eso, al contrario que la CE, no asigna reglas o niveles de riesgo a sectores o tecnologías completas.
Este enfoque entiende que, por ejemplo, un chatbot que se utiliza para clasificar las solicitudes de clientes de una tienda online no debe regularse de la misma manera que una aplicación similar que se usa como parte de un proceso de diagnóstico médico. Así, la regulación se realizará en función de los resultados que la IA genere en aplicaciones particulares.
Como tercer pilar clave, especifica un conjunto de principios intersectoriales (diferentes a los anteriores) para guiar las respuestas de los reguladores, aclarando las expectativas del gobierno en torno a la IA responsable y describiendo cómo ha de ser una adecuada gobernanza en todas las etapas del ciclo de vida de la IA. Los cinco principios son: seguridad, protección y robustez; transparencia y explicabilidad; justicia; rendición de cuentas y gobernanza, y contestabilidad y reparación. Su aplicación es a discreción de los reguladores, que deberán priorizar según las necesidades.
Por último, se anuncia la ampliación de las funciones centrales del gobierno para apoyar a los reguladores. El ejecutivo se compromete a hacerse cargo del monitoreo y evaluación de su actuación; de apoyar una implementación coherente; de la evaluación de riesgos intersectorial; de la educación y concienciación social; de liderar una exploración colaborativa de tendencias para poder reaccionar a tiempo; y de garantizar la interoperabilidad con los marcos internacionales.
Un claro impulso a esta labor transversal de monitoreo y coordinación ayudaría a generar confianza entre los ciudadanos y las empresas. Sin embargo, no está claro si realmente hay algo de nuevo en cómo se propone ejecutar, ya que su descripción no parece muy diferente de las funciones que ya realiza el gobierno central.
El ejecutivo también menciona en su estrategia de regulación de la IA el apoyo a los agentes de innovación, mediante mecanismos como bancos de pruebas. De hecho, se ha anunciado una inversión de dos millones de libras (unos 2,26 millones de euros) para un nuevo sandbox, en el que las empresas podrán probar cómo la regulación podría aplicarse a productos y servicios de IA.
Carece el documento publicado de referencia alguna a la ciberseguridad, salvo una mención en uno de los anexos, con relación al principio de seguridad, protección y robustez. Es más, la nueva ley de seguridad online que prepara el gobierno británico ha sido duramente atacada por comprometer la seguridad digital. Whatsapp ha anunciado que, de aprobarse, no la cumplirá, y su competidora Signal ya ha amenazado con abandonar el país.
Regular, ¿para qué?
El plan británico anticipa que, en los próximos doce meses, los reguladores emitirán una guía práctica, herramientas y recursos (como plantillas para el análisis de riesgos), para facilitar a las organizaciones la implementación de los principios guía en sus sectores. Se anuncia también -sin fecha específica- la futura introducción de un deber estatutario hacia los reguladores para que tengan debidamente en cuenta los principios.
El gobierno de Reino Unido asegura que el sector privado “acogió cálidamente” sus propuestas iniciales para la estrategia publicada en marzo, cuyo enfoque adelantó durante una consulta en 2022. No en vano, uno de los principales objetivos que la han impulsado ha sido que las organizaciones pudieran explotar la IA en todo su potencial, tal y como se ha puesto de manifiesto.
Es sin duda positivo que el enfoque esté puesto en el desarrollo de normas que no se centren en la tecnología per se, sino que sean proporcionales al contexto; con foco en el output y no el input. Es algo que yo misma he defendido anteriormente en esta sección. Sin embargo, lamento que la estrategia regulatoria tenga como prioridad el liderazgo tecnológico, en lugar de la salvaguarda de los derechos de los ciudadanos.
Aplaudo que esta tenga una perspectiva proinnovación, que es esencial para el crecimiento económico y para la soberanía en el contexto geopolítico. Sin embargo, ¿para qué queremos crecimiento si no es para mejorar la calidad de vida de las personas? ¿Para qué queremos innovación si no es para el bienestar humano? La historia, y el ejemplo vivo de países como China, nos han mostrado que un gran poder tecnológico no siempre se traduce ello.
Con el planteamiento actual, la ciudadanía queda subyugada a la carrera por la supremacía tecnológica. El propio documento señala que su enfoque se basa en la colaboración entre el gobierno, los reguladores y las empresas (nada de sociedad civil). Tal vez se espera que sean los reguladores quienes ejerzan de voz del pueblo. Sin embargo, poco podrán hacer por velar por este si no se les dota de herramientas, recursos humanos y económicos, y poder legislativo para garantizar el cumplimiento de su mandato.
En un comunicado de prensa, la secretaria de Estado de Ciencia, Innovación y Tecnología de Reino Unido, Michelle Donelan, declaró que, dado el rápido incremento del ritmo de desarrollo de la IA, son necesarias reglas que garanticen que se desarrolla de forma segura. “Nuestro enfoque se basa en fuertes principios que permitan que las personas confíen en las empresas para impulsar las tecnologías del mañana”. Sin mecanismos y recursos que los aseguren, de poco servirán esos principios.