Al igual que sucedió en su momento con el Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés), parece que el resto del mundo ha vuelto a mirar a Europa en su afán por replicar las regulaciones pioneras que está poniendo en marcha la región en relación a las nuevas tecnologías. En este caso, le toca a la inteligencia artificial.
Apenas unas semanas después de que el Reglamento Europeo de Inteligencia Artificial (AI Act, en inglés) entrase en vigor en el territorio comunitario (aunque aún tardará dos años más en estar plenamente operativo), Estados Unidos se ha sumado a las intenciones de la UE en legislar esta herramienta.
El movimiento ha venido de la mano del Senado estatal de California, que ha aprobado un proyecto de ley con el que pretende endurecer las restricciones para el uso de la inteligencia artificial. La medida, conocida como Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial o Ley SB 1047, está impulsada por el senador demócrata del estado de California, Scott Wiener, cuyo principal objetivo es reducir el riesgo de que la IA se utilice para generar amenazas de seguridad pública, como el desarrollo de armas biológicas, químicas, nucleares o cibernéticas.
Según Wiener, el documento pretende "aplicar normas de seguridad claras, predecibles y de sentido común para los desarrolladores de sistemas de inteligencia artificial grandes y poderosos".
En su camino legislativo, esta norma se ha tenido que enfrentar a importantes cambios en su composición ante la presión que ha sufrido por parte de las empresas tecnológicas, quienes la acusaban de ser "demasiado restrictiva".
Finalmente, con una votación de 29 a 9, los miembros de la Asamblea estatal de California volvieron a respaldar con una abrumadora mayoría esta medida, que tuvo que someterse a una nueva votación tras la incorporación de nuevas enmiendas. Ahora, la norma deberá presentarse ante el gobernador de California, Gavin Newsom, quien dispone hasta el próximo 30 de septiembre para decidir si firma o veta el proyecto.
En caso de recibir la aprobación Newsom, California se sumaría a la Unión Europea en su afán por contar con un marco regulatorio que permita mitigar los riesgos asociados a la inteligencia artificial.
Diferencias con Europa
Por un lado, la conocida como ley SB 1047 quiere obligar a las empresas que diseñan grandes modelos de IA a implementar protocolos de seguridad para evitar los usos indebidos. Así, precisa que aquellos algoritmos cuyo entrenamiento cueste más de 100 millones de dólares deben incluir una especie de "botón de apagado de emergencia" que permita desactivar su operación "por completo y de inmediato" en caso necesario.
Además, la norma californiana pretende prohibir la distribución de herramientas basadas en esta tecnología que puedan causar "daños críticos" a la sociedad, por ejemplo, aquellas que faciliten la creación de armas biológicas, químicas, nucleares y cibernéticas.
Con el objetivo de hacer cumplir la norma, los organismos asociados podrán exigir auditorías externas anuales donde se verifique el cumplimiento de las disposiciones y, en caso contrario, imponer multas que pueden alcanzar el 30% del costo de la potencia de cálculo que utilizan los programas infractores o, en los casos más graves, se podrá dictaminar la suspensión o eliminación de los sistemas transgresores.
Por su parte, el Reglamento Europeo de IA, que ha entrado en vigor hace apenas unas semanas, basa sus preceptos en un enfoque basado en el riesgo, dividiendo los diferentes usos de esta tecnología en categorías que indican la peligrosidad que entrañan y estableciendo requisitos y obligaciones a los participantes en la cadena de valor.
Así, la ley prohíbe aquellas prácticas consideradas de "riesgo inaceptable", entre ellas, el empleo de técnicas manipuladoras para alterar el comportamiento de una persona o los sistemas dedicados a inferir emociones en el trabajo o en los centros educativos, entre otros.
Además, considera de "alto riesgo" los sistemas que afectan a infraestructuras críticas, los que afectan a la justicia y los procesos democráticos o los que tengan que ver con el control fronterizo. Estos, impone, deben cumplir criterios específicos como, por ejemplo, asegurar la calidad de los conjuntos de datos, permitir la supervisión humana efectiva durante su uso o implantar y mantener un proceso de gestión de riesgos.
La ley europea regula también los modelos de IA de uso general sobre los que establece una serie de obligaciones dedicadas a los proveedores como documentar el proceso de entrenamiento y resultados, informar sobre sus características y requisitos legales a los proveedores de sistemas de IA que vayan a integrarlo o establecer directrices para asegurar el respecto a la normativa de propiedad intelectual.
De la misma forma que la estadounidense, la ley de IA europea también cuenta con sanciones asociadas a su incumplimiento que, en este caso, pueden llegar hasta 35 millones de euros o el 7% de su facturación anual mundial para las compañías que realicen alguna de las prácticas prohibidas.
Uno de los puntos comunes que une a ambos reglamentos es que en ambos el camino legislativo hasta su consolidación no ha estado exento de baches y se ha extendido enormemente en el tiempo, con diferentes enmiendas o reformulación de los principios que componen la norma, en función de los debates y acuerdos con los que han ido llegando con el resto de colegisladores.
Duras críticas
Al igual que el Reglamento Europeo de Inteligencia Artificial, la ley impulsada por California también ha recibido duras críticas por parte de las grandes figuras tecnológicas que operan en la región. Los magnates creen que esta norma puede suponer una amenaza para el crecimiento de esta tecnología y podría provocar una fuga de talento en Silicon Valley justo cuando el sector empieza a mostrar signos de recuperación tras la pandemia.
Una de las empresas más críticas con la ley ha sido OpenAI, que ha señalado en varias ocasiones que establecer una regulación a nivel estatal podría provocar una fuga de inversiones y de los profesionales que residen en California.
Wiener, el impulsor de la medida estadounidense, ha rechazado estas acusaciones y ha apuntado que, al contrario, esta norma "alienta y apoya" la innovación. Además, ha insistido en que esta legislación, a pesar de impulsarse desde California, no solo se aplica a las compañías con sede en esta localización, sino que también afectará a las corporaciones que hacen negocios en el estado, por lo que ubicarse fuera de ella no evita su cumplimiento.
Una de las reacciones más sorprendentes ha sido la de Elon Musk, que ha mostrado su apoyo a la iniciativa. El magnate estadounidense se ha posicionado como defensor de este reglamento y ha precisado que, del mismo modo que se regula cualquier producto que suponga un riesgo para los usuarios, esta tecnología también debe controlarse.
Los grandes CEO tecnológicos no solo han criticado la norma californiana, sino que también lo han hecho con la europea. Hace apenas unos días, el consejero delegado de Meta, Mark Zuckerberg, y el consejero delegado de Spotify, Daniel Ek, unieron fuerzas en una carta en la que mostraban su disconformidad frente a la nueva regulación de IA puesta en marcha por la Unión Europea.
Al igual que con la estadounidense, las críticas contra la europea se basan en que "ahogará la innovación" e impedirá que se aprovechen las grandes oportunidades derivadas. También, apuntaban que esta norma podría ahondar más en la brecha de talento existente en el sector tecnológico entre Europa y otras regiones como América o Asia.
Los reguladores europeos que han estado tras el desarrollo de esta medida pionera se han mostrado contrarios a estas acusaciones desde su concepción y han señalado en diferentes ocasiones que este core normativo ayudará a que solo lleguen al mercado aquellos productos de IA que no ofrezcan ningún peligro. Así, han insistido en que esta norma es el colofón al ecosistema legislativo digital europeo.