Cohesión y coherencia, claves para una regulación eficaz de la inteligencia artificial
Expertas inciden en un evento de Esade en la importancia de la colaboración y del equilibrio entre el fomento de la innovación y el respeto de los valores.
6 mayo, 2021 02:47Noticias relacionadas
La innovación tecnológica está registrando en los últimos años una marcada aceleración que va a hacer que su uso tenga un "potencial disruptivo" para el que la regulación actual no está preparada. De ahí, que sea necesario abordar la puesta en marcha de un nuevo entorno regulatorio que no frene esa innovación, pero al mismo que garantice el respecto a los derechos fundamentales y los valores.
Ese es el fin del Reglamento sobre inteligencia artificial que propuso hace unas semanas la Comisión Europea (CE), un conjunto de nuevas normas y medidas con el que Bruselas quiere generar confianza en esta tecnología y potenciar la inversión y la innovación en ella. Un texto que todavía tiene que ser negociado y aprobado tanto por los Gobiernos de la UE como por el Parlamento Europeo.
En este contexto de debate, el Centro de Política Económica de Esade organizó este miércoles un webinar bajo el lema 'Hacia un ecosistema de excelencia en inteligencia artificial fundamentado en la confianza', que contó con la participación de Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial; Cecilia Álvarez, directo de políticas de privacidad para EMEA de Facebook; y Teresa Rodríguez de las Heras, profesora titular de Derecho Mercantil de la Universidad Carlos III de Madrid.
Durante su intervención, Rodríguez de la Heras señaló que hasta ahora se ha producido una adaptación "progresiva y serena" del derecho existente a la tecnología, pero, sin embargo, advirtió de que empieza a percibirse que la "marcadísima aceleración" de la innovación tecnológica podría poner en quiebra algunos de los conceptos actuales.
Entre los aspectos que hacen de la IA algo distintito y disruptivo, y que provocan que sea necesario adaptar la regulación, se encuentran, según Rodríguez de las Heras, su complejidad; su opacidad; su vulnerabilidad; la extraordinaria dependencia de los datos, que son la savia de los sistemas de inteligencia artificial; y su creciente autonomía.
Así, remarcó que todo esto implica dos cosas para el derecho privado: que se difumina la línea marcada desde hace siglos entre cosas y personas, ya que existen máquinas con cierto nivel de autonomía de decisión; y cierto margen de imprevisibilidad. De ahí, que exista la percepción de que estamos ante un punto de inflexión en la regulación de la tecnología.
En este sentido, Artigas remarcó que es el momento de tener estos debates en torno a la regulación de la IA. "Si dejamos que la tecnología se desarrolle sin ningún control, cuando queramos poner esas cortapisas a su robustez, a su trazabilidad, a su seguridad y a su impacto ético o social, no tendremos tiempo para poderlo regular", incidió.
La secretaria de Estado defendió que hay que tener "poco miedo a la tecnología", que tiene "gran capacidad" para mejorar la economía y la calidad de vida de las personas, pero para ello es necesario tomar el control del diseño de los sistemas para evitar consecuencias negativas como que manipulen a los individuos o amplíen los sesgos.
En este contexto, en el que Europa ha comenzado a diseñar su reglamento sobre IA, Artigas remarcó que está "en nuestras manos" diseñar "otra manera de entender la tecnología", una centrada en las personas. Una visión "humanista" de la tecnología que España ha defendido tanto en la UE, como ante la OCDE y el G20 y que ya contempla la Estrategia Nacional de Inteligencia Artificial (ENIA) lanzada el pasado diciembre por el Gobierno.
Reglamento europeo
Respecto a la propuesta europea, Artigas ve positivo que no se regule la tecnología en sí misma, sino sus usos concretos, ya que si se regula ex ante se corre el riesgo de limitar la capacidad de innovación. Así, celebró la apuesta por definir unas reglas claras del juego, que sean "compartidas y que ayuden a generar confianza y certidumbre".
Asimismo, respaldo la creación de los areneros regulatorios, dado que en algo tan innovador como es la IA no es posible saber todo lo que se tiene que regular en la fase actual. Así, remarcó que es necesario crear entornos de prueba y error en los que entre todos se puedan definir las nuevas medidas que sean necesarias.
Por su parte, Rodríguez de las Heras señaló que no existe duda de que existe una "exuberancia regulatoria" en los últimos años en la Unión Europea (UE), que ha optado por posicionarse en el nuevo orden mundial como una "potencia reguladora". Así, incidió en que eso no implica regular mucho, "pero sí bien".
A este respecto, apuntó que la preocupación no está tanto en la cantidad de regulación como en la calidad de la misma y el acierto a la hora de fijar la estrategia. En este sentido, apuntó que uno de los efectos más perversos de la regulación fragmentada es que no sea consistente y remarcó que si se logra una regulación coherente, los riesgos derivados de la cantidad tendrán una importancia menor.
Además, incidió en la importancia de la estrategia para que, por un lado, se promueva la innovación y el juego competitivo del mercado, y, por otro, una innovación basada en valores y principios. "La cantidad no es el problema, sino la calidad y la consistencia de la estrategia regulatoria", insistió.
Por su parte, Álvarez señaló que en Facebook, como industria, apuestan por una regulación que busque la transparencia, la rendición de cuentas y que sea respetuosa con los valores. En este sentido, agregó que debe apoyarse en cuatro grandes patas: que esté basada en principios, que esté basada en el riesgo, que sea flexible y adaptable y que sea "coherente".
Apuesta por la colaboración
En concreto, destacó la atención que ha prestado la CE a los comentarios remitidos en cuanto a los riesgos por la industria y la academia en la consulta pública, algo que no siempre ocurre. Además, celebró que se abogue por crear espacios de prueba o areneros para que la regulación sea fruto de un trabajo conjunto y tener capacidad de "corregir el tiro" cuando sea necesario, dado que existen usos de la IA que todavía no se pueden ni prever.
Así, Álvarez, resaltó que estamos entrando en un mundo tan disruptivo que se necesita un "alto grado de consenso" en torno a la regulación, que debe ser "un trabajo de todos y no de unos contra otros". Además, agregó que esta deber ser innovadora, no solo en cuanto tecnología, sino en la forma en la que se hace política. En su opinión, para que un arenero funcione deber haber incentivos para que sean usados por las industrias.
Asimismo, instó a aprovechar herramientas que ya existen para regular el uso de la IA, ya que no siempre es necesario crear nuevos cuerpos que pueden llevar a duplicar esfuerzos e incluso a generar regulaciones contradictorias. "Se trata de aprovechar lo que tenemos y ver cómo podemos utilizarlo", incidió.
En este sentido, Artigas celebró que el sector tecnológico este colaborando mucho con la Comisión Europea en estos debates, no solo porque afecta al futuro de su negocio, sino también por el cambio de la percepción social, que hace que haya cosas que sean posibles por ley, pero que las personas no toleran.
Así, remarcó que el desarrollo de la IA no va a ser igual en todas las partes del mundo, pero remarcó que el trabajo conjunto que se está desarrollo en Europa hace ver que es posible que la industria se preocupe por la regulación y porque el desarrollo tecnológico tenga coherencia con los valores y los principios.
Respecto a las diferencias en materia de regulación entre las distintas regiones, Álvarez apuntó que, aunque la armonización internacional regulatoria no será posible nunca, la globalización ha permitido que haya más convergencia de la que se piensa. De hecho, aseguró que hay grandes elementos que unen a Europa y Estados Unidos en cuanto a valores y respeto por la ley.
Por ejemplo, apuntó que el scoring social que prohíbe la regulación europea probablemente causa el mismo desasosiego en el Viejo Continente que en Estados Unidos. "Tenemos muchos elementos en común para trabajar en un modelo donde ninguno de los principios mencionados sea extraño a ambos lados del océano. Eso no significa que sea fácil", incidió.