Ametic pedirá al nuevo Gobierno una agencia para regular la inteligencia artificial
En un evento del Parque Científico de la UC3M, los expertos abogan por un ente para controlar el desarrollo de esta tecnología similar a la agencia de protección de datos
18 noviembre, 2019 16:07"Conviene regular en inteligencia artificial y esa es la función de Ametic", una de las patrones del sector TIC. Esto es lo que afirma, en el VI encuentro Inteligencia artificial y ética en la Universidad Carlos III de Madrid, Enrique Serrano, vicepresidente de la Comisión de Inteligencia Artificial y Big Data de Ametic, CEO de Tinámica y presidente y CEO de EMBIT School, al tiempo que asegura que la patronal pedirá al nuevo Gobierno la creación de agencia de inteligencia artificial como la que ya existe para Protección de Datos.
Determinados algortimos, por ejemplo en el sector fintech, por regulación han de ser transparentes, explica Serrano. "Habrá algunos algoritmos que seguirán siendo privados, pero la tendencia es hacia el open source y esa tendencia está permitiendo multiplicadores de uso".
El responsable de Ametic subraya que al menos un 20% de los proyectos inteligencia artificial no llegan a lanzarse porque aún exiten reticencias. Sin embargo, incide en que hay determinadas empresas e industrias que si no usan la IA van a desaparecer. "Lo bueno es que es fácil estar al día mediante cursos gratuitos, repositorios abiertos, etc.".
En este sentido, Fernando Broncano, catedrático de Lógica y Filosofía de la Ciencia UC3M, y responsable del grupo de investigación HERMES (Investigación Científica en sus Aspectos Históricos, Filosóficos y Literarios) de esta universidad, asegura que los seres humanos "estamos llenos de sesgos" pero, "sorprendentemente, la IA es muy parecida a nosotros en eso y no solo tiene nuestros sesgos sino que los amplifica".
Broncano enumera así desde problemas técnicos hasta legales o sociales sobre cómo implementamos la investigación. "Hay reivindicaciones de recuperar la vieja IA que era más simple y conocías sus razones".
Otra línea a considerar, detalla, es que "la IA debe ser regulada ahora como pasó con la industria farmaéutica en el siglo pasado, que tenía campo abierto y hemos aprendido que eso no estaba bien". "A nadie ahora se le ocurre [ni es legal] comercializar un medicamento sin los controles necesarios".
En este sentido, apoya la propuesta de "la necesidad de crear agencias de control de la inteligencia artificial" porque, de este modo, "se rebajará la presión para las empresas y facilitará protocolos".
Amenazas y debilidades de la IA
La investigadora Ana Belén Muñoz, involucrada en el Proyecto Nacional Cambio tecnológico y transformación en las fuentes laborales: Ley y Convenio Colectivo ante la Disrupción Digital de la UC3M, y subdirectora del Máster Universitario en Prevención de Riesgos Laborales de la UC3M y de la Revista Spanish Labour Law and Employment Relations Journal, apunta que si se realizará un DAFO "evidentemente tiene ventajas de prescindir de trabajos repetitivos". En concreto, entre las amenazas y debilidades destaca como "primer riesgo la pérdida de empleo y afectación de todo tipo de trabajadores, cualificados y no cualificados".
En opinión de Muñoz, "van a modificarse también los descansos de trabajo donde los trabajadores tienen que adaptarlos al proceso productivo de las máquinas". Y así recuerda el caso de una trabajadora en Canarias a la que han despedido por contar con una máquina que hace su trabajo, pero sin descansos ni pausas: la sentencia dice que el despido es improcedente, atendiendo al marco regulatorio actual que no tiene en cuenta el cambio tecnológico. No es causa legal el que haya mayor beneficio económico.
Más debilidades o problemas los encontramos en la privacidad del trabajador, puntualiza la investigadora de la UC3M. "La empresa, en todo momento, está recabando nuestros datos. Nos está controlando. Este es el tema estrella del RGPD y hay otros reglamentos al respecto". El problema, asevera Muñoz, llega cuando "se reutilizan esos datos de carácter personal . Necesitaríamos puentes de transición entre diferentes reglamentos".
Por otra parte. señala que son necesarios controles en áreas como la biometría y el reconocimiento facial, que son una ventaja para la empresa, pero al mismo tiempo una intromisión para el trabajador. También es necesario aclarar quién responde cuando se dan accidentes de trabajo relacionados con el uso de máquinas inteligentes.
Para Nerea Luis, ingeniera de IA en Sngular y fundadora del evento T3chFest, Premmio Women Techmaker de Google y experta en Talento Tecnología y Género de la Fundación COTEC, "es imprescindible la diversidad en los equipos en empresas y no solo tiene que ser forzosamente diversidad entre desarrolladores/as e ingenieros/as. Hay que hacer un esfuerzo en este sentido y cuidar los sets de datos para evitar la perpetuación de los sesgos".
Por último, Pablo de Manuel Triantafilo, director Ejecutivo de Capital Certainty, startup apoyada por la UC3M en su Parque Científico, especializada en inteligencia artificial y tecnologías web interactivas, considera que se está yendo hacia atrás en reducción de pobreza por visiones pesimistas que reproduce la inteligencia artificial.
"Es una pena porque Europa puede perder [en la carrera de la IA]", lamenta De Manuel. "Debemos empujar para asegurar un nivel competitivo mínimo. El buenismo habría que llevarlo a la política y a la toma de decisiones en un entorno competitivo".
Por una IA más justa y robusta
En la ponencia magistral, Isabel Valera, líder del Grupo de Investigación de Aprendizaje Probabilístico en el Max Planck Institute for Intelligent Systems en Tübingen (Alemania), trabaja por conseguir una inteligencia artigicial "más justa (en el sentido de que no discrimine), robusta e interpretable".
Una de las claves está en cuestionarse cómo hacer la recolección de datos, qué información sensible es la que realmente se necesita. "Los sets de datos son clave y a veces implica renunciar a toda la información que has recopilado y empezar desde cero".
Por ello, Valera apuesta por incluir aleatoriedad en los algoritmos, así como por tener en cuenta las dependencias causales entre artibutos. Hay que elegir entre una estrategia de verificación para asegurar que el algoritmo se comporta de forma esperada y es robusto, o entre una de validación para entender las decisiones particulares para garantizar que se ha construido un sistema apropiado.
Valera señala que hay dos vías: transparencia (saber cómo un algoritmo funciona en términos generales, pasar de caja negra a caja blanca) y explicabilidad (explicar las decisiones, predicciones o resultados del algoritmo). Y así concluye que cualquier problema ético no surge de uno de los pasos sino del sistema completo. "Hay que cuestionar cada parte en el proceso y el todo de forma holística".