A finales de abril, la Comisión Europea presentó su borrador de reglamento sobre inteligencia artificial responsable. Se trataba de un documento pionero en tanto que busca fijar los estándares internacionales en este sector, como ya hizo Europa en materia de protección de datos.
Este documento está sirviendo no sólo como objeto de trabajo para muchos juristas, tecnólogos y humanistas del Viejo Continente, sino que también ha elevado este tema a la primera plana del debate público en el sector digital.
¿Cómo podemos conciliar los intereses de la industria y los avances en IA con el uso ético de estos algoritmos? ¿Cómo evitar que sirvan para amplificar los actuales problemas sociales que arrastramos en todo el mundo?
A estas y otras preguntas trataron de dar respuesta dos investigadores de la Universidad Carlos III de Madrid: Teresa Rodríguez de las Heras, experta del grupo de investigación SOCITEC, y Jose Manuel Molina, del grupo de Inteligencia Artificial Aplicada (GIAA).
¿El marco? La puesta de largo de los retos planteados por la UC3M en materia de innovación, acontecida durante la quinta edición del Digital Enterprise Show (DES).
Para Rodríguez de las Heras, el documento tiene la oportunidad de “sentar unas bases sobre las que asentar la innovación en este terreno. Es normal que se vea la regulación como un límite o freno a la innovación, pero al final ayuda a establecer una seguridad jurídica para toda la industria”. Con objetivos, en opinión de la investigadora, bastante claros: “Al final se trata de evitar que los avances tecnológicos continúen perpetuando los estereotipos, amplificando la desinformación o expandiendo la manipulación social”.
Al respecto, la experta defendió los buenos propósitos del reglamento, especialmente en su parcela de armonizar y complementar otras normas en desarrollo (como las cartas de derechos digitales) para crear las reglas de juego de la era digital.
Por su parte, Jose Manuel Molina coincidió con el diagnóstico positivo de su compañera, pero criticó la excesiva ambigüedad que presenta el documento europeo. “Entiendo que lo han hecho así para intentar abarcar lo máximo posible y que sea algo que siga los avances que se produzcan en este sector. Pero hay algunas definiciones excesivamente amplias, como la propia de lo que se considera inteligencia artificial. No queda demasiado claro”.
No le falta razón al investigador. Según el borrador del reglamento, se considerarán como un sistema de inteligencia artificial desde acepciones claras y lógicas (machine learning, aprendizaje profundo) hasta los métodos bayesianos, los "sistemas expertos" o "bases de conocimiento".
Añade Molina que la propuesta de la Comisión Europea tampoco es plausible para muchas de las empresas que usan hoy en día muchas de estas soluciones. “Al final, muchos de los sistemas que se han desarrollado hasta ahora han sufrido tantas modificaciones y personalizaciones que es complicado explicar exactamente cómo funcionan”, explicó.
Oportunidad para Europa... y España
Como nota positiva, los dos investigadores de la UC3M señalan la oportunidad que este reglamento abre para países como España que, en palabras de Teresa Rodríguez de las Heras, “ha sido pionero en la creación de muchos de estos documentos y en mostrar interés por asegurar la responsabilidad y la ética en el uso de la inteligencia artificial”.
Un posicionamiento que, afirman ambos, podría ser el “elemento diferenciador” que ayude a España y a Europa a competir en el mercado global de la IA, ante el empuje de China o EE.UU.