Es la gran oportunidad para gobiernos, empresas y ciudadanos de todo el mundo durante los próximos años. La irrupción de la IA, especialmente la generativa, ha cambiado para siempre las reglas del juego. En la creación de contenidos, sí, pero también en el ámbito laboral y productivo, en la gestión de la información en una sociedad global hipertecnificada o en la ciberseguridad. Por eso, la cuestión de cómo desarrollar y aplicar esta tecnología de manera responsable ha cobrado una relevancia crucial. Y Microsoft ha asumido un rol pionero en garantizar que el desarrollo y despliegue de la IA tenga lugar garantizando la seguridad y la responsabilidad.
El compromiso de Microsoft con una IA responsable
En junio de 2023, Microsoft anunció su compromiso de desarrollar una IA responsable, poniendo el foco en siete principios clave: seguridad, privacidad, fiabilidad, equidad, inclusión, transparencia y responsabilidad. Según Brad Smith, presidente de la compañía, esto pasa por la regulación de la IA, pero, sobre todo, por el diálogo entre la industria tecnológica, los gobiernos, las empresas, el mundo académico y las organizaciones de la sociedad civil: “Nadie tiene todas las respuestas, y es importante que escuchemos, aprendamos y colaboremos. […] Juntos podemos ayudar a hacer realidad el potencial de la IA como fuerza positiva para el bien común”
Un diálogo que va más allá de los proyectos colaborativos convencionales. Por ejemplo, en Microsoft existe un grupo de trabajo dedicado exclusivamente a pensar en el plano responsable de la IA. Conformado por todo tipo de perfiles (desde científicos y técnicos hasta personas vinculadas al ámbito académico), este equipo se reúne periódicamente para poder plantearse preguntas en común, por muy complejas que sean, y debatir posibles respuestas a los grandes retos que supone crear una IA responsable.
En cualquier caso, para Microsoft el camino para dotar a la IA de un marco ético responsable empieza en la propia organización. Por eso, la compañía ha establecido una hoja de ruta clara, que incluye medidas como la auditoría constante de algoritmos para evitar sesgos, la creación de equipos interdisciplinares para evaluar los impactos de la IA en diferentes sectores y la implementación de políticas internas para regular el uso de la tecnología dentro de la empresa.
IA y seguridad: el enfoque de los Red Teams
Pero para abordar el problema, lo principal es entender qué retos concretos supone potencialmente la IA. Por eso, una de las prioridades de Microsoft es garantizar su seguridad en un entorno donde las ciberamenazas están en constante evolución. Para abordar esta problemática, Microsoft ha puesto en marcha los Red Teams, equipos especializados que simulan ataques a los sistemas de Inteligencia Artificial con el fin de identificar vulnerabilidades y mejorar la seguridad.
La idea es pensar y actuar como lo haría un hacker para detectar posibles fallos en los algoritmos y sistemas de IA, permitiendo a la compañía adelantarse a posibles ataques y garantizar la integridad de los datos. Según el propio Smith, “debemos estar preparados para los desafíos que plantea la IA, no solo desde el punto de vista técnico, sino también desde una perspectiva ética y de seguridad”.
La IA como motor de innovación responsable
El caso de Microsoft demuestra que es posible desarrollar tecnologías avanzadas mientras se mantiene un fuerte compromiso con la responsabilidad social. Un ejemplo claro de esto es la creación de un Centro de Innovación en IA Responsable en España (Responsible AI Innovation Center -RAIIC), donde la compañía está ayudando a empresas y entidades públicas a desplegar proyectos de IA de manera segura y alineados con las regulaciones y principios éticos. A través del RAIIC, Microsoft pone a disposición de las empresas involucradas un acceso a su plataforma, con materiales e información estratégica sobre los avances en tecnologías y soluciones de Microsoft basadas en IA Responsable. Además, pueden acceder a formación y certificación en las tecnologías de IA de la compañía.
Por eso mismo, la transparencia es otro de los pilares fundamentales en la estrategia de Microsoft para el desarrollo de la IA. En los últimos años, la compañía ha redoblado sus esfuerzos para garantizar que los sistemas de IA sean comprensibles y accesibles para todos los usuarios. Un ejemplo de esto es su participación activa en la lucha contra los deepfakes, una de las mayores amenazas de la era digital.
Para combatir esta problemática, Microsoft ha desarrollado herramientas que permiten detectar vídeos falsos generados por IA, lo que no solo ayuda a preservar la veracidad de la información, sino también a proteger a las personas de posibles manipulaciones malintencionadas. "Las repercusiones de los deepfakes pueden ser gravísimas. Son una forma de hackeo cognitivo que cambia la relación con la realidad y la manera en que pensamos sobre el mundo”, tal y como afirma Andrew Jenks, investigador de Microsoft Research.
La medición de una IA cada vez más ‘humana’
Pero, ¿realmente la IA puede tener consecuencias tan profundas en los individuos y las sociedades? Desde Microsoft se han hecho ésta y otras preguntas relacionadas, llegando a la conclusión de que la única forma de saberlo con certeza es la medición. Y su conclusión es más que clara: es fundamental monitorear el impacto de la IA en tiempo real para asegurar que se mantenga en el camino correcto. En este sentido, la gran ventaja esta medición sistemática es que permite detectar posibles desviaciones en el uso de la tecnología y ajustarla para que siga siendo ética y segura.
En un artículo reciente, Microsoft subrayaba la importancia de establecer métricas claras para evaluar cómo los sistemas de IA están afectando a las personas y a las empresas, con el fin de evitar consecuencias indeseadas. Esto es razonablemente sencillo de hacer en sectores que utilizan datos cuantificables, como el de la salud o las finanzas. Pero, ¿qué ocurre cuando tenemos que medir lo que la IA genera en términos cualitativos? ¿Puede una IA entender realmente conceptos humanos difusos, como la equidad o la seguridad psicológica?
Para Hanna Wallach, investigadora de Microsoft especializada en los grandes modelos de lenguaje (LLMs) que interactúan con las personas, el nuevo enfoque pasa por la definición y evaluación de los riesgos de la IA y asegurar que las soluciones sean efectivas. Para ello, ahora examina tanto los elementos sociales como los técnicos de la forma en que la tecnología de IA generativa se comunica. Esto lo hace mucho más complejo, pero también más crítico a la hora de ayudar a mantener la IA segura para todos. “Gran parte de lo que hace mi equipo es averiguar cómo utilizar estas ideas de las ciencias sociales en el contexto de la IA responsable. No es posible entender los aspectos técnicos de la IA sin entender los sociales, y viceversa".