La autorregulación, el camino hacia el desarrollo ético de la IA
Con cada avance tecnológico surgen nuevos desafíos éticos, como ocurrió con innovaciones anteriores como la energía nuclear, la tecnología de vigilancia o la edición genética CRISPR. La inteligencia artificial (IA) no es una excepción, y su introducción en la sociedad parece ser más rápida. Esto se evidencia en las tasas de adopción sin precedentes de plataformas como ChatGPT que alcanzó los 100 millones de usuarios en tan solo dos meses. Para hacernos una idea de su velocidad de adopción, Twitter (actual X) tardó cinco años en lograr ese mismo hito.
Un buen ejemplo del estado en el que nos encontramos es el proyecto llamado Strawberry que, según Reuters, OpenAI está desarrollando para dotar a los modelos de IA con capacidades de razonamiento humano, siendo capaz de, no solo generar respuestas, sino también navegar de manera autónoma por internet para realizar investigaciones complejas.
La posibilidad de que la IA alcance un nivel de estas dimensiones ha desencadenado tal revuelo que el líder de la compañía, Sam Altman, ha cofundado un Consejo de Ética de la IA para abordar todas las cuestiones relativas al despliegue de la inteligencia artificial.
Esta problemática se extiende también a aquellas compañías que incorporan la IA en sus procesos operativos para ganar eficiencia y ahorrar costes, quienes también carecen de un marco normativo claro para hacerlo de forma responsable.
Ante esta encrucijada, el tejido empresarial ha comenzado a autorregularse, adelantándose así a los organismos legisladores y estableciendo sus propios principios éticos para garantizar un desarrollo, despliegue y uso correcto de la IA. Este enfoque proactivo está permitiendo a las compañías fijar una hoja de ruta clara para adaptarse rápidamente a un entorno en constante cambio y protegerse de posibles repercusiones legales y reputacionales.
Las organizaciones están centrando sus esfuerzos en promover principios como la transparencia, la responsabilidad, la equidad y la privacidad en los modelos de IA.
A nivel global, se han desarrollado más de 200 directrices con estos y otros principios para guiar a organizaciones y ayudar a los gobiernos en la creación de leyes de IA. En Europa, estos documentos solían ser creados principalmente por instituciones gubernamentales, seguidas de corporaciones privadas y organizaciones sin ánimo de lucro. Sin embargo, esta tendencia está cambiando. Las compañías europeas, al ver que todavía no existe un marco normativo definido, se están adelantando a los reguladores al plantear sus propios principios éticos.
Pero no basta con eso, el gran desafío para las empresas es aplicar estos principios en situaciones del día a día y asegurar que se lleven a cabo cambios internos reales que generen un impacto tangible. Al tratarse de conceptos tan amplios, a menudo resultan difíciles de interpretar y aplicar en situaciones específicas, especialmente cuando no existen precedentes claros o casos similares en los que basarse para orientar su implementación.
El 75% de las empresas incorpora la ética en su propósito, pero solo un 26% la integra en la toma de decisiones, según un estudio de la Asociación Española de Directivos de Responsabilidad Social. Para evitar que este ethic washing se extienda también al ámbito de la IA, las compañías deben estar asesoradas por organizaciones externas especializadas en materias de capacitación y regulación que guíen sus pasos.
Sin duda, la autorregulación de las organizaciones en el ámbito de la inteligencia artificial no solo es necesaria, sino también beneficiosa. El hecho de que las organizaciones consideren los principios de IA ya puede iniciar debates importantes. Por ejemplo, si una organización considera establecer el principio de "responsabilidad y rendición de cuentas" puede llevar a considerar cuestiones de responsabilidad, como quién debe ser responsable cuando una decisión de un sistema de IA tiene un impacto negativo. Esto es particularmente relevante en escenarios como accidentes de vehículos autónomos o en el de sesgos algorítmicos en la aprobación de préstamos.
El enfoque que estamos viendo permite a las empresas adaptarse rápidamente, protegerse legalmente y fomentar un compromiso profundo con un desarrollo tecnológico responsable. Además, esta autorregulación puede influir positivamente en los reguladores, fomentando la creación de leyes más efectivas y alineadas con las mejores prácticas empresariales. Todo ello, a la vez que genera un ecosistema más maduro y confiable que facilita la adopción de la IA, respondiendo a las necesidades reales de las compañías y beneficiando a la sociedad en su conjunto.
***Jose Manuel Mateu de Ros es CEO y fundador de Zertia.