El uso responsable de la inteligencia artificial en las organizaciones y empresas ofrece retos, pero también oportunidades para crecer –a la par que en eficiencia– en valores. Una de las mayores oportunidades que nos brinda la IA es que nos invita a reflexionar sobre cuál es el tablero de juego ético que en el que queremos movernos y de qué límites no estamos dispuestos a salir.
Son pocas las empresas que a estas alturas no están incorporando la IA en sus procesos, ya sea en los relacionados con las tareas propias de su core empresarial o en tareas más laterales como la gestión, el marketing o la logística. Se da por asumido que su aportación en la automatización de actividades, el análisis de datos o la personalización de servicios puede marcar la diferencia en términos competitivos, y esta asunción le ha abierto las puertas.
En algunas de estas empresas, las más conocedoras de la tecnología y las más preocupadas por actuar de manera responsable, ya se ha abierto el debate sobre cómo gestionar los riesgos que la IA comporta. Riesgos relacionados con los sesgos de los algoritmos, riesgos relacionados con no conocer cómo funcionan exactamente, riesgos relacionados con el mal uso de la propiedad intelectual o la privacidad de los datos, riesgos derivados de su capacidad de manipular, por citar los más conocidos.
Durante los últimos meses hemos conocido casos de algoritmos de selección de personal que dejaban fuera de las short lists a mujeres, personas de color o vecinos de determinados códigos postales; documentos judiciales generados por IA convincentes, pero basados en jurisprudencia inventada; fugas de datos confidenciales a través de softwares generativos, o fakes, en forma de voz, imagen o vídeo que transgreden derechos al honor o a la propia imagen, entre otros muchos “daños colaterales”. Si su potencial de portar eficiencia es enorme, también lo es su capacidad de generar resultados que nos puedan llevar a errores, injusticias e incluso delitos.
Dejamos de lado el debate sobre futuros distópicos creados por grandes sistemas en manos malvadas. Seríamos unos ingenuos si despreciáramos la capacidad humana para utilizar esta o cualquier otra tecnología con malos propósitos, pero cuando hablamos del uso responsable de la IA en nuestras organizaciones, nos limitamos a gestionar solamente aquello que depende de nosotros. Y en este contexto, el uso responsable debe partir de la base de que la IA es una herramienta muy potente, pero que no debemos caer en la tentación de dejar decisiones sensibles en sus manos y pretender que no somos responsabilizarnos de ellas.
La regulación legislativa, que se derivará de la aprobación de la IA Act por parte del Parlamento Europeo el pasado mes de abril, no está dotada de la concreción suficiente para orientar a las empresas en toda la amplitud de su relación con la IA. Aporta elementos interesantes, como establecer líneas rojas, señalar prácticas de especial criticidad y marcar obligaciones de transparencia. Pero no entra en detalles que, de existir, quedarían superados en cualquier momento por la constante evolución de los acontecimientos.
El camino para las empresas y organizaciones que quieran asegurarse un uso responsable de la IA es la autorregulación y, dado que esta tecnología puede ofrecernos nuevas aplicaciones en cualquier momento, tampoco es aconsejable entrar en guías muy detalladas que indiquen qué hacer en cada caso de posible uso.
El sistema que la propia Comisión Europea recomienda,, y que se está comenzando a implementar en algunas organizaciones, es establecer unos principios básicos a partir de los cuales delimitar el marco de juego en el que la empresa quiere mantener su actividad. Establecer los límites de la IA. Por una parte, permite crear un debate interno sobre cuáles son los límites que no queremos traspasar y, por otra, hay plantillas ávidas de información y de pautas sobre cómo utilizar la IA, a la espera de interlocución.
En nuestro caso, después de mucho debatir y consultar, se han establecido cuatro principios fundamentales que señalan el terreno por donde queremos transitar. Dos tienen que ver con la tecnología: por una parte, debemos conocer la herramienta que utilizamos y saber explicarla, y por la otra, siempre debe haber una persona responsable de los resultados del proceso que se haga con IA.
Los otros dos principios tienen que ver con las obligaciones fundamentales de la profesión: las misiones de comunicación de servicio público (veracidad, neutralidad, calidad, pluralismo, etc.), marcadas por las leyes y el libro de estilo, y los derechos de los ciudadanos (derechos de autor, de imagen, al honor, a la intimidad, a la privacidad de datos de los usuarios, derechos de la infancia, etc.).
La garantía que el uso de la IA se haga conforme con estos principios provendrá de analizar los diferentes casos en lo que se quiera utilizar y comprobar si hay riesgo de vulnerar alguno de ellos. En caso de haberlo, lo correcto será llevar a cabo las acciones necesarias para mitigarlo o desestimar la propuesta.
Al final, poco más que utilizar el sentido común y recordar cuáles son los valores y los principios en los que se quiere mantener la empresa u organización. Volver a las raíces y establecer los límites de la IA en aquello que depende de nosotros. Basándonos en nuestros propios límites y aprovechando la llegada de la IA para volver a reflexionar sobre ellos.
*** Gemma Ribas Maspoch es consejera del Consejo de Gobierno de la Corporación Catalana de Medios Audiovisuales (CCMA)