Aunque 2023 pasará a la historia por ser el año en que el mundo comenzó a preocuparse por regular la inteligencia artificial, lo cierto es que entre bambalinas se vienen sucediendo algunos esfuerzos importantes desde hace varios años. La propia Unión Europea dará a luz a finales de este curso su AI Act, fruto de tres años de intenso trabajo. Y muchas de las grandes multinacionales del sector, como Microsoft o Amazon, hace tiempo que crearon sus propios códigos de buena conducta al respecto.
En el caso de los de Redmond, este esfuerzo se materializó en una escala de seis valores intrínsecos a cualquier desarrollo ulterior de la IA: responsabilidad, inclusión, confiabilidad, equidad, transparencia y privacidad-seguridad. ¿Al frente de esta fuerte apuesta por crear una inteligencia artificial que complemente y no disrumpa al ser humano? Brad Smith, presidente y director legal de Microsoft, amén de uno de los pesos pesados del lobby tecnológico en Estados Unidos.
De él cabe esperar los grandes discursos y las fotos de más postín, pero a su vera ha desarrollado un equipo dedicado enteramente a asegurarse de que sus avances en IA -como los más recientes protagonizados por OpenAI y Copilot- cumplan con esos principios de responsabilidad. Nada menos que 350 personas trabajan en estas lides dentro de la casa, de las que un tercio lo hacen a tiempo completo para estos menesteres. Y al frente de todo este despliegue está otra abogada, igual que Smith, y que también proviene de las pugnas por los derechos de autor y la propiedad industrial. ¿Su nombre? Natascha Crampton.
[Entrevista a Brad Smith:"Los gobiernos se están moviendo a diferentes velocidades y direcciones a la hora de regular la tecnología"]
Crampton fue nombrada en 2019 la primera Chief Responsible AI Officer de Microsoft, un cargo de nueva creación que sucedía a su anterior posición en la multinacional, la de líder del Aether Commitee, el grupo de asesores en materia ética para la inteligencia artificial que se gestó en los momentos más incipientes de la actual revolución que vivimos. Con una dilatada carrera no sólo en la compañía tecnológica, sino también en firmas legales de Australia y Nueva Zelanda, su perfil responde al de aquella persona que está llamada a marcar los límites que eviten derivas de difícil retorno en el desarrollo de una tecnología tan prometedora como de impacto desconocido como es la IA.
"Lo primero que debemos hacer es reconocer que la inteligencia artificial debe ser por y para las personas. Y ello nos lleva obligatoriamente a tomar decisiones sobre cómo se comportan los sistemas. La innovación y la regulación deben avanzar juntas en este camino", explica Crampton a D+I - EL ESPAÑOL durante la conferencia Ignite 2023, celebrada en Seattle (Estados Unidos).
Un progreso que, como adelantábamos, se ha acelerado en los últimos meses al calor del ruido que OpenAI ha generado a nivel social en todo el globo. "Había gente de mi propia familia que no sabía muy bien a qué me dedicaba hasta que nació ChatGPT", reconoce Crampton. Su trabajo, empero, es sencillo de explicar, más complicado de ejecutar: "Busco repensar todos los procesos y la mentalidad de los equipos de trabajo para asegurarnos que todos los desarrollos en IA sean responsables por diseño. Lo hago gracias a una combinación de expertos técnicos, antropólogos y sociólogos".
Sin nada en que inspirarse
No es una aspiración, como decimos, de nuevo cuño o que surja por alineación con la moda actual. La propia Natascha Crampton tira de memoria: "Empezamos a tejer nuestros principios de inteligencia artificial responsable hace siete años, combinando los valores que ya veníamos impulsando en privacidad, accesibilidad y seguridad. Cuando comenzamos a hacerlo, a crear los estándares globales para la IA, apenas había regulación específica sobre el tema en la que inspirarnos, a diferencia del GDPR que abrió el camino en materia de privacidad".
Celebra, como es lógico, el paso adelante de gobiernos de todo el mundo por sentar unas bases comunes y un marco que delimite las actuaciones aceptables en este incipiente terreno. Sin embargo, reivindica el papel que la industria tecnológica ha jugado y sigue jugando para autorregularse en este sentido.
"Antes de 2023 tan sólo había algunos esfuerzos notables por regular la IA en Europa, pero nada más. Ahora, este asunto ha explotado y se ha hecho urgente ofrecer confianza en esta tecnología de cara a la sociedad. Desde la industria ya hemos dado lo mejor de nosotros mismos, creando nuestros propios estándares. Lo que toca en este momento es construir una segunda capa regulatoria, por parte de los países y regiones, antes de encarar un tercer nivel que sería la gobernanza global de la inteligencia artificial", indica la directiva.
Sorprende el buen grado con que acepta una compañía del tamaño y relevancia de Microsoft la imposición de prohibiciones expresas a posibles vías de negocio fruto de la disrupción que aún está en pañales. Pero Natascha Crampton lo entiende de manera diferente: "La innovación se sigue produciendo incluso en sectores que ya están regulados. En última instancia, la incertidumbre sólo se produce o cuando no hay normas o cuando se aplican de forma desproporcionada. Nosotros tenemos la experiencia real en operacionalizar la inteligencia artificial y es sobre esa base con la que hablamos con los gobiernos sobre las futuras leyes".
Las diferentes dimensiones de la transparencia
Son muchos los debates acerca de uno de los puntos fundamentales de los principios de Microsoft, de la futura ley europea y de cualquier regulación que se precie al respecto: la transparencia de los algoritmos y modelos usados. No siempre es posible conocer el proceso completo que ha derivado en una respuesta específica o sobre qué datos se ha fundamentado en un momento determinado. Las conocidas como black boxes son tan conocidas como temidas.
Crampton no elude este aspecto, aunque abre la conversación a nuevas perspectivas: "Hay muchas discusiones abiertas sobre cómo funcionan estos modelos, pero hay diferentes enfoques para entender la transparencia. Cuando construimos un bloque base informamos a los usuarios de sus capacidades, pero también de sus limitaciones. También identificamos cualquier contenido creado o generado con IA para evitar los deep fake. Y procuramos que cuando un sistema de IA toma decisiones sobre oportunidades personales o laborales de alguien, la persona afectada tenga el derecho de responder o contraponer el resultado ofrecido por el sistema".
A sumar la propuesta completa de la enseña para mitigar los posibles efectos indeseados de la tecnología, "desde herramientas tecnológicas a formación y compartición de mejores prácticas, seguridad integrada en nuestras bases técnicas y líderes de equipos a los que se les exige responsabilidades sobre su trabajo en inteligencia artificial", sentencia Natascha Crampton.