Emilia Gómez: “Hay un Eurovisión de canciones compuestas por inteligencia artificial"
La directora del proyecto HUMAINT y una de las 45 mujeres referentes para las jóvenes, estudia el impacto de la inteligencia artificial en las personas.
27 julio, 2022 02:46Me encuentro con Emilia Gómez (Sevilla, 1975) en el Centro Común de Investigación conocido como el JRC por sus siglas en inglés. Tiene seis sedes en Europa, estoy en la de Sevilla. Unos 400 investigadores dan asesoramiento científico a la UE en distintos ámbitos. Emilia Gómez estudia el impacto económico y social de la inteligencia artificial.
[Esta inteligencia artificial ha logrado la mayor tasa de éxito para detectar el cáncer de mama]
A Emilia Gómez no le tienta trabajar para las grandes tecnológicas. Tiene vocación de servicio público: “Somos una fuente interna de asesoramiento de la Comisión, independiente de la academia y de la industria. Lo llamamos independent support, porque no tenemos más interés que ayudar”.
Ingeniera de 'teleco' por la Universidad de Sevilla, fue la única doctora de su promoción de Ciencias de la Computación en la Universidad Pompeu Fabra. Ha sido también la primera mujer presidenta de ISMIR (International Society for Music Information Retrieval), la sociedad más relevante en el ámbito de la recuperación de información musical. Y fue una de las 45 mujeres que, en 2020, fue elegida por la UE como referente para las jóvenes.
PREGUNTA: ¿Qué es la IA (Inteligencia Artificial)?
RESPUESTA: Es una serie de tecnologías o herramientas que intentan emular la inteligencia humana. La IA es un sistema, un ordenador, o de manera abstracta, un algoritmo que imita determinadas tareas. No todo lo que se automatiza es IA. Por ejemplo, un interruptor de aire acondicionado que se enciende a determinada temperatura no lo considero inteligente.
¿Qué margen de error y acierto tiene la IA?
El margen de error no se puede saber a ciencia cierta, depende de la situación. La IA para tareas muy controladas y definidas puede tener un margen de error muy pequeño. Por ejemplo, en el reconocimiento de voz: si la voz es clara, tiene buena pronunciación y está grabada en un entorno controlado, no tiene gran margen de error. Pero puede tenerlo en un entorno con ruido y con una persona que no pronuncie bien.
Usted dirige el proyecto HUMAINT del JRC, ¿en qué consiste?
HUMAINT significa “Human Machine Intelligence”. Yo coordino un equipo de investigadores en diferentes áreas: economía, ingeniería y psicología cognitiva. Estudiamos cuál es el impacto de la IA en el comportamiento de las personas, en la toma de decisión y en el desarrollo cognitivo y socioemocional.
Intentamos hacer metodología para evaluar estos sistemas, de manera que se aprovechen las oportunidades y se minimicen los riesgos. Ponemos la etiqueta IA fiable o confiable a sistemas cuyos riesgos han sido analizados y han intentado minimizarse a través de una serie de test o procedimientos.
¿Cuáles son los riesgos principales?
Uno del que se ha hablado mucho es el riesgo del sesgo o de la discriminación. Si tú entrenas y pruebas un sistema en un determinado contexto, por ejemplo, en Sevilla con voces andaluzas, luego cuando el sistema se ponga en explotación en otro contexto, por ejemplo, en Chile, igual tiene errores.
Se que ese sistema “discrimina” porque no entiende el acento de Chile, pero se trata de un error de diseño. No se ha considerado el contexto donde se iba a utilizar.
Si este sistema se utiliza en algunos contextos que la UE llama de alto riesgo, por ejemplo, el acceso a un trabajo, se podría generar un problema de derechos fundamentales por discriminación. Otro riesgo es que las personas tengan excesiva confianza en un sistema y no cuestionen lo que recomienda la máquina.
Como seguir a ciegas las indicaciones de Google Maps…
Sí, aunque haya una pared, como me está indicando que vaya por ahí, voy. Eso se llama y se considera un exceso de confianza.
¿Cómo se minimiza?
Hay que informar a los que vayan a utilizar el sistema de que éste puede fallar en ciertas ocasiones.
Los algoritmos de la IA se basan en unos datos que llaman ground truth. Según se elijan unos datos u otros, ya hay sesgo.
Claro. Colaboro con un estudiante de doctorado en la Universidad Pompeu Fabra que trabaja con emociones y música. El etiquetado de emociones es muy subjetivo. Si coges el ground truth y me preguntas si esta canción es alegre o triste, el sistema está aprendiendo de mi opinión. Decimos que no existe ground truth. Se tiene que hacer modelos por consenso o personalizados. Por eso es tan importante la psicología en la IA, porque estamos intentando entender la inteligencia humana para complementarla con los algoritmos.
Y lo que no se incluya en el ground truth o en los algoritmos, ¿no existe? Por ejemplo, ¿los idiomas que no se integren en el sistema es como si dejaran de existir?
En el caso de los idiomas es muy claro. Hay muchas tecnologías y bases de datos que se han hecho para el inglés. En España, la ENIA (Estrategia Nacional para la Inteligencia Artificial) tiene el Plan de Impulso de las Tecnologías del Lenguaje para potenciar que el español esté muy presente en la IA.
¿Qué oportunidades tiene la IA?
Muchas más que riesgos. Son tecnologías que permiten dar un soporte a las personas, optimizar los recursos, automatizar muchos procesos repetitivos... En educación, en medicina... permiten mejorar y personalizar los tratamientos. La IA puede ayudar en todos los ámbitos. Es como internet, son tecnologías que se llaman de 'propósito general'.
Más que trabajos, se van a sustituir tareas. Por ejemplo, no se sustituirá al radiólogo, pero éste tendrá que aprender a utilizar la herramienta radiológica.
¿Cuáles son los retos?
El reto es evaluar bien estos sistemas. A veces se han puesto en el mercado sin estar regulados. Por eso, la UE ha propuesto una ley de IA. Ahora mismo está en negociación con los colegisladores, el Consejo y el Parlamento. La propuesta se basa en riesgos. No en todos los casos hay que regular la IA, sólo en los contextos que tienen alto riesgo. Es como los juguetes, hay un sello europeo que dice: estos juguetes son seguros.
¿Qué trabajos va a sustituir la IA?
En un estudio que hemos hecho en colaboración con la Universidad Politécnica de Valencia, hemos visto que más que trabajos va a sustituir tareas. Por ejemplo, no sustituirá al radiólogo, pero éste tendrá que aprender a utilizar la herramienta radiológica. La Unión Europea considera fundamentales las competencias digitales, incluida la de IA.
El cambio de analógico a digital es tan enorme que hay gente mayor, y no tanto, que se encuentra perdida.
Sí, hay mucha preocupación por que las personas puedan adaptarse a este tipo de tecnologías. Por eso, los planes de competencias digitales no solo se refieren a los niños, sino a todos. No debe haber una brecha de edad ni de género.
¿Podrán los robots de IA dominar la tierra?
Eso depende de los humanos. Se crea un temor hacia este tipo de tecnologías, y más daño hacen otras cosas…
¿Qué es la 'inteligencia artificial general'?
La IA, como te he dicho antes, se focaliza en tareas concretas. La IA general puede hacer muchísimas tareas, como una persona. Si nos preocupamos por eso, no vamos a ver los problemas que tenemos ahora con estas tecnologías. Por ejemplo, cómo se utilizan las redes sociales. Su impacto es enorme.
En Europa tenemos dos proyectos de regulación muy importantes, la ley de IA y la de Servicios Digitales, que están dirigidas a redes sociales, a las plataformas. Uno de los objetivos es que las empresas actúen de manera responsable, analizando los riesgos que tienen los productos que ponen en el mercado.
Otro proyecto que dirige usted es el AI Watch
Pertenece a la misma unidad que HUMAINT, pero AI Watch estudia más que los riesgos, las oportunidades y el ecosistema de IA en Europa: el impacto económico, la inversión de los países europeos en IA, cómo ha influido en el ecosistema, cuántas empresas se han creado, cuántas patentes, cuántos artículos se han publicado…
¿Y España cómo va en IA?
La estrategia española está muy bien conectada con la europea. Todos los países han tenido que participar en un plan coordinado. Parte de los fondos de recuperación se han dedicado a la transición digital y ecológica. La ENIA tiene una parte de competencias digitales y otra para generar proyectos tractores o relevantes. Además, el gobierno ha elaborado una carta de derechos digitales.
Durante la Covid no había ensayos, hicimos una aplicación que te permitía ensayar en casa. Podías ver la partitura, sintetizar con IA la voz de tu cuerda, escucharla y también escuchar otras cuerdas.
Ha trabajado también en muchos proyectos musicales. ¿Usted canta en un coro?
Sí. Y, como durante la Covid no había ensayos, hicimos una aplicación que te permitía ensayar en casa. Podías ver la partitura, sintetizar con IA la voz de tu cuerda, escucharla y también escuchar otras cuerdas.
En el grupo de Tecnología Musical de la Pompeu Fabra, donde soy profesora invitada, hicimos un proyecto muy bonito, Banda Sonora Vital, en colaboración con la Fundación Pasqual Maragall. Es un sistema de recomendación musical para las personas con Alzheimer. Ese es un contexto de musicoterapia contextualizada, pero en la música hay muchas oportunidades con la tecnología.
¿Por ejemplo?
Ahora hemos iniciado un proyecto en el mismo grupo sobre el impacto que la IA va a tener en la producción musical y en los músicos. Como tú me preguntabas por el impacto en el trabajo, pues en el área de la música también es relevante. Hay muchos músicos que trabajan con ordenador desde hace muchos años. Ahora, estas tecnologías pueden sugerir acordes o melodías del estilo que pidas. Hay un concurso tipo Eurovisión de canciones compuestas por IA.
¿Podría diferenciar una canción compuesta por IA de una compuesta por una persona?
No. Además, como a veces se procesan tanto las voces, tampoco son naturales.
En el 2020 fue elegida por la UE una de las 45 mujeres de referencia para las jóvenes. Sin embargo, hay pocas mujeres interesadas en ingeniería.
Sí. Esto tiene dos problemas. Los sesgos que tenemos mujeres y hombres están en los sistemas, ya sea en los datos o en los algoritmos. Por ejemplo, en el sector de los videojuegos, como hay más hombres, diseñan más juegos que les gustan. Si solo los hombres están desarrollando los sistemas de la IA, van a estar sesgados. La discriminación puede ser involuntaria. No van a desarrollar la visión, las aplicaciones que queremos nosotras…
Y luego hay otro problema que es el de la igualdad económica. Estas carreras tienen muchas salidas, muchas oportunidades de desarrollo profesional y de poder, pero somos pocas mujeres. Cuando he ido a algún colegio a dar charlas de Ingeniería en 2º de ESO, me he encontrado con que no había ni una sola chica.
Es una nueva era. La transformación digital implica otra manera de relacionarte con las cosas, con la vida.
Creo que la IA no es ya solo algo técnico. Va más allá. Tenemos que fomentar carreras interdisciplinarias. Hay que explicar que los estudios de ingeniería también tienen un fin social. Es fundamental la educación y una regulación. Tenemos que convivir con esta tecnología y hay que ser responsables.