Cristina Urdiales explica de manera sorprendentemente cercana lo que, a oídos de la gran mayoría de ciudadanos, es casi inasumible. Y ello tiene especial mérito en un mundo en constante cambio, en el que la tecnología del se ve rápidamente mejorada por la de mañana. No elude ningún tema y se moja sin disimulo ante la nueva ley europea de Inteligencia Artificial, la presencia femenina en las carreras de ciencias y los miedos que produce la IA.

Querría empezar conociendo algo más a Cristina Urdiales. Usted es ingeniera en Telecomunicaciones, doctora en Robótica y doctora en Inteligencia Artificial… 

Estudié en la Politécnica de Madrid, en Teleco. Y cuando terminé me vine al sur y empecé el doctorado en la Universidad de Málaga, en el Departamento de Tecnología Electrónica. Esa primera tesis no tenía parte de inteligencia artificial, lo que hacía eran algoritmos para que el robot se desenvolviera en entornos dinámicos. Al final un robot no es más que una máquina que puede cambiar de comportamiento, pero necesita cierta manga ancha para que pueda adaptar su acción a entorno y necesidades.

Con la mayoría de robots te puedes manejar con algoritmos. Le dices 'si pasa esto, haz esto'. Posteriormente fui avanzando y me metí en el tema de robótica médica. Pero en el momento en que metes a una persona tenemos un problema, porque ya no hay algoritmo que te diga lo que va a hacer; sobre todo cuando trabajas con personas que tienen alguna necesidad especial. Es muy difícil predecir por dónde van a ir los tiros. En ese campo vi que tenía un hueco y que me faltaba una parte de inteligencia artificial. Eso motivó mi segunda tesis, que hice en la Politécnica de Cataluña.

Pero ¿qué le llevó a dar el paso y decantarse por esta disciplina científica?

Me imagino que toda la ciencia ficción de robótica que nos chupamos en mi generación, que si Terminator, que si La Guerra de las Galaxias… Eso siempre crea un fondillo, porque en mi familia son todos abogados o médicos. Creo que la diferencia entre que te guste la ingeniería, que te guste la ciencia o que te guste otra cosa está en si cuando miras algo lo que quieres es saber cómo funciona. O si te presentan algo y lo que te gusta es resolver problemas.

Cuando empezó a estudiar ¿cuántas mujeres había con usted? 

Pues podíamos ser una de cada 10 o de cada 15 estudiantes.

"Si se quiere que haya mayor papel de mujeres en ingenierías, debería de empezarse por las casas y cuando son chiquitas, cuando son menores que no han llegado al colegio"

Eran casi una excepción.

Cada uno puede ser lo que quiera, pero creo que hay un problema de base con los programas STEM. Se busca que los adolescentes se apunten a carreras de ciencia, de ingeniería, pero es que habría que ir muchísimo más abajo, a cuando eres una niña. Hablo casi de menores de 6 años. Ahí es donde habría que dar visibilidad, porque es ahí donde se definen los roles.

Cristina Urdiales posa frente a la Facultad de Ingeniería de Telecomunicación. Álvaro Cabrera

A las niñas les suelen regalar una muñeca, al niño un cohete. Estoy generalizando, porque no en todas las casas ocurre igual. Si mandas a la niña con un robot a la guardería y las demás llevan muñecas, parece rara y siempre se intenta encajar. Si se quiere que haya mayor papel de mujeres en ingenierías, debería de empezarse por las casas y cuando son chiquitas, cuando son menores que no han llegado al colegio.

Como profano, cuando empecé a escuchar hablar de robots se imaginaba algo muy futurista. ¿En qué punto diría que estamos en este momento?

Desde el punto de vista de la ciencia ficción, estamos en la prehistoria. En la ciencia ficción había robots en la época de los griegos. En la Ilíada, la armadura de Aquiles, por ejemplo, parece que la forjan robots. Los ayudantes de Hefesto eran hombres de metal que había hecho él. Si piensas que llevamos como 20 siglos con la idea de robot en la cabeza, es evidente que la tecnología ha llegado mucho más tarde. Pensemos que el primer computador per se, el ENIAC, es de 1946. Y una década después empiezan a entrar los primeros robots en las líneas de producción de la industria.

La robótica ha avanzado súper rápido, pero al estar en el imaginario colectivo desde hace tanto tiempo, todo se nos queda corto. En la ciencia ficción los robots ya tenían sus paranoias, su filosofía, su religión a partir de los 80… Walle tenía sentimientos. En realidad, no estamos al nivel de imitar a una persona, pero ya hay robots que trabajan con emociones, por lo menos en reconocerlas y fingirlas. Y ahora tenemos la IA generativa. Me dicen esto hace cinco años y no me lo creo. Ha habido una disrupción y a saber lo que tenemos dentro de diez años. 

¿Es factible pensar que dentro de unos años podremos encontrar los robots que venimos imaginando desde hace décadas?

La curva de crecimiento es exponencial. Pensemos que hasta llegar al GPT se tardaron equis años y ahora las versiones sucesivas tardan meses. 

¿Esa relación de la robótica y la IA será natural? 

El problema para juntarlas es que la IA no tiene cuerpo, no tiene sentidos y no tiene problemas físicos. Cualquiera que haga deporte sabe que hay una diferencia entre decir 'tira a puerta desde aquí y hacerlo'. La IA tiene unos ojos que no son los de la robótica y la robótica, precisamente porque tiene cuerpo, está sometida a unos condicionantes a los que la IA, hasta hace poco, no daba solución. Esta capacidad de adaptación superior en la IA actual es la que permitirá integrar mejor la robótica y, sobre todo, la robótica en contacto con el ser humano. Ahí es donde está el nicho para fundir muy bien robótica e inteligencia artificial.

"Siempre que ha habido una tecnología ha habido pérdida y transformación de puestos de trabajo, pero más que con la robótica me preocuparía con la IA"

Uno de los grandes temores sociales tiene que ver con el impacto que la robótica tiene sobre la mano de obra y la pérdida de empleos. 

Hay un momento determinado en que el robot va a suplir al humano a la hora de hacer equis trabajos. La pérdida de mano de obra y todo lo demás es real. Eso es una evidencia. Pero siempre que ha habido una tecnología ha habido pérdida y transformación de puestos de trabajo. Pero más que con la robótica me preocuparía con la IA. Para hacer un robot una persona necesita una serie de conocimientos muy amplios, pero una una app con la IA…

Urdiales, en el jardín de la Universidad de Málaga. Álvaro Cabrera

Quizás esta entrevista la podría estar haciendo la IA.

Y te la podría estar contestando una IA. Todo hay que cogerlo con pinzas. Una IA no puede sustituir a una persona per se, pero para una tarea concreta es más fácil buscar una IA que sustituya a alguien…

Cuénteme en qué líneas está trabajando actualmente. Y qué líneas quiere explorar en el futuro.

Estoy en la línea que me gusta, trabajando en robótica asistiva, siempre pensando en el entorno médico más que en el entorno doméstico. La idea es que los robots que utilizamos se puedan emplear en la parte médica, que suele estar falta de personal.

Meter robots en un entorno clínico puede permitir alargar los tratamientos, porque si bien no tienes tres personas para que estén detrás de alguien, sí puedes tener un robot, que puede estar el tiempo que haga falta. Hablando siempre de tratamientos físicos, no de cirugía. Hablo de rehabilitación, de ayuda… Y si no son de muy alto costo, te los puedes llevar a tu casa, porque te pueden supervisar. Saben si has hecho el ejercicio, el tiempo, la fuerza que has empleado…

¿Son dispositivos que ya se están utilizando?

Se están testeando. Tenemos un acuerdo con el Hospital Clínico y con el Servicio Andaluz de Salud y el IBIMA. Hacemos pruebas con pacientes, pero no están comercializados. Eso requiere una certificación y una cantidad de dinero que la universidad pública no tiene. 

¿Si mañana saliera al mercado un robot de ese tipo cuánto costaría?

Depende. Nosotros tenemos varios tipos. Uno de ellos es un caminador, que tiene diseño libre para que quien quiera pueda montarlo. Lo que es el hardware en sí, con un caminador base, que puede costar de 100 a 200 euros, puede necesitar de 150 o 200 euros más.

Hablemos más en profundidad de la inteligencia artificial. La tesis que usted hizo fue de 2010. Por aquellos años se hablaría poco de este asunto.

La inteligencia artificial lleva aquí desde la conferencia de Dartmouth. Empezó casi de manera simultánea a la robótica en el siglo XX. Pero ahora todo cambia de un año para otro. Lo que hace ahora mi teléfono hace cinco o diez años no lo hacía el ordenador más potente. La posibilidad de procesar cada vez más rápido, más la computación en la nube, han permitido que la inteligencia artificial pegue un salto impresionante.

Desde mi punto de vista lo que más ha contribuido al salto de la IA es la posibilidad de disponer de un montón de datos de entrenamiento. Hace 20 años era impensable entrenar una inteligencia artificial en condiciones. Porque ¿de dónde sacabas los datos? Antes todo era a base de encuestas, pero ahora, queramos o no, estamos dando la información a todo Dios.

El objetivo inicial de todos estos modelos de comportamiento es vendernos cosas. Da lo mismo que sea una moto o un partido político, pero para eso necesitan entendernos, necesitan nuestro perfil. Y para conseguirlo ya disponen de las redes sociales. Ahí existe un riesgo importante de cara a la regulación, porque ya no se trata de lo que dices, sino de lo que el sistema supone. Se hace lo que se llama una extrapolación, que es lo que hacen las plataformas tipo Amazon para venderte cosas o Netflix para proponerte películas, por ejemplo.

Si la suposición se ciñe a algo que te propone comprar, puedes decidir hacerlo o no. Pero si es algo sobre tu orientación política, como pasó en la campaña de Trump, o sobre tu religión… O tu patrón médico. ¿Y si determina que dentro de tres años, por la medicación que estás tomando, no vas a poder trabajar? ¿Quién te va a contratar con esa información? Eso tiene que tenerlo en cuenta la regulación, porque el perfilado está suponiendo o está intentando adivinar información crítica. 

Pero es que a veces no hay ni que hacer extrapolaciones: si permites sistemas biométricos estarían sacando información de tu persona sin suposición alguna. Ahora hay mucha gente que se lleva las manos a la cabeza con que regulemos aquí en Europa, que si nos va a ganar todo el mundo en IA. Es verdad, pero ya hay un montón de juicios abiertos por prácticas de redes sociales con condenas porque no eran lícitas en otros países, cuando el daño ya está hecho. 

Por lo que me dice, lo del libre albedrío está más que limitado ya.

Todo el mundo pensaba que la información nos haría libres. Ahora ya no sabemos lo que es verdad, lo que es mentira… Nos están haciendo más borregos; como ya somos incapaces de determinar qué es cierto, te lo acabas creyendo todo y que sea lo que Dios quiera. Entonces estamos perdiendo capacidad crítica y eso es un riesgo enorme, porque el que lleve las riendas de todas estas tecnologías va a decidir lo que piensas, aunque tú creas en el libre albedrío.

Es importante eso que dice sobre el poder de las tecnologías.

Es el que tiene los datos. La cuestión es si cuando pones una foto de tu gato has firmado sin leer un contrato de 28 páginas donde te dicen que van a coger tu información del móvil, van a ver dónde estás y van a utilizar tu micro para saber lo que estás diciendo. Está claro que no todas lo hacen. Los teléfonos móviles, como no tengas cuidado sobre los permisos que otorgas, están escuchándote todo el rato. El riesgo es que se puedan predecir con todos los datos de tu vida que han recogido.

El problema es que ya no le estás dando ni una sola oportunidad a alguien que al final podría llegar a tener un comportamiento diferente. Tampoco sabes cómo es por dentro el algoritmo. Una persona, en un momento dado, debe de ser capaz de explicarte por qué toma una decisión. Si vienes a que te dé un crédito veré tus gastos, el dinero que tienes y determinaré que puedes tener un gran riesgo de bancarrota. Pero te lo explico. Sin embargo, una inteligencia artificial te puede decir negar el crédito por el modelo de tu perfil y no te da ninguna razón, porque no lo entiende en realidad. Por eso somos muchos los que reclamamos que se expliquen esos procesos.

¿Eso se va ha regulado en la nueva ley europea? 

La regulación, hasta donde yo llego, es bastante light. Fija una serie de líneas rojas sobre, por ejemplo, los perfiles de determinados colectivos. Es el caso de los menores o de seguridad extrema. Ahí dice qué no se puede hacer. Creo que la regulación más que impedir que se hagan las cosas, lo que va a hacer es fijar responsables en caso de que se hagan, porque lo mínimo que se le debe pedir a cualquier tecnología es que esté sujeta a las leyes. Suele pasar que el derecho va en primera y la tecnología en quinta.

Por lo que le escucho casi hay más peros que pros en la inteligencia artificial.

No, no. Los que creemos que debe haber una regulación no estamos en contra de la IA. Es más, estar en contra de la IA es como estar en contra del ferrocarril, en su momento, o de los móviles. Puedes prohibir el móvil en clase, pero ten claro que los estudiantes lo van a usar fuera. Es lo que hay.

La regulación va más por las responsabilidades, Un ejemplo claro es lo ocurrido con los chavales que cogieron y desnudaron a las niñas menores. ¿Quién es el responsable? ¿Los chavales, la empresa que permite que cojas fotos de menores y las desnudes? A los chavales no les va a pasar nada porque son menores. Ahí tendría que haber una responsabilidad de la persona que ha desarrollado la app. Es tu responsabilidad asegurarte de que la foto que te dan no es de menores o de que te den permiso para poder usar esa foto. 

Cristina Urdiales posa tras la entrevista. Álvaro Cabrera

Hay un vacío evidente, ¿no?

Para ese vacío han recogido otra hipótesis en la regulación, relacionada con las cosas dudosas. Por lo que he leído te avisará de que algo puede ser delicado y allá cada uno con lo suyo. Por eso si decides desnudar a una menor con la aplicación la responsabilidad será tuya y la compañía se lavará las manos. 

Porque prohibir no se puede prohibir.

No tiene sentido. Hay líneas rojas, pero todas las tecnologías al final son un progreso. Más me preocupa el gasto energético de la IA dado el cambio climático.

¿Cree que la sociedad es consciente de todas las implicaciones que tiene esto? 

No. Aquí somos todos muy tecnólogos, pero la mayoría no tiene ni idea de lo que hay abajo y cada vez menos, porque cada vez se aleja más esa tecnología de lo que es la electrónica, la mecánica. Muchos chavales son nativos digitales, pero no les preguntes nada más allá de cómo manejar el Instagram, el WhatsApp… Muchos manejan la tecnología y no tienen ni idea de lo que están haciendo. Mucha gente desprecia a los tecnólogos, pero ama la tecnología como usuario.

Esa reflexión debería obligar a las administraciones a darle importancia desde edades muy tempranas. 

Sí, pero obliga ahora a la Administración a hacer algo que no quiere hacer. En esto tenemos además un problema de base. Alguien que no tiene un background en medicina no debería estar dirigiendo un servicio de salud. Y educación exactamente igual. Se dice, 'que los chavales aprendan informática'. Y lo que hacemos es colocarles tabletas en clase. Pero cómo le vas a dar eso a un niño sin más… Me parece una barbaridad.

Todas las medidas que se toman son como muy de salir en prensa. Ahora estamos en pleno debate sobre el móvil. No entro en eso porque no doy clase a ese nivel. Pero sí puedo decir que nuestros alumnos ya no toman apuntes, vienen con tablets y cuando no tomas apuntes te enteras peor de las cosas. No tengo nada en contra de las pantallas, son una herramienta fantástica, pero hay que ejercer cierto control. No darle a un crío una tablet y desentenderte para que no te moleste mientras estás comiendo. Ese niño luego va al colegio y resulta que no aprende lo que debe porque no está prestando atención. 

"Se ha hecho un trabajo brutal. Era impensable que Málaga tuviera un centro de Google, pero también creo que esto se ha hecho pasando por encima de determinados colectivos"

Cuando hablamos de inteligencia artificial, a uno se le viene a la cabeza la imagen de Skynet, en Terminator. ¿Eso es factible?

Para eso está la regulación.

Me dice que esa regulación es en Europa. Ni EE. UU. ni China, por ejemplo, están siguiendo ese camino.

Voy a decir una barbaridad. Pero desde el punto de vista de una IA perfectamente lógica sería el modo Matrix. El ser humano es una plaga. El cambio climático lo traemos nosotros, la superpoblación, las desigualdades y las guerras. Lo más cómodo es quitarnos de la ecuación. Por eso la decisión última de lanzar un misil tiene que ser de un ser humano.

Da un poco de miedo.

Por eso hay que regular. 

Málaga se ha convertido en una especie de referente en materia de innovación y tecnología. ¿Le gusta lo que ve?

Desde el Ayuntamiento se ha hecho un trabajo brutal. Era impensable cuando me vine para acá que Málaga tuviera un centro de Google, que el PTA estuviese en el mapa… Pero también creo que esto se ha hecho pasando por encima de determinados colectivos y los vecinos de la ciudad.

Recuerdo cuando pasabas por el Centro y daba miedo a partir de las 21:00 de la noche. No era lo idóneo, pero no sé si lo prefería a lo que pasa ahora, que cuando pasas te encuentras con despedidas de soltero, el ruido, los turistas… Que cuando te sientas en una mesa te están mirando porque lo mismo están tardando mucho y consumes poco, O que tengamos tanto campo de golf en un sitio donde tenemos un problema de agua endémico. Me parece que nos hemos pasado de frenada y desde luego no me gustan nada las torres. 

¿No le gustan las torres?

Ya tenemos problemas graves de convivencia, de agua, de residuos, como para encima multiplicarlos por mil metiendo estas estructuras tan enormes que es que no sé exactamente cómo van a resultar.

Noticias relacionadas