La inteligencia artificial aspira a revolucionar el mundo. Herramientas conversacionales como ChatGPT de OpenAI y Bard de Google han llevado esta tecnología al gran público. Sin embargo, su uso se extiende en sectores tan amplios como la salud o defensa, de ahí que se haya visto con urgencia la necesidad de regular estas herramientas. España también participa en esta revolución, bien a través de proyectos patrios u ocupando puestos de responsabilidad en gigantes multinacionales, como el caso de Pilar Manchón, sevillana que dirige el área de Estrategia de Investigación en Inteligencia Artificial en Google.
Atraída hace años por la lingüística computacional, el área que estudia y desarrolla los modelos de lenguaje natural que han servido para dar vida a los chatbots y asistentes virtuales, ahora es una de las grandes impulsoras de la inteligencia artificial del gigante de Internet. "Siempre he pensado que la Inteligencia Artificial necesita un enfoque multidisciplinar que nos permita avanzar tecnológicamente, pero sin olvidarnos de proteger la esencia de la naturaleza humana y aprender de ella al mismo tiempo", explica a EL ESPAÑOL-Omicrono.
Hace 10 años que Manchón se mudó a Estados Unidos, donde se sorprendió al ver el escaso número de mujeres que había en puestos de responsabilidad. Una infrarrepresentación que también sufre la comunidad hispana, a pesar de ser una de las más grandes entre la población del país. "Poco a poco vamos avanzando, pero aún queda mucho por hacer", asegura.
En 1999, llegó a la Universidad de Stanford con una beca Fullbright. Acabó fundando su propia empresa, que vendió años después a Intel, donde paso cinco años trabajando. Antes de incorporarse a Google, en su currículum también figuran compañías como Amazon o Roku, siempre centrada en la creación de inteligencias artificiales.
Con esta amplia trayectoria en Silicon Valley, esta española tiene claro que en España "pecamos de humildad y pensamos en impacto local y crecimiento lineal", aunque de nuestro país exportaría a su actual entorno la calidad de vida y las relaciones familiares y con amigos: "me parece que juegan un papel más importante en nuestra filosofía de vida".
¿Se imaginaba cuando empezó su carrera en este ámbito el salto que han dado los modelos de lenguaje natural hasta ahora?
La verdad es que a todos los investigadores nos ha cogido por sorpresa la aceleración de lo últimos meses. Pero, hace ya algunos años, recuerdo haber utilizado en alguna charla una analogía con el principio de la palanca de Arquímedes para lanzar la siguiente predicción: "Dada la suficiente cantidad de datos y la suficiente capacidad computacional, moveremos el mundo".
Creo que todavía nos queda mucho por hacer y descubrir. Solo estamos viendo los primeros destellos de una explosión de conocimiento y avances tecnológicos como nunca antes habíamos experimentado. La IA es un potenciador de la creatividad y la capacidad humana. Conforme aprendamos a optimizar su uso, su impacto se irá incrementando vertiginosamente.
La IA es un potenciador de la creatividad y la capacidad humana. Conforme aprendamos a optimizar su uso, su impacto se irá incrementando vertiginosamente.
¿Qué objetivos debe marcarse la industria tecnológica a la hora de desarrollar inteligencia artificial?
Lo primordial, en mi opinión, es centrarnos en desarrollos de impacto social y científico que nos ayuden a evolucionar hacia una sociedad más humana y segura para todos. Tenemos grandes retos frente a nosotros como el cambio climático, la cura de enfermedades o el acceso a la información y a servicios básicos en muchas partes del mundo.
La IA, más que una herramienta, es una solución en potencia a muchos de nuestros problemas. No debemos olvidar sin embargo que tanto potencial conlleva también un cierto nivel de riesgo, por lo que es fundamental ser prudentes para avanzar de manera segura.
Los chatbots basados en los nuevos modelos de lenguaje natural han sido los grandes protagonistas este año, sobre todo por su llegada a los grandes buscadores de internet. ¿Cómo usa usted Bard de Google en su día a día?
La idea de Bard es que te ayude a explorar curiosidades o poner en marcha tus ideas. El otro día, por ejemplo, estaba buscando algún sitio nuevo para llevar a mis perros a dar un paseo, y Bard me dió ideas de parques y rutas cerca de casa que permiten perros. Incluso me dió detalles sobre sitios para una caminata más larga, con espacio para que puedan correr y cansarse, rutas más difíciles...
Estas IA generativas siguen cometiendo errores en los datos o la información que aportan. ¿Veremos algún día a una IA conversacional que no tenga alucinaciones?
Creo firmemente que vamos a ir viendo como estos modelos mejorarán en calidad gradualmente y las alucinaciones irán decreciendo. No es realista pensar que estas tecnologías van a ser perfectas, pero sí alcanzar niveles de fiabilidad suficientes para ser cada vez más útiles y funcionales.
Actualmente, hay muchos equipos de investigación, tanto en la industria como en el mundo académico, que estudian diversas aproximaciones para evitar las alucinaciones. En algunos casos se aboga por comprobar las fuentes originales o la veracidad de la información, en otros se apuesta por reentrenamiento de los modelos con nuevos datos, o datos sintéticos, el aprendizaje por refuerzo con la retroalimentación humana (RLHF), la integración con fuentes de información fidedignas o la combinación de varias técnicas.
Su uso a gran escala ha acelerado el debate sobre la necesidad de control y legislación de esta tecnología. ¿Qué aspectos de la IA es más urgente regular?
En mi opinión, lo más importante es regular las aplicaciones específicas que entrañan mayor riesgo para la vida y la integridad física, el daño a la propiedad, el acceso a servicios esenciales o el impacto en los derechos fundamentales, y no la tecnología en sí. Por ejemplo, la IA que se usa para detectar el cáncer de mama en las mamografías probablemente necesite un enfoque diferente a la IA que ayuda a las personas a encontrar una ruta más ecológica para llegar a casa.
También es importante regular aquellas cuyo riesgo es incierto a medio o largo plazo. Y esto es más complejo, porque no es obvio, y los beneficios sociales y económicos a corto plazo pueden sesgar nuestra capacidad de análisis. Yo abogo por investigar más en profundidad el impacto de la IA en nuestras capacidades cognitivas individuales y en los distintos colectivos sociales en función del uso que hagan de estas herramientas.
El lenguaje natural es nuestro sistema operativo y el impacto de tecnologías que pueden manejarlo, en algunos casos mejor que nosotros mismos, es aún una incógnita que debemos resolver.
Lo más importante es regular las aplicaciones específicas que entrañan mayor riesgo para la vida y la integridad física, el daño a la propiedad, el acceso a servicios esenciales o el impacto en los derechos fundamentales.
¿Cómo se afrontan en Google estos retos?
El objetivo principal de los desarrollos de Google es tener un impacto social beneficioso de forma segura y transparente para las personas, y prevenir usos inapropiados. A principios de julio, por ejemplo, anunciamos una alianza entre Anthropic, Google, Microsoft y OpenAI para promover la IA responsable.
Uno de los principios éticos fundamentales de amplio consenso es la necesidad de ser transparentes en el uso de la IA. Todo producto o servicio artificialmente generado debe ser identificado como tal. Por ejemplo, la IA generativa ha hecho más fácil que nunca crear nuevos contenidos, lo que también puede ser un problema si se crean, por ejemplo, imágenes para la desinformación.
En Google hemos anunciado una herramienta llamada "Acerca de esta imagen" para ayudar a las personas a verificar si una imágen es fiable. A medida que empecemos a implementar capacidades de imagen generativa, esas imágenes tendrán una marca en el archivo original para darle contexto incluso fuera de nuestras plataformas.
Antes de poner nuestros productos y servicios a disposición del público, la prioridad ha sido siempre hacerlas lo más seguras posible, prevenir errores o efectos colaterales indeseados y anticiparnos a las necesidades de las personas. También es fundamental proteger los datos de cada cliente y garantizar que su información y valor diferencial nunca saldrán de su control.
¿Qué opinión tiene de la ley que está elaborando la Unión Europea?
Es difícil predecir cuál será la versión final ya que aún está en fase de borrador. La propuesta de la Comisión Europea es, en general, proporcionada. Hay aspectos que me parecen muy razonables y otros que requieren, en mi opinión, una evaluación más exhaustiva. Estándares y mayor concreción en casos de uso, escenarios y reglas de aplicación, por ejemplo, son importantes para que la ley no sólo tenga buenas intenciones sino también aplicación práctica.
El programa de 'sandbox' que se está poniendo en marcha va a ser decisivo. También es fundamental garantizar que la IA se aplique de manera segura y que sea confiable, al mismo tiempo que apoye la innovación impulsada por la IA por parte de las empresas y el progreso científico de las universidades. El objetivo debería ser mantener la capacidad de la UE de optimizar la aplicación de IA en sectores críticos.
¿El miedo a una inteligencia artificial superior a la humana es lógico? ¿Podríamos estar ante un sistema con conciencia como han apuntado algunos expertos dentro del sector?
La inteligencia y la conciencia son conceptos que se entienden de manera sencilla en un contexto humano. Sin embargo, su definición desde el punto de vista artificial o abstracto es más compleja. La inteligencia artificial ya es superior a la humana en muchos aspectos, pero no en aquellos que nosotros mismos consideramos como fundamentales desde la perspectiva de una persona sin formación específica en la materia. Cuando hablamos por ejemplo de "sentido común", "libre albedrío" o de la "experiencia subjetiva de ser" como partes fundamentales de la inteligencia y la conciencia humana, todavía estamos muy lejos de eso.