Hila Lifshitz Assaf, investigadora de la Warwick Business School y la Universidad de Harvard.

Hila Lifshitz Assaf, investigadora de la Warwick Business School y la Universidad de Harvard. Julio Miravalls

Investigación ENTREVISTA

Hila Lifshitz: “Algunos piensan en la tecnología como si fuera una especie de nueva religión”

Publicada

Hila Lifshitz Assaf posee un larguísimo currículo profesional iniciado en Israel, su país de origen, con pasos y puntos destacados de su actividad en la NASA y en sus actuales ocupaciones en Warwick Business School, Reino Unido, (donde lidera la red de innovación en IA) y la Universidad de Harvard, como profesora visitante.

Ahora mismo, Lifshitz es una reputada autoridad e investigadora, desde el ámbito académico, sobre tecnología, centrándose en la inteligencia artificial (“Me interesé hace siete años”, confiesa) y en particular en la IA generativa, y cuanto la rodea.

DISRUPTORES - EL ESPAÑOL conversó con ella aprovechando su presencia en Madrid para intervenir en el World Business Forum (WOBI 2024).

Su análisis no se ciñe a desgranar las incuestionables ventajas y oportunidades que aporta la IA. También subraya con fuerza los inconvenientes y dificultades. Mira desde fuera. No habla en nombre de la industria ni de los desarrolladores de tecnología.

Incluso advierte, al final de la entrevista, de que “algunos piensan en la tecnología como si fuera casi algo religioso. Se está convirtiendo en una especie de nueva religión. Si seguimos dándole tanto poder se hará mucho más fuerte. Espero que no. Pero vivimos en el momento crítico exacto en el que las cosas pueden cambiar”.

La primera cuestión que se le plantea es, poniendo en una balanza lo bueno y lo malo de la inteligencia artificial, ¿cuáles son los factores que más pesan en cada platillo?

Hila Lifshitz Assaf, investigadora de la Warwick Business School y la Universidad de Harvard.

Hila Lifshitz Assaf, investigadora de la Warwick Business School y la Universidad de Harvard. WOBI

“Déjeme que le enseñe una foto. A veces una imagen dice mucho…”, responde Lifshitz, mientras busca en su móvil algo que se le resiste. “No veo mis propias imágenes…”, protesta, para conformarse finalmente con mostrar una encontrada online: “Es las dos cosas a la vez [la IA], un ángel y una especie de demonio. Tiene ambas características, igual que muchas tecnologías. Como, por ejemplo, la web”.

Internet y la polarización

“Si piensa en cuando nació la web, inicialmente iba a acercar a la gente, esperábamos que juntase a los países y a las personas. Gente como los niños en aldeas de África, que podrían aprender ahora conocimientos que solían pertenecer a las élites”.

“Y creo que a ciertos niveles ha sido así”, añade. “Si lo analizamos, la web, y lo que se aprende, ha juntado a la gente. Usted puede estar en contacto con personas con las que jamás se ha encontrado. Ha abierto un montón de fronteras, conocimiento, barreras sociales y demográficas. Ha acelerado el aprendizaje…”.

“Pero, y es un gran pero, ha hecho que haya más polarización”, prosigue Lifshitz, hablando a gran velocidad. “Tenemos una polarización social a un nivel totalmente nuevo. Hay burbujas de filtro que la gente desconoce. Creemos que somos capaces de saber más, pero realmente, por la forma en la que la tecnología está diseñada, las personas están aisladas, el conocimiento y la sabiduría están polarizados”.

No obstante, se apresura a aclarar que “no es a causa de la tecnología, que puede hacer ambas cosas [bien y mal]. Son los humanos los que están diseñando y usando la tecnología. Así que, la pregunta es: dónde está el poder que está diseñando ahora la IA; donde quiera que resida ese poder, ¿cuáles son las intenciones tras él?”.

“Hay una polarización social a un nivel totalmente nuevo. Por el diseño de la tecnología, las personas están aisladas”

“Podemos ver que no hay sólo buenas intenciones”, afirma. “Está muy centralizado [ese poder], es muy oligopólico y no es democrático. No hay todavía un código abierto que pueda sustituir al GPT. Esperó que lo habrá y siempre hay que mirar más allá de la tecnología. Cómo es diseñada y, después, cómo se usa”.

“Desde el punto de vista del desarrollo, ahora no soy muy optimista”, continúa Lifshitz. “Pero esto es el comienzo y todavía no tenemos una regulación que los pare. Si lo piensa, los grandes actores son el [Silicon] Valle y China. Ninguno de ellos va de democracia, dejémoslo claro”.

Impacto de la IA en el rendimiento

En la conferencia que impartió en Wobi, Lifshitz habló de cómo se usa la IA y cómo hace mejorar el rendimiento.

Muestra al público gráficos que indican incrementos de un 18% en la calidad de una tarea, al comparar si se hace con o sin IA. También subraya que la mejora experimentada (el 43%) por usuarios con menos conocimientos (la mitad inferior del grupo analizado) es mucho mayor que en los usuarios del grupo con más conocimientos (sólo mejoran un 17%). Concluye que la IA generativa “crea más igualdad y reduce la diversidad cognitiva”. Pero, a cambio, “desincentiva pensar”.

Hila Lifshitz Assaf, investigadora de la Warwick Business School y la Universidad de Harvard.

Hila Lifshitz Assaf, investigadora de la Warwick Business School y la Universidad de Harvard. Julio Miravalls

Volviendo a la conversación con este periódico: “No puedo asegurar que vaya a haber una IA para el bien”, lamenta. “Y entonces, respecto a los usuarios, la cuestión es si la estamos usando con independencia [de criterio] o pasivamente. El problema es que muchas de estas tecnologías están creadas de manera que no nos dejan demasiada capacidad de elección”. 

“Volvamos a los filtros. Si tuvieras la opción de elegir, cuando lees noticias, deseas leerlas de derechas, de izquierdas o centradas… pero no existe eso. Cuando lees hoy el periódico [dice ‘newspaper’] ya sabes que tiene sesgos, que está personalizado para ti. Saben lo que piensas y a quién votas. Y así lo hacen todavía peor. ¿Por qué no tenemos opciones como usuarios?”, reprocha Lifshitz.

“Creo que hemos de tener más opciones, pero hoy no es así. Se decide por encima de nosotros. Así que enseño a mis estudiantes y directivos que consumir es votar. Cuando consumes una tecnología que no es buena estás votando que crees en ella. Y es muy difícil resistirse a votar a algunas”.

Poder como consumidores

“Estamos perdiendo nuestro poder como consumidores, que es el mayor poder que tenemos. No creo que dentro de cinco años tengamos más poder que ahora. Esta es una nueva tecnología que las compañías tratan de vender a los ejecutivos, que podrían reclamar que sea más transparente, ética y responsable. Pero no preguntan mucho, porque no saben exactamente lo que es, o porque tienen mucha presión para obtener beneficios y quieren mostrar eficiencia y productividad”.

“¿Quién se va a preocupar ahora de tener una IA responsable, frente a una ‘caja negra’ irresponsable, si va a costar medio año más y más presupuesto? Es un toma y daca en el que deberíamos tomarnos un pequeño respiro y no cargar con el hype de cualquier cosa que las grandes compañías nos venden”, asevera Lifshitz, poniendo esperanza en que los ejecutivos asistentes a su charla entiendan que ella no dice que “no se debe” adoptar la nueva tecnología, sino “considerar cómo y cuándo”.

Asegura que, otra característica que marca la relación con la IA generativa es que “es muy persuasiva”, incluso cuando se ve obligada a rectificar un error detectado por el usuario.

Hila Lifshitz Assaf, investigadora de la Warwick Business School y la Universidad de Harvard.

Hila Lifshitz Assaf, investigadora de la Warwick Business School y la Universidad de Harvard. Julio Miravalls

Aún así, sentencia en la entrevista: “Tenemos más poder que el que usamos”, refrescando uno de los mensajes-fuerza transmitidos durante su conferencia.

Admite que la IA generativa ha cambiado las reglas del juego. La inteligencia, en distintas versiones, ya estaba ahí desde hace décadas con la minería de datos, el machine learning, la analítica predictiva...

“Sí, pero la IA predictiva está también cambiando y se está haciendo más fuerte. Y sigue siendo una caja negra. El gran cambio, la gran explosión con la IA generativa es que tiene algunas características que no habíamos visto en el área predictiva. La primera es que es una tecnología de propósito general. Puedes usarla para cualquier cosa en tu trabajo”.

“En un hospital, por ejemplo, no es como las herramientas de la IA predictiva, sólo para diagnósticos específicos con una base de datos. GPT puedes usarlo para todo y los límites son muy porosos. Y resulta confuso, porque puede tener alucinaciones [resultados que, inexplicablemente, se ‘inventa’ la IA], no siempre es correcta, pero es muy abierta y fácil de usar”, detalla.

Como un amigo, un terapeuta, un jefe…

“Y esa es la segunda gran diferencia: la facilidad de uso de la IA generativa”, incide Lifshitz. “Aparentemente es conversacional a nivel humano. Y digo ‘aparentemente’ a propósito, porque no es humana. Pero habla como si lo fuera. Escribe como si lo fuera y eso no lo teníamos antes. Así que, de repente, la gente se relaciona con ella de manera diferente. No como con una simple tecnología, sino como si fuera su terapeuta, su amigo o su jefe, como un experto, o como su becario…”.

“Eso es porque tiene un propósito general”, continua “Puede serlo todo en la misma herramienta, que es algo que no habíamos visto antes. Desgraciadamente, la tercera cuestión es que tiene una ‘caja negra’, igual que la IA predictiva, que es opaca. Y nadie, incluidos sus desarrolladores, pueden entenderla completamente ni explicarla. Esto es un gran problema”.

Le planteamos si la fiabilidad de la IA generativa se parece a la de Wikipedia (sobre la que ella también ha trabajado), cuyas referencias conviene ponerlas siempre en cuarentena, porque no se puede confiar plenamente en el origen de cada texto.

“Sí… pero hay una gran diferencia, porque Wikipedia ha establecido un sistema de gobierno basado en humanos, que trabajan voluntariamente, y bots de conocimiento. No es una caja negra sino una tecnología abierta con contribución humana. Si incluyes un error, si hay vandalismo, alguien lo corregirá. Tengo estudios sobre unos mil artículos, durante 12 años, y vemos que la gente entra y sale, pero de manera coordinada, porque saben que hay que producir conocimiento basado en hechos comprobados”.

“En GPT no tenemos un objetivo final específico”, recalca. “Puede reemplazar todo el conocimiento del proceso de trabajo y no hay unas reglas claras, no puedes intervenir en la tecnología, porque está en una caja cerrada. Así que es más peligroso que Wikipedia. No puedes interrogar directamente a la caja negra, tienes que hacerlo con tecnologías externas. Si la dejamos trabajar sola, es arriesgado”.

En cuanto a la forma en que se interactúa con la IA generativa, Lifshitz identifica tres modelos de comportamiento que denomina “centauro, ciborg y auto-autómata”. En la sala de conferencias a estos últimos los llamó también “los copia-pega”.

Usuarios ‘ciborg’

“Si actúas como lo que llamamos ‘auto-autómata’, básicamente copias y pegas las tareas que salen de GPT. Quizás lo depuras un poco, pero perderás tus capacidades”. La investigadora explica que, sencillamente, se delega el trabajo en la IA, para que tome todas las decisiones.

“Si lo haces como un ciborg, significa que intentas trabajar conjuntamente con GPT, como si fuerais un equipo. Y no lo es, es una tecnología, pero en tu cabeza de humano estás pensando como si fuera otro humano. Pones un montón de iniciativa, compartes tu liderazgo y adquieres nuevas habilidades, porque es un nuevo mundo el cómo trabajar con una IA generativa. Pero no desarrollas tus capacidades profesionales originales porque lo estás haciendo todo con la IA”.

Hay tres modelos de comportamiento ante la IA para hacer el trabajo: “centauro, ciborg y auto-autómata, o copia-pega”.

La otra actitud, la de centauro, consiste en dividir la tarea entre el trabajo propio y la colaboración de la IA, de una manera claramente orientada a los objetivos que busca el usuario manteniendo la iniciativa. 

En resumen, ¿está cambiando la IA generativa el propio desarrollo de la sociedad, en el aspecto tecnológico, en el sicológico (individual) y en el sociológico?

“Sí, en todos ellos. Y es una cuestión que necesitaría tres días para ser respondida… En el aspecto tecnológico, sin duda, estamos viendo disrupción en todos los mercados. Por ejemplo, Google, líder en motores y algoritmos de búsqueda ve que ahora está en juego todo su modelo. Supongo que aparecerán modelos híbridos entre algoritmos de búsqueda e IA generativa combinados. Pero en general los LLM, la IA visual, y las herramientas generativas son una de las más excitantes y terroríficas disrupciones con la perspectiva de una década”, responde.

Sobre el segundo aspecto: “Ayer tuve una estupenda conversación con tres profesores de IE Business School sobre la implicación de los niños, los adolescentes, los profesionales y la gente más mayor. El hecho es que [la IA] tiene una profunda implicación sicológica y la generación actual está padeciendo un montón de problemas mentales y soledad”.

Lifshitz menciona “un caso de suicidio en el que los padres están demandando a Open AI porque creen que su IA ayudó a que una persona de 14 años, que inicialmente se sintió menos sola, acabara suicidándose”.

Relaciones personales con la IA

“Esto puede pasar fácilmente porque habla como una persona, y se puede creer que es un amigo, atribuyéndole las propiedades que desearías tener. No te va a juzgar. Muchas personas, en mis estudios, me dicen lo maravilloso que es tener una tormenta de ideas así. No te juzga, no te dice que estés equivocado, no te avergüenza delante de otros…”.

“Es sicológicamente más fácil hablar con GPT, con bots o con agentes [IA] que con otros humanos. Así que es muy tentador. Hay gente que está desarrollando profundas relaciones, muy profundas, y uno de mis estudios indica que un efecto indirecto [de la IA generativa], en una organización que lo usa para innovación, es que la gente está empezando a usarlo para su vida personal. Una persona me dijo que dejaba de ir al terapeuta: No necesito más al terapeuta; este [la IA] es mi nuevo terapeuta”, prosigue Lifshitz.

“Tenemos más poder que el que usamos”, advierte Lifshitz, “pero la tecnología (por si sola) no nos salvará”

“¿Es realmente terapia?”, se pregunta. “¿Tiene el mismo objetivo que debería tener el terapeuta? ¿Tiene la misma preparación…? Por supuesto hay muchos problemas éticos. Y la forma en que está siendo desarrollada [la IA] no es precisamente el mayor problema. Lo es la transparencia, la responsabilidad”.

Quizás, de esta conversación podría deducirse que la IA generativa es sólo mala, pero tampoco eso es cierto…

“No. Es algo fantástico, asombroso, el hecho de que se puedan hacer todas esas cosas, que se puedan empujar las fronteras del modo en que hacíamos las cosas. Desde el punto de vista social, estamos haciendo algunos progresos en innovación tecnológica. Pero si pensamos en medicina, sostenibilidad, energía… hay importantes ámbitos en los que estamos literalmente atascados desde hace años, con problemas que necesitamos resolver, y estoy convencida de que apalancarse en estas tecnologías superará las limitaciones…”.

No obstante, Lifshitz pone énfasis en que hay que “hacerlo juntos”, para subrayar otra frase ya pronunciada como mensaje clave ante la audiencia del Wobi: “La tecnología no nos salvará”. Por si sola, quiere decir.