Carissa Véliz (México) es el azote de las grandes plataformas tecnológicas, como Meta (WhatsApp, Facebook, Instagram), Alphabet (Google) o Amazon, desde que hace ya un par de años lanzara su libro Privacidad es poder (Debate, 2021). Su trabajo incesante en defensa de crear una tecnología que respete los derechos de las personas le ha llevado, este año, a conseguir el premio Optimistas Comprometidos, de la revista Anoche tuve un sueño.

Doctora en filosofía por la Universidad de Oxford, esta profesora del Instituto de Ética e Inteligencia Artificial de la institución británica tiene muy claro que el ser humano tiende a ser “hiperoptimista” cuando ve nacer una nueva tecnología. Es, dice, parte de “nuestra naturaleza”.

Lleva pasando, explica a ENCLAVE ODS desde Reino Unido, desde siempre. Y pone como ejemplo los albores de internet, cuando se alababa la “democratización de la información” que traería consigo la World Wide Web, pero se decidió ignorar que también “democratizaría la falsa información”. Y añade: “Es un muy buen ejemplo del que deberíamos aprender, aunque no lo vamos a hacer”, lamenta.

[Carissa Véliz: "Regalando privacidad construimos la arquitectura para una dictadura imbatible"]

Por eso, recalca, “desconfía de todo lo que se anuncie como gratis”. Porque, matiza, “en la vida nada es gratis; siempre se paga un precio”. Y en el caso de las redes sociales, los motores de búsqueda o las herramientas gratuitas –aunque también algunas de pago–, el precio se cobra a través de nuestros datos, es decir, de “nuestra privacidad”. “En vez de asumir que porque no encuentras el precio es gratis, piensa que en realidad es impagable”, sentencia.

¿Qué opina de que cada vez más personas utilicen herramientas como ChatGPT o que se anime a los profesionales de diferentes sectores a usarlas?

Este tipo de herramientas es tan diferente y hay tanta gente utilizándolas… En parte, me parece una cuestión de explorar las herramientas, de saber qué es lo que hay y, sobre todo, cuáles son sus límites.

¿Más que sus fortalezas?

A las empresas ya las tenemos ahí para que nos las cuenten y para que nos vendan la moto. El trabajo de todos, pero sobre todo de periodistas y académicos, es ser críticos con esa narrativa y ver qué hay de bueno, pero también qué límites hay.

¿Cuáles son estos últimos?

Cualquiera que haya experimentado con ChatGPT se da cuenta de que tiene límites importantes y que hay algunos casos donde se habla de aprovechar las herramientas cuando en realidad usarlas puede constituir un riesgo, incluso incurrir en responsabilidades legales. He hablado, por ejemplo, con startups médicas que quieran aprovechar el ChatGPT y, claro, estas herramientas tienen tan poca relación con la verdad que utilizarlas para fines médicos es particularmente riesgoso.

¿Cree que realmente la gente, fuera del ámbito académico o periodístico, es consciente de los peligros de ChatGPT?

No. Recientemente, estaba viajando con alguien que lo utilizaba como guía de viaje, preguntando cosas como 'cuéntame de esta ciudad'. Al mismo tiempo, un conocido mío, que es profe, le pidió a sus sesenta y tantos estudiantes que emplearan ChatGPT para hacer un ensayo y que luego hicieran un 'fact-checking', que miraran si había errores, y ¡había errores en todos los ensayos que ChatGPT había producido!

Tendemos a ser optimistas con la tecnología, y por eso la gente, incluso cuando le adviertes de que estas herramientas cometen errores, no se da cuenta de hasta qué punto los cometen.

¿Siempre?

A la hora de contestar ciertas preguntas siempre va a cometer errores. Y no solamente comete un error una de cada diez veces o la mitad de las veces… no. Hay contextos en los que parece que siempre cometo un error y mi impresión, aunque es puramente empírica, no tengo estudios al respecto todavía, es que la gente no es suficientemente consciente de ello.

¿Cuáles diría que son los mayores peligros que entraña una herramienta como ChatGPT o la IA en general?

Parte de los riesgos de la inteligencia artificial tienen que ver con el tipo de IA que estamos viendo que se usa más, que es machine learning, y eso es contingente. Hay otros tipos de inteligencia artificial que podríamos usar, en los que podríamos invertir, que podríamos desarrollar… pero este tipo en particular tiene varios riesgos.

Uno de ellos es que necesita muchísimos datos, con lo cual tiende a ser malas noticias para la privacidad, porque muchos de esos datos que usa son personales. Ahora vamos a ver un desafío interesante, porque hay que analizar si ChatGPT y otros modelos de lenguaje de gran tamaño (LLM, del inglés language learning models) son compatibles con el Reglamento General de Protección de Datos (RGPD) de la Unión Europea.

¿Lo son?

Hay mucha gente que piensa que no, en parte porque estos sistemas han ingerido todo tipo de datos y ni siquiera saben cuáles han usado. No llevan un registro de los que se usan. Entonces, si yo le pido a OpenAI –la matriz de ChatGPT– que me diga exactamente qué datos personales míos ha recopilado, que los modifique o que los borre, no puede. Y si no puede, entonces no está cumpliendo con la ley.

Cuando se le dice esto a OpenAI, o a otras empresas o a otros entusiastas de la tecnología, la respuesta es 'bueno, pues entonces hay que cambiar la ley'. Es decir, ¿la tecnología se queda la ley y la ley hay que adaptarla? No, hay que adaptar la tecnología.

Microsoft anunció a principios de año la incorporación de la tecnología de ChatGPT en sus servicios, pero con esto que nos cuenta no parece tan buena idea.

Es que hay un problema de privacidad: no solo estamos perdiendo datos, sino que tampoco sabemos exactamente su uso. Ahí, además, se crean problemas de reputación. Por ejemplo, ya hay un alcalde en Australia, de Hepburn Shire, cerca de Melbourne, que ha demandado a OpenAI por difamación, porque él fue informante de un caso –estaba en el lado correcto de la historia–, pero cuando se le preguntó a ChatGPT, lo pintó como el malo de la película, como alguien que estuvo involucrado en corrupción. Eso es falso.

Eso siendo político…

Como un político, hay mucho en juego para su carrera y que un sistema de estos diga que es corrupto es bastante grave. Y además, como ChatGPT da respuestas tan plausibles, tan convincentes, te puedes imaginar que es fácil que alguien diga 'seguramente ChatGPT sí sabe algo y se está reprimiendo esta información en otro sitio'. Es fácil que surjan teorías de la conspiración.

Parece un coctel perfecto para el caos.

Es que, además de la privacidad, ese es el otro grandísimo problema de estos sistemas: que no tienen relación con la verdad, que no están basados ni en lógica ni en evidencia empírica. Lo que hacen es dar respuestas que son estadísticamente muy plausibles, pero que no necesariamente tienen nada que ver con la verdad.

Entonces, ¿están la IA y los algoritmos detrás de esos bulos y noticias falsas que ya son parte de nuestro día a día?

Pues desde luego no están ayudando. Y en un momento en el que vemos que está poniendo presión en la democracia, lo último que necesitamos es desarrollar sistemas para poder fabricar y distribuir información falsa a escala. Bloomberg sacó una noticia de que ya hay cientos de páginas de noticias falsas creadas con ChatGPT y otros sistemas de lenguaje. Ya está pasando, no es algo ni siquiera teórico.

Y ahora que se acercan las elecciones de Estados Unidos del 2024, además, las grandes plataformas como Twitter y otros han 'corrido' [despedido] a sus equipos de ética porque las finanzas están apretando, con lo cual se está cocinando una tormenta que no pinta nada bien.

[Brett Scott, el antropólogo del dinero: “Los ‘criptobros’ se creen depredadores, pero son parásitos del sistema"]

Al final es un peligro que la tecnología vaya por delante de la legislación.

Y que le demos prioridad a una tecnología que impresiona, pero que tampoco está muy claro cuáles son los beneficios para la gente… Realmente, dicen que va a mejorar la productividad, pero ¿la productividad de quién y en beneficio de quién? Necesitamos volver a poner a las personas en el centro y que la tecnología sea secundaria. Lo que importan son los derechos. Y si una tecnología no está respetando nuestros derechos, ya puede ser todo lo impresionante que quiera, eso no es progreso.

Carissa, allá en 2019 se preguntaba en otro medio español si la IA era un progreso o un retroceso. ¿Cuál sería su respuesta cuatro años después?

Mi diagnóstico es que la inteligencia artificial sobre todo ha sido ha sido más retroceso que progreso, por lo menos social y político. Por lo menos ya somos más conscientes del problema: antes era algo de lo que los expertos hablaban, pero no era parte de la conciencia colectiva. Creo que ya la gente, y sobre todo los políticos y los legisladores, son más conscientes, y confío en que con el tiempo lo podamos regular. Pero de momento la influencia sigue siendo mucho menos positiva de lo que me gustaría que fuera.

Todo esto lleva a pensar en que la tecnología controla nuestras vidas. Tenemos un grupo de megacorporaciones tecnológicas por las que pasa todo lo que hacemos en nuestro día a día, como Meta, Amazon, Alphabet, Apple, Microsoft, X Corp…, que a su vez controlan lo que nos gusta, lo que consumimos, cómo lo hacemos, cómo nos informamos.

Nos controlan mucho más de lo que me gustaría. Y una analogía es pensar en las épocas del colonialismo inglés. Muchas veces se habla del colonialismo británico como si hubiera sido el Gobierno de Inglaterra colonizando India, pero en realidad fue la East India Company, una compañía, una empresa que además tenía más soldados que el Gobierno. Y en cierto sentido, las grandes tecnológicas son el nuevo colonialismo.

¿En qué sentido?

Son empresas que están colonizando la realidad a través de convertir lo analógico en digital. Y para limitar su poder, parte de lo que tenemos que hacer es reducir su capacidad para convertir todo en digital y defender lo analógico. Es decir, defender las conversaciones en persona, defender los cafés, defender las bibliotecas, defender la riqueza del mundo natural.

En ello se está, ¿no?

Afortunadamente, en Europa estamos viendo esfuerzos importantes por regular todo esto y ha habido éxitos. Aunque el RGPD es una ley muy imperfecta, con muchas limitaciones y la tenemos que mejorar, al final ha cambiado el discurso público y ha puesto la privacidad en el centro del debate, cuando antes ni lo estaba ni teníamos claro que pudiera estarlo. Vamos un poco demasiado lento, pero estamos teniendo las conversaciones necesarias por fin.

[Marta Peirano: “Con la crisis climática, la dependencia de las plataformas digitales es casi suicida”]

Marta Peirano, en una conversación con ENCLAVE ODS, comentaba que "con la crisis climática, la dependencia de las plataformas digitales es casi suicida". ¿Hasta qué punto está de acuerdo con esa afirmación?

Cada vez que dependemos mucho de una plataforma en particular, hay un riesgo. No solamente si pasa algo por cuestión de ecología, pero hay muchas razones por las que puede pasar algo: un virus, un hack… hay todo tipo de riesgos y eso nos hace muy vulnerables. Y a mí en particular me preocupa que hay instituciones públicas que están utilizando estas plataformas cada vez más, desde universidades hasta gobiernos, hospitales, etc. Nos estamos exponiendo a mucho más riesgo del que deberíamos.

Carissa, dicho todo esto, ¿cómo ve el futuro?

Es una batalla titánica y no está ganada. Nadie puede decir cómo será –afortunadamente, porque si alguien pudiera decirlo estaría determinado–; todavía está todo por verse. A muy largo plazo creo que vamos a lograr regular estas tecnologías, porque es insostenible no hacerlo.

Pero no me queda claro que lo hagamos a tiempo como para evitar mucho sufrimiento innecesario y mucha pérdida de derechos. Los derechos siempre son una batalla que hay que librar todos los días, nunca es una batalla ganada, eso lo sabemos, y hay batallas que tienen que ser peleadas con todo, sin importar como vaya a ser el resultado.