El historiador y filósofo israelí Yuval Noah Harari, autor de libros superventas como Sapiens. De animales a dioses, Homo Deus. Breve historia del mañana y 21 lecciones para el siglo XXI, ha comparecido este lunes telemáticamente para presentar a los medios hispanohablantes su último libro, Nexus. Lo ha hecho en una rueda de prensa virtual, internacional y multitudinaria —había más de cien periodistas conectados—, a la altura de la expectación que generan los lanzamientos de sus obras, de las que ha vendido hasta la fecha la friolera de 45 millones de copias en 65 idiomas.
En este nuevo libro, publicado por la editorial Debate, Harari traza, como anuncia su subtítulo, “una breve historia de las redes de información desde la Edad de Piedra hasta la IA” a lo largo de 600 páginas. Esta última, la inteligencia artificial, es uno de los grandes temas del libro. Como muchos expertos en la materia, Harari cree que la IA tiene “el potencial de escapar de nuestro control y de esclavizarnos o aniquilarnos”, como explica en este artículo que resume la tesis del libro.
A lo largo de la historia, cada gran avance tecnológico ha generado suspicacias y teorías apocalípticas que luego, afortunadamente, no se han cumplido. ¿Por qué esta vez sí deberíamos dar crédito a esta visión catastrofista sobre la IA? La respuesta es muy simple: “La inteligencia artificial es diferente a cualquier otra tecnología que hayamos inventado antes, porque no es una herramienta, sino un agente independiente”, responde Harari al otro lado de la pantalla.
“Las armas nucleares tienen un poder ingente, pero este está en manos de los seres humanos, que son quienes deciden si usar la bomba y dónde. La bomba como tal no puede decidir nada ni inventar ningún arma nueva ni trazar una estrategia militar. La IA es distinta porque puede tomar decisiones y crear nuevas ideas por sí misma. Se está produciendo una explosión de IA que queda fuera de nuestro control, eso es lo que la hace distinta de cualquier revolución o crisis previa que hayamos conocido”.
Harari también critica en su libro lo que denomina “idea ingenua de la información”, aquella que considera que cuanta más información tengamos, más cerca estaremos de la verdad, algo que, según él, “domina lugares como Silicon Valley”. Pero, en realidad, “la mayor parte de la información que hay en el mundo es basura, no es verdadera”.
Además, la verdad es cara: “Escribir un informe realmente auténtico requiere tiempo, esfuerzo y dinero; en cambio, puedes escribir una ficción a partir de lo primero que te venga a la mente”. Otro atributo de la verdad es que “es complicada porque la realidad es complicada”. En cambio, la ficción o la mentira puede ser tan sencilla como uno quiera.
Por eso, Harari aboga por “invertir en la verdad, en periódicos e instituciones académicas que dediquen sus esfuerzos a descubrir y diseminar la verdad”. Según el historiador, es responsabilidad de las sociedades “resistir esta visión ingenua como la de Elon Musk, que cree que inundando de información a la gente cada uno podrá descubrir la verdad por sí mismo. No es cierto, requiere mucho esfuerzo descubrir la verdad, de lo contrario queda enterrada en toda esa información”.
Harari está estos días promocionando en Estados Unidos, que vive una época de gran polarización ideológica, con el país entero pendiente de las cercanas elecciones presidenciales de noviembre. "Pensábamos que quizá no deberíamos publicar el libro hasta después de las elecciones porque no iban a prestarle atención, pero como aborda buena parte de los temas y escándalos relacionados con las elecciones, estamos recibiendo muchísima atención por parte de los medios. Me hacen muchas preguntas sobre el impacto potencial de la IA y las informaciones falsas en las elecciones. Quizá la pregunta más importante seguramente sea por qué tenemos la tecnología de la información más importante de la historia y la gente parece incapaz de hablar unos con otros. Solo están de acuerdo en que la conversación se rompe y que no se puede llegar a acuerdos ni en los temas más básicos".
Totalitarismo tecnológico
Ante la pregunta de si nos encaminamos hacia un nuevo totalitarismo tecnológico, Harari responde que “eso depende de las decisiones que adoptemos”, pero que “tenemos que entender que existe un potencial totalitario en la IA que no ha tenido nada de lo que hemos visto hasta ahora en la historia”. Los regímenes totalitarios como el de Stalin o Hitler pretendían controlar cada aspecto de la vida de sus súbditos, algo que en la práctica era imposible. “Para controlar todo el tiempo a los 200 millones de ciudadanos que tenía la URSS en tiempos de Stalin, habrían hecho falta 400 millones de agentes de la KGB, porque estos trabajaban a turnos, necesitaban comer, dormir y visitar a su familia de vez en cuando. Pero la IA no necesita nada de eso, permite una vigilancia total capaz de acabar con cualquier libertad. No necesitas agentes para seguir a todos los humanos. Hay teléfonos inteligentes, ordenadores, cámaras, software de reconocimiento facial y de voz capaces de grabar y revisar toda esa cantidad ingente de audio, vídeo y texto, analizarlo y recoger patrones”.
Esto ya está ocurriendo, avisa Harari, en algunos países. “En Israel, mi propio país, ya se está creando ese régimen en los territorios ocupados. También lo vemos en Irán, donde hay cámaras capaces de detectar si una mujer no lleva el velo puesto dentro de su vehículo, las identifican y les envían un SMS ordenando que se detengan y se les confisca el vehículo”.
Ante todo esto, resulta crucial el papel de la prensa, opina el divulgador. “La esencia de la democracia es la conversación. Hasta la llegada de la prensa, la democracia a gran escala fue imposible, porque es necesaria una conversación a gran escala. Los medios de comunicación tienen el poder de destruir una democracia o protegerla. Hoy ese poder está en manos de los grandes gigantes: Facebook, Instagram, Twitter y sus algoritmos”.
En este sentido, considera que “hay un debate enorme acerca de la libertad de expresión” en estas plataformas. “Las redes sociales tienen que tener mucho cuidado a la hora de aplicar la censura, pero el problema no es el contenido producido por los humanos, sino las decisiones editoriales de los algoritmos. El problema es que el algoritmo de Facebook o de Twitter decida diseminar o multiplicar una teoría de la conspiración por el interés de la empresa, ya que eso atrae más atención y hace que más gente esté más tiempo en la plataforma y que la empresa gane más dinero con los anuncios”.
La visión cínica de los extremos
Harari pone también encima de la mesa una paradoja. En su opinión, “la extrema derecha y la extrema izquierda comparten una desconfianza en las instituciones que son garantes de la verdad. Ambas tienen una visión cínica del mundo según la cual la única realidad es el poder, y que a los seres humanos solo les interesa este. Una dictadura no necesita confianza, sino terror. Por eso, si minas la confianza en las instituciones, allanas el terreno a la dictadura.La percepción de que todos los humanos queremos poder es errónea. Si miramos dentro de nosotros, observaremos que las personas anhelamos la verdad, respecto a nosotros mismos, al mundo, a la vida. En última instancia, sin verdad no podemos ser felices. La gente a la que solo le interesa el poder, como Putin, Maduro o Netanyahu, no parece muy feliz”.
No todo es negativo en la visión que Harari tiene de la IA. Aunque reconoce que el libro se centra en lo negativo, también habla en él de las ventajas que puede aportar a la humanidad, como una mejor atención sanitaria para todos. “Dentro de 20 o 30 años, incluso la gente más pobre podría tener una mejor atención sanitaria que los millonarios de hoy”. También podría evitar el millón de muertes anuales que causan los accidentes de tráfico actualmente en todo el mundo, porque “un coche autónomo nunca se va a dormir ni va a conducir después de haber bebido alcohol”.
Harari se centra en los aspectos negativos de la IA “porque ya hay empresas muy ricas que inundan a la población con predicciones positivas de lo que va a hacer la IA y tiende a ignorar los peligros”. Por tanto, la labor de los filósofos, pensadores y académicos debe ser centrarse en “la parte oscura”.
“Eso no significa que queramos detener la evolución de la IA, solo que hay que invertir más para garantizar que sea una tecnología segura, es una cuestión de sentido común. Si las empresas que se dedican a ello dedicaran un 20 % de su presupuesto y su talento en seguridad, estaría muy bien, sería un paso significativo para protegernos. Pero la gente del sector está atrapada en esa mentalidad de carrera armamentística, no quieren que la competencia les gane, y esa idea es sumamente peligrosa. Cuando les hablas de los peligros de la IA, responden que ahora están centrados en desarrollarla tan rápido como puedan y que ya abordaran los problemas sobre la marcha. Es como si alguien pusiera un coche a circular por la carretera sin frenos y decidiera instalarlos sobre la marcha”.