Nuestra vida está hoy afectada, modificada y alterada por algoritmos de software. Pero ¿qué es un algoritmo? En teoría, en matemáticas, lógica, ciencias de la computación y materias relacionadas, un algoritmo es un conjunto de instrucciones o reglas definidas, no-ambiguas, ordenadas y finitas que permite, típicamente, solucionar un problema, realizar un cálculo, procesar datos y llevar a cabo tareas o actividades realizadas por máquinas guiadas por un software que obedece a una programación previa.
Todo esto, que parece tan abstracto y críptico, en realidad hoy en día envuelve nuestras vidas gracias principalmente a dos factores. La inmensa cantidad de información digital que multiplicamos cada instante con lo que hacemos; y que pasa a ser guiada, gestionada, orientada y mediatizada por procesos algorítmicos gracias al crecimiento de la capacidad de cómputo de las máquinas digitales al ritmo de la Ley de Moore (en 26 años el número de transistores –puertas lógicas– en un chip se ha incrementado 3200 veces y ha reducido en la mitad de esa escala su tamaño).
En los últimos chips de Apple, el M1 y el M1Max, esos transistores miden cinco nanómetros, es decir, 5.000 millonésimas de metro. Esa combinación exponencial de disminución de tamaño y de aumento de capacidad de cálculo y proceso hace del código informático de los algoritmos en internet algo enormemente poderoso.
El profesor de derecho de Harvard Lawrence Lessig, en su introducción a un libro de Richard Stallman, lo describía así: "El 'código' es la tecnología que hace que los ordenadores funcionen. Esté inscrito en el software o grabado en el hardware, es el conjunto de instrucciones, primero escritas como palabras, que dirigen la funcionalidad de las máquinas".
"Estas máquinas (ordenadores, máquinas digitales) definen y controlan cada vez más nuestras vidas. Determinan cómo se conectan los teléfonos y qué aparece en el televisor. Deciden si el vídeo puede enviarse por banda ancha hasta un ordenador [o a un smartphone]. Controlan la información que esas máquinas digitales remiten al fabricante. Estas máquinas nos dirigen. El código dirige estas máquinas".
Y se pregunta: " ¿Qué control deberíamos tener sobre el código? ¿Qué comprensión? ¿Qué libertad debería haber para neutralizar el control que permite? ¿Qué poder?".
Resulta que aquellas preguntas suenan hoy igual de inquietantes si en lugar de la palabra 'ordenador' usamos la palabra 'algoritmo', o sea, si pasamos esas preguntas de la visión del hardware (ordenadores, smartphones) a la del software (algorítmica): ¿Qué control deberíamos tener sobre los algoritmos? ¿Qué comprensión? ¿Qué libertad debería haber para neutralizar el control que permiten? ¿Qué poder otorgan los algoritmos de software y a quién?
Los pliegues de la sociedad algorítmica
Cuando Lessig formuló las preguntas originales mucha gente las consideró algo exagerado. Pero hoy, tras el asalto al Congreso de EE.UU., la alteración de resultados de la campaña del Brexit, el contagio mundial de informaciones falsas a través de las redes sociales, o las denuncias de Frances Haugen, que trabajaba como gestora de productos en el equipo de desinformación cívica de Facebook, con el objetivo luchar contra las fake news 'desde dentro', no lo son en absoluto.
Haugen acabó horrorizada al acceder, gracias a su puesto, a las pruebas documentales internas sobre la conducta empresarial de la mayor empresa de redes social del mundo. Finalmente, Wall Street Journal ha publicado los Facebook Files (Archivos de Facebook) que demuestran, entre otras cosas, que la empresa, a pesar de las pruebas de sus propios científicos, actuó haciendo caso omiso a sus avisos sobre la 'toxicidad' de Instagram, especialmente para las adolescentes. Haugen decidió contarlo en el Senado de EE.UU.
El funcionamiento de la arquitectura de las plataformas de redes sociales está completamente orientado a aumentar ilimitadamente el engagement –que yo prefiero traducir no por 'compromiso' si no por 'enganchamiento'–, que es el que conduce al uso compulsivo y la adicción, cosa que el factor algorítmico multiplica a gran escala. Eso provoca un uso masivo e intensivo por parte de los usuarios más vulnerables a la seducción tecnológica y emocional, y a los y las adolescentes que se encuentran en periodo de construcción de su personalidad y de sus capacidades de decisión propia. Esto es típico del llamado 'capitalismo límbico'.
Por decirlo con elementos fáciles de 'visualizar' para cualquier usuario de redes sociales, la amplificación algorítmica se produce cuando algunos contenidos online se hacen populares a costa de otros puntos de vista. Esto es una realidad en muchas de las plataformas con las que interactuamos hoy en día. El historial de nuestros clics, 'me gusta', comentarios y acciones son los datos que alimentan el motor algorítmico y, sobre todo, sus sistemas de recomendación personalizada creados mediante algorítmica entrenada.
Entrenamiento de algoritmos
Los algoritmos de recomendación fueron creados, en su caso, por empresas como Facebook, YouTube, Netflix o Amazon, para ser usados en las aplicaciones sociales con el fin, supuestamente, de ayudar y facilitar a las personas a tomar decisiones propias. Pero resulta que, finalmente, acaban sutilmente haciendo lo contrario. Y ahí entran los efectos de los 'algoritmos entrenados'.
Primero, recomiendan al usuario una serie de opciones y este 'hace' una elección, que luego se realimenta como nuevo conocimiento para entrenar el algoritmo del sistema recomendador, sin tener en cuenta que la elección era, en realidad, una salida mostrada así mismo por el propio algoritmo. Esto crea un bucle de retroalimentación, en el que la salida del algoritmo se convierte en parte de su entrada. Como resultado, se generan recomendaciones crecientemente más y más similares a la elección hecha inicialmente.
Ocurre que la gran mayoría de los algoritmos no entienden la distinción. Eso da lugar a recomendaciones similares que refuerzan inadvertidamente la popularidad de contenidos sociales ya eran populares o las de opiniones ya prefijadas Poco a poco, esto fragmenta a los usuarios en burbujas de filtros o cámaras de eco 'ideológicas' donde se descartan cada vez más los puntos de vista diferentes. Finalmente, emerge una estructura de burbujas llenas de promesas previas autocumplidas, un mecanismo cuyo funcionamiento parece lo contrario a cualquier proceso innovador, ya que refuerza sólo lo que ya sabías.
Se han documentado experiencias de usuarios a los que se le muestra una versión 'ligera' de un tema y el mecanismo algorítmico –que prima el aumento de tráfico de datos– les acaba presentando (recomendando) contenidos más duros, radicales y exagerados, sean de ideología, de sucesos o sobre personas notorias. Es como empezar en el borde de una espiral y viajar hacia el interior de los núcleos de amplificación.
La confusión algorítmica
El exingeniero de Google que trabajó en YouTube, Guillame Chaslot, informó de este fenómeno durante la campaña del Brexit y las elecciones estadounidenses de 2016. Estas algorítmicas promueven opciones cuyo rango es cada vez más estrecho, con lo cual los usuarios pueden acabar restringiéndose a contenidos cada vez más extremos. Ese es el efecto de un fenómeno conocido como 'confusión algorítmica', que hallaron en una investigación, publicada en octubre de 2018, los investigadores de la Universidad de Princeton Allison Chaney, Brandon Stewart y Barbara Engelhardt.
El propio Allison afirmaba en su paper: "A medida que los usuarios que se encuentran dentro de estas 'burbujas' de las redes, interactúan con algoritmos 'confundidos', que les incitan a comportarse de la forma en que el algoritmo 'cree' previamente que se comportarán, que es similar a la conducta de los que se han comportado como ellos, antes, en el pasado". Así que... a medida que la gente interaccione, cada uno dentro de su burbuja, se comporta de forma más y más similar.
Las opciones en esas 'burbujas' que reúnen los likes, etiquetados, memes, etc. de los usuarios con sus seguidores, empiezan a reducirse, limitando el rango de comportamiento. Además, esto se intensifica ya que los datos de entrenamiento de los algoritmos vienen acompañados de un conjunto inherente de sesgos que reflejan los prejuicios existentes y representativos del conjunto social que les interrelaciona.
Como seguro que saben los creadores de esta algorítmica, cuando no se muestran los patrones ocultos, las asociaciones y relaciones entre los datos de entrenamiento algorítmico y los representativos en la población general generan sistemas que propagan estos sesgos y multiplican e intensifican (y exponencializan) la uniformidad de resultados.
Hasta ahora, se sabe que en la aplicación 'social' de los algoritmos de aprendizaje automático suele emerger la recomendación de lo que resulta más atractivo, 'pregnante' o contrastado, que suele ser lo más exagerado. Quizá romper estos 'viciados' bucles de retroalimentación podría suponer imitar las formas en las que los humanos descubren elementos de interés fuera de internet: a través de amigos y familiares, asesores expertos, felices casualidades o serendipias.
Pero se están empezando a hacer pruebas de que informarse únicamente a través de la inmensa fractal de burbujas de las redes sociales conduce a abrazar más la información falsa que la verdadera, en un proceso más emocional, que racional; y unirse a las opciones más cercanas a las decisiones o criterios inducidos sin reflexión alguna, ya que la instantaneidad es casi un imperativo por el propio diseño de las interfaces táctiles y la arquitectura de las apps sociales.
Finalmente, tras ello está el inmenso negocio de base algorítmica de las plataformas globales, cuya evolución intenta aproximarse a ese concepto del winner-take-all (el ganador se lo lleva todo). Las consecuencias de estas características hacen que, en el mundo digital, finalmente, haya un sólo ganador hegemónico, por ejemplo, en cada nicho del internet social. Por ello, en el mercado del Internet global, para el público, existe ya en la práctica un solo buscador de referencia (Google); una única red social (generalista) como Facebook y otras de nicho como Instagram (imágenes); WhatsApp (mensajería instantánea); u otra centrada vídeos cortos (TikTok) para preadolescentes. (En paralelo hay un mercado de redes sociales chino que, además, aplica la gamificación digital con premios y castigos del 'crédito social').
Los demás actores del mercado, se acaban convirtiendo en irrelevantes. Si a esto unimos la concentración empresarial (Facebook compró tanto Instagram como WhatsApp, y Google compró You Tube). La combinación de estos dos factores parece conducir, irremediablemente, a una irrefrenable vocación de generar un monopolio global. Lo cual pasa por arrasar o comprar a los competidores para eliminar esa molestia de tener que competir con quienes sabes que son más innovadores que tú. Es la anti-innovación.
Los desaparecidos evangelistas tecnológicos
A la nueva economía basada en lo digital, que antes exhibía como su principal mascarón de proa constantes y disruptivas innovaciones, parece que se le está 'gripando' su motor innovador. Hay optimistas irredentos que no lo ven así. Pero van siendo mayoría quienes ven oscurecerse el horizonte del futuro de internet, más que lo contrario, porque, ahora mismo, hay más síntomas de este tipo de evolución.
Cuando conocí personalmente a Vinton Cerf en el Congreso del 20 Aniversario de la Web en Madrid, me entregó su tarjeta de Google. En ella, bajo su nombre, se puede leer: Chief Internet Evangelist of Google, o sea, 'Evangelista Jefe de Internet de Google'. Por entonces, había más evangelistas tecnológicos como, por ejemplo, Guy Kawasaki, 'oráculo' de la tecnología de Apple, y autor del famoso libro 'Reglas para Revolucionarios', cuyo subtítulo reza 'Crea como un dios; ordena como un rey; trabaja como un burro'. Este libro se publicó en 1999.
Hoy podemos ver claramente que este tipo de apóstoles de las innovaciones disruptivas, como Kawasaki y otros, han ido dimitiendo de su papel evangelizador, mutando a otras actividades, desde consultores de mercadotecnia a muchos otros. Entre ellos los hay, incluso, quienes se han reencarnado en influencers comisionistas.
En el internet social, el núcleo de su maquinaria esencial, es su gigantesca y subterránea cibernética algorítmica, causa decisiva que ha llevado a los anteriores titanes de la innovación tecnológica a convertirse en mayoristas globales de publicidad invasiva, que es pura polución cognitiva. Lo peor es que en esta corriente principal de funcionamiento tecnológico, y de sus usos impuestos a los usuarios de las redes sociales, intentan que lo tomemos como algo inevitable e irremediable, es decir, como si no existieran otras posibilidades. Afortunadamente está Wikipedia, un ejemplo obstinado para mostrar que no es así.
Sigo creyendo a Tim O'Reilly cuando dice que la tecnología es algo para hacer del mundo un lugar mejor. Así que estoy convencido de que puede haber usos de internet alejados de los horrores tecnológicos denunciados por Frances Haugen o los que describen los 'Facebook files' publicados por el WSJ. Estoy totalmente convencido de que el uso de la tecnología, y eso incluye el internet social, no es determinista. Y de que algunos nefastos usos que nos intentan inducir no son los únicos posibles.
Creo que hay que seguir el consejo de Richard Stallman: hemos de usar la tecnología como deseemos libremente no como nos recomienden interesadamente el 'capitalismo límbico' de las plataformas o los fabricantes monopolistas. Pero, para eso hace falta que haya un mercado abierto a todas las empresas y emprendedores, sin trampas –algorítmicas o no– y guiado por la innovación.
En él las máquinas digitales que hemos comprado y que, por ello, están en nuestra casa o en nuestro bolsillo, no deberían actuar contra nosotros. No deberían hacer nada que no sepamos que hacen, ni tampoco deberían hacer nada que no queramos que hagan. Parece sencillo, ¿verdad? Pues hoy no lo es tanto. Pero para conseguir cosas como esas, no debemos dejarnos atrapar por la comodidad. A veces, la comodidad en tecnología es como una trampa saducea. No debemos dejarnos atrapar por ella. Porque esa es una cuesta abajo que, en realidad, no incrementa nuestra capacidad y libertad de decidir libremente, sino todo lo contrario.