El profesor de la Facultad de Derecho de Stanford Lawrence Lessig se pregunta: ¿Qué control deberíamos tener sobre el código? ¿Qué libertad debería haber para neutralizar el control que permite? Los algoritmos de la inteligencia artificial se están volviendo omnipresentes haciendo emerger nuevas incertidumbres. El filósofo y profesor de la Universidad de Barcelona David Casacuberta ha dado una vuelta de tuerca con su reflexión sobre la nueva 'injusticia algorítmica' frente a la que, según él, hay que oponer nuevos derechos en el mundo digital.
INNOVADORES dialoga con Casacuberta en el Centre de Cultura Contemporània (CCC) de Barcelona. "Ha quedado clarísima la cantidad de nuevas formas diferentes de poner en peligro nuestra privacidad", afirma. "Aunque nuestros datos estén guardados por personas bienintencionadas, siempre hay la posibilidad de que un agente malicioso se apodere de ellos. Y hay personas a cargo de los datos que son todo menos buenas personas".
Algo legal, pero injusto. "En este país no hemos digerido bien esa diferencia. No todo lo legal es ético, ni justo. Ni tampoco todas las cosas éticas están cubiertas por legalidades vigentes. Hemos de hacer esa distinción y defender la justicia y la equidad. La idea de 'legalidad' supone articular un criterio ético de justicia. Pero hay problemas. Salta a la vista que no tenemos un sistema adaptado a las tecnologías digitales".
Sobre la Declaración Universal de los Derechos Humanos adoptada por la ONU en 1948 en París, David Casacuberta opina que es una lista que habría que revisar en la era digital, para incluir, por ejemplo, como derecho, el encriptar nuestra información. "El derecho al 'cifrado', a la encriptación, es un derecho secundario, para garantizar un derecho primario como la privacidad. ¿Por qué no hay ninguna alusión a la encriptación en esa Declaración? Porque cuando se promulgó, la diferencia entre espacio público y espacio privado estaba muy clara. No hay un derecho a tener cortinas o persianas en las ventanas, porque está claro que mi casa es mi espacio privado. Igual que, en la calle, he de atenerme a las normas de convivencia con los demás. Pero en internet esa diferencia ya no existe. Es un espacio público 'por defecto' y un espacio privado si lo ejercitamos, al revés que en nuestras casas".
Todo este tipo de cosas nos envuelven en una sociedad hipertecnologizada como la nuestra. Casacuberta subraya que "en esta sociedad hay que reflexionar sobre la idea de lo ético y lo justo; o lo ético y lo tecnológico. No todo lo que se puede hacer en tecnología, se tiene que hacer. No todo lo que permitiría la tecnología es éticamente aceptable. El núcleo básico de derechos humanos no lo debemos tocar, aunque las tecnologías lo afecten. Tenemos que adaptar la tecnología para que nos aseguren esos derechos. Eso es fundamental".
Libertad y tecnología
"Estoy por lo que dice John Rawls en su libro La teoría de la justicia: 'La justicia es a la ética lo que la verdad es a la ciencia'. Comparto con él que cualquier política o cualquier tecnología aplicada a la sociedad, si no es justa, hay que abandonarla, por muy rentable que sea, por muchos beneficios que genere o por maravilloso que sea su desarrollo. Esa idea es básica. No podemos renunciar a nuestra privacidad. ¿Que hay que revisar algunas ideas por causa de la tecnología? Seguro. Hay ejemplos actuales. La gente sigue usando Twitter como si estuviera en un bar, pese a que le puede llevar a ser enjuiciados por un delito".
Entre los efectos sociales del uso de la tecnología, están emergiendo síntomas de una cierta laminación de la libertad personal y una gran manipulación individual y social mediante el poder de lo digital. "Muchas cosas relacionadas con la tecnología", continúa David, "las hacen las personas sin haberlas decidido. Es una erosión de la libertad personal en varias direcciones. Primero, está la idea de crear adicción. Necesito ver constantemente Instagram, Facebook o WhatsApp... el #MisingOut de Twitter [qué es 'tendencia' en este instante]... todo eso condiciona muchas de las actividades que hacemos cada día».
Además, todo se diseña y piensa "como un ataque directo a nuestro libre albedrío", según el pensador. Son mecanismos diseñados desde la piscología cognitiva para encadenar procesos usando por ejemplo matching . "Hace falta una legislación clara. Hay ciertas prácticas tecnológicas para crear adicción que deberían estar prohibidas directamente, de la misma forma que hay prohibiciones sobre ciertas drogas, igual que se prohíbe usar las máquinas tragaperras a menores de 18 años".
Según Casacuberta, "el 'monstruo' de esta historia es la economía de la atención… Quiero tener a la gente retenida lo más posible en la pantalla de mi aplicación. No quiero que el usuario salga de YouTube, deje Facebook, etc. Todo eso se basa en un mecanismo muy claro que es: solo te vamos a poner lo que te gusta para que te sientas cómodo. De esa manera, en realidad, están cortando nuestro acceso a otro tipo de informaciones. Si te informas de todo lo que pasa en el mundo solo a través de Facebook o de WhatsApp, vas a relacionarte solo con gente que piensa como tú y sabe lo mismo que tú, porque son tus 'amigos'. Los algoritmos harán que salgan y salgan más en tu pantalla".
Hay un uso espurio de los avances de la tecnología y también de la ciencia cognitiva para reforzar esta dinámica mediante algoritmos a gran escala, que podrían llevarnos hacia situaciones cada vez menos justas. Y eso tiene que ver con su visión sobre la injusticia algorítmica. Los algoritmos, explica, "se hacen sin ninguna preocupación sobre la justicia, guiados directamente hacia la eficiencia. Eso es un criterio importante, pero no puede ser el único. Es lo que en Silicon Valley han empezado a descubrir. Es muy importante que la búsqueda de la eficiencia esté acompañada por la búsqueda de la justicia", dice.
Eufemismos de lo digital
Actualmente, en lo digital, se presentan las posibles consecuencias negativas de los algoritmos en la vida de la gente con eufemismos. "El Alexa de Amazon, está ubicado en nuestra casa con sus altavoces inteligentes Amazon Echo, llenos de micrófonos de escucha siempre atentos por si queremos pedir una pizza o lo que sea. Te dicen que su software escuchará las conversaciones que haya en la casa para aprender a reconocer tu voz. Pero, de paso, recoge datos para ofrecerte más anuncios e incitarte a consumir más, constantemente, y si es posible 'anticiparse a tus deseos'».
Saben más sobre lo que la gente desea, que la gente misma. "Y la coartada es siempre la eficacia. Nosotros te lo solucionamos todo, mejor que tú mismo... Toda la tecnología tiene un propósito y nosotros, los usuarios, debemos saber cuál es ese propósito. ¿Cuál es el de Facebook? Pues es un espacio adictivo para vender anuncios personalizados. Si lo sabes y quieres estar ahí, pues ya está, pero es importante que lo sepas".
¿Qué segmentos de la sociedad, de las autoridades e incluso de las empresas, deben actuar para no favorecer una creciente injusticia algorítmica? "Podríamos empezar por las ingenierías básicas en esto", afirma. "En la enseñanza de ingenierías debería haber asignaturas de ética donde se plantearan estas cosas. Y debería aparecer un código deontológico serio. Google se ha retirado de proyectos de armas autónomas porque una parte significativa de sus trabajadores hizo presión. Alguien hizo el software para que los motores de los coches a rueda parada de Volkswagen engañasen sobre las lecturas de emisiones, algo que fue descubierto por científicos independientes de una universidad. Los ejecutivos de las empresas globales deberían saber, ya desde sus estudios en las escuelas de negocios, que hay que aplicar la ética en las empresas, y sus comportamientos no deben ser engañosos".
"Hay novedades en estos aspectos que van en contra de esa injusticia algorítmica. Por ejemplo hay una organización sin ánimo de lucro, que se llama el movimiento Time Well Spent que, liderado por un informático de Stanford y exempleado de Google, que fundó el Center for Humane Technology, promueve revertir lo que ellos llaman la 'crisis de la atención digital, causada por las empresas de tecnología'".
El impacto de esta organización se hizo visible cuando el 11 de enero de 2018, el CEO de Facebook, Mark Zuckerberg, publicó un post personal expresando que él siente la "responsabilidad de asegurarse de que nuestros servicios no sólo sean divertidos de usar, sino también buenos para el bienestar de las personas", y anunció "un cambio importante en la forma en que construimos Facebook", de modo que el tiempo que pasamos en el sitio sea "tiempo bien invertido", frase que se considera una alusión a la organización citada.
Casacuberta continúa: "Este tipo de filosofía contra la injusticia algorítmica crece". James Williams, un humanista que trabajó 10 años en Google, y hoy es investigador asociado del Digital Ethics Lab del Instituto de Internet de la Universidad de Oxford, ha publicado un libro que se llama Stand out of our Light que lleva el significativo subtítulo: Libertad y resistencia en la economía de la atención. Lo que el libro dice es que hay una obsesión de las empresas globales por apoderarse de nuestra atención, obligarnos a consumir anuncios y usar el tiempo en cosas mediocres. "Y que hay que defenderse".