Falsedades digitales profundas
Para nuestro cerebro la verdad no es siempre algo mejor que la mentira. Está demostrado que el cerebro actúa como un generador de hipótesis. Como bien me explicó el neurofisiólogo de Harvard Álvaro Pascual-Leone acerca de cómo son los mecanismos de la objetividad y subjetividad en el cerebro. Somos totalmente subjetivos y eso, muchas veces, es un freno a que accedamos a la verdad de los hechos. En nuestra mente, literalmente, “solo ves aquello que tu cerebro quiere, que espera que veas”.
La industria de la publicidad y el marketing están aprovechando los avances en neurociencia: gracias a ellos ha descubierto que somos mucho más vulnerables a la manipulación y el engaño, si los mensajes se dirigen directamente al hemisferio cerebral más ‘emocional’. Así se consigue una alta eficacia en neutralizar todo lo posible nuestras capacidades cerebrales más racionales, las que nos permiten realizar actos en cuya decisión no ha intervenido nuestra voluntad, actos que no son consecuencia de decisiones volitivas. Por ejemplo, que compremos y consumamos cosas que, en realidad, no habíamos decidido consumir.
Esto se ha vuelto un trastorno contagioso con carácter de epidemia social. Los mensajes llegan ahora a los cerebros de la gente en múltiples formas, pero sobre todo con mensajes cortos instantáneos y en forma de imágenes, vídeos o memes, de los del tipo del neologismo acuñado por Richard Dawkins en El gen egoísta. Es decir, por ‘memoria'+'mímesis’ mucho más que en forma de textos, que exigen más participación en el pensamiento racional del cerebro. Son ‘carne de cañón’ de este fenómeno, sobre todo, aunque no sólo, los adolescentes por su gran exposición a pantallas con conexión ubicua.
Esta vulnerabilidad se demuestra en el estudio Las TIC y su influencia en la socialización adolescente: el 83,5% de los adolescentes da por hecho que “las personas mienten más en internet y en las redes sociales que en el cara a cara”. Así, más de un 70% declara que en su centro de enseñanza no le adiestran sobre seguridad y autoprotección en internet. Y más del 70% se considera mucho más hábil en internet y en redes sociales que sus progenitores, por lo que no espera aprender al respecto de ellos. Y casi un 74%, finalmente, reconoce que no le preparan para detectar bulos ni noticias falsas en internet.
El cambio de modelo de negocio de los gigantes de internet
Además de los citados, hay otros factores y cambios. Las más grandes empresas de tecnología han mutado sus modelos de negocio, desde la venta de software como producto (y los contenidos digitales producidos con él) a la prestación de servicios basados en la nube (cloud computing), o ‘software como servicio’ (SaaS). De hecho, Google, Facebook, Amazon y Netflix, incluso Microsoft, en gran parte, IBM, y muchas más, se han convertido en empresas globales de servicios más allá de fronteras, culturas e idiomas. Esto ha permitido a estas empresas superar a la comunidad del software de código abierto y liderar, de facto, el control de la infraestructura crítica actual de internet.
Uno de los grandes pilares de estos nuevos modelos de negocio, obviamente, es la publicidad, (y su retroalimentación digital inducida por los datos, tal como se usa ahora). Comparen el contenido de Wikipedia con el de cualquier red social o web de los medios y visualizarán claramente la diferencia entre cómo es una interface audiovisual de internet sin publicidad, (accesible gracias a donaciones de una comunidad de usuarios), frente a otras cuyos modelos de negocio basados en publicidad invasiva, que desde hace tiempo se salta ‘a la torera’ el uso social ‘adecuado’ y legítimo de internet; y a la que algunos citan falazmente, (incluso medios públicos), como ‘garantía’ de su independencia. No importa si su uso de los contenidos es razonable, o si solo se trata de polucionar cognitivamente nuestro cerebro, no con el propósito de informar, sino de influir para modificar nuestra conducta.
El internet social de hoy es algo más cercano al paradigma ‘homo videns’ (Sartori) que al ‘textual’ de la Galaxia Gutenberg, base, por cierto, de nuestra educación en los últimos siglos. Es obvio que lo audiovisual en relación al cerebro y a nuestra cognición, tiene reglas y capacidades muy distintas a lo textual. Un audiovisual sonoro exige concentración y la casi totalidad de la capacidad humana de atención.
Deepfakes, las nuevas formas de manipulación digital
Pero aún hay algo más, y muy decisivo. La evolución de la tecnología audiovisual combinada con la inteligencia artificial (IA) está dando lugar a lo que se adivina como un enorme salto cualitativo. Algo que creo, los padres de Internet y de la Web, que formularon también su fair use (uso justo, legítimo, o razonable) de la red, nunca hubieran imaginado: que internet se fuera a convertir, desgraciadamente, en el vector global más importante en el mundo de la falsedad y del engaño. Y lo más increíble. En algo que engaña de una forma que a los ‘engañados’ parece no importarles.
Un ejemplo es el binomio híbrido ‘audiovisual + inteligencia artificial’, que está dando lugar a insospechadas encarnaciones de lo que llamaba recientemente La Segunda Digitalización. Una de ellas son las fake news (noticias falsas), que está ya en boca de todos, en muchísimos de debates sociales y oficiosos sobre sociedad y política, e incluso sobre ética, como algo esencial, relacionadas, incluso, con importantes decisiones: como el referéndum sobre el Brexit o las últimas elecciones presidenciales. Qué papel ha jugado la combinación masiva de bots (robots de software, en internet) y de noticias falsas, programadas con propósitos malévolos, en los resultados.
Lo que no sabíamos, es que este sólo era un paso más de la complejidad digital y sus incertidumbres, que siguen creciendo sin descanso. No ayuda que en 2017 la empresa Deepfakes lanzara su aplicación FakeApp que usa el software AI-Framework TensorFlow de Google y que permite fabricar ‘falsedades profundas’ caseras casi a cualquiera, lo cual puede ser gracioso o poner los pelos de punta, según su uso.
Verdad y mentira empiezan a ser digitalmente indistinguibles
Desde el punto de vista tecnológico ya publiqué una reflexión hace tiempo, titulada Todos podemos ser postproducidos (audiovisualmente) tras analizar los primeros ejemplos de dopplegangers (dobles audiovisuales de imágenes en movimiento, totalmente convincentes), en los que, generados con una mezcla de tecnologías 3D, de vídeo y sonido sincronizado, se podía ver y escuchar a bustos audiovisuales parlantes muy realistas de Barak Obama, Daniel Craig, Tom Hanks, o George H. Bush, entre otros, pronunciar palabras o discursos que, en realidad, los protagonistas ni habían hecho, ni se atreverían a pronunciar de ninguna manera en el mundo real.
Esto ya no entra en la categoría de simples noticias falsas, sino en la nueva de deepfakes. Profundas no en el sentido del significado del término ‘profundo’ que a priori pensaríamos, sino en el relacionado con el deep learning de la inteligencia artificial, es decir, el de los algoritmos de aprendizaje profundo capaz de encontrar patrones gráficos y de reconocimiento y generación de nuevas imágenes y vídeos digitales; o en el sentido del ‘profundo’ de la Deep Web o ‘Internet profundo’, que es la parte de internet no indexada en los buscadores comerciales, que garantiza al usuario navegación e interacción desde el completo anonimato, y que es utilizada tanto para el bien como para el mal, aunque es acusada más bien de lo último.
Los nuevos avances de la inteligencia artificial y del deep learning empiezan a presentar realidades audiovisuales alternativas en forma de ‘dopplegangers’ muy realistas y totalmente convincentes para no iniciados, y cuya primera víctima es lo real y verdadero. Lo cual las convierte en una potente amenaza de engaño para nuestros cerebros emocionales. Otras víctimas propiciatorias son la creación de opinión verdadera, que antaño era dominio de los mass media tradicionales (periódicos, radio y TV) y de los gobernantes e instituciones garantes de las democracias. Y hay otra víctima central, que socialmente es la más preocupante de todas: la noción de verdad y realidad que necesitan los ciudadanos para tomar las decisiones racionales más importantes, base de la libertad individual de elegir lo que uno prefiere, por ejemplo, sobre la política en las sociedades verdaderamente democráticas en las que no debería reinar una confusión generalizada entre lo verdadero y lo falso, situación hacia la que, según parece, nos dirigimos.
Al mundo de la educación, desde ministerios o profesores universitarios a maestros y maestras de instituto o de primera enseñanza, deberíamos pedirles su más profunda reflexión (nunca mejor dicho) sobre cómo van a preparar a niños, niñas y adolescentes y enseñarles a distinguir entre la verdad y la mentira digitales, sumergidos como están casi en todo momento entre realidades virtuales verdaderas y falsas (aunque muy convincentes), sean publicitarias o no.
Llegados a este momento, en el que el presidente de la más longeva democracia moderna del mundo, que ya no necesita a la prensa para comunicarse con sus votantes (para eso tiene su perfil en Twitter), demoniza y llama “enemigos del pueblo” a periodistas que luchan porque lo verdadero llegue a los cerebros racionales de los ciudadanos, habría que pedir a nuestras instituciones de la gobernanza europea y nacional que reflexionen sobre cuál será su papel en un mundo en el que lo real y lo irreal, la mentira y la verdad, ya empiezan a ser digitalmente indistinguibles.
El antiguo ‘cuarto poder’, asociado a la prensa, que era el bastión de los principales garantes de la ‘limpieza’ y el ‘fair use’ de la democracia. Sobre su papel, en estas sociedades del siglo XXI que acabo de describir y en la que nuestras certezas están bajo mínimos, les diría a los periodistas que nunca su profesión ha tenido enfrente un reto de tal magnitud como el actual, pero que, precisamente, sería este el que podría dar mayor sentido que nunca a su rol en una sociedad democrática, que acoge hoy a desorientados ciudadanos, que nunca les han necesitado tanto como ahora.