Esta semana, la Agencia Española de Protección de Datos (AEPD) anunció que investiga ciertas plataformas digitales por el uso de “patrones adictivos” para enganchar a los usuarios. La semana anterior, el Ministerio de Transformación Digital anunció el ya célebre ‘pajaporte’, su sistema para controlar el acceso de menores a webs porno. Y el 4 de junio se aprobó el anteproyecto de ley de protección de menores en los entornos digitales.

Son acciones aparentemente inconexas que en realidad tienen mucho que ver. Todas tienen como prioridad proteger a la infancia de los perjuicios asociados a las pantallas: adicción, violencia, abusos, acoso, vulneración de derechos, daños a la integridad física y psíquica, manipulación, daños psicológicos y emocionales, discriminación, desinformación y un largo etcétera.

Probablemente hay acuerdo en que es necesario atajar estos problemas, pero la manera de abordarlo por las diferentes instituciones es problemática. Los mensajes que se envían a la ciudadanía parecen poner la carga en los usuarios, bajo la premisa de que el móvil tiene la culpa de todo. Por tanto, en el caso de los menores, también la tienen quienes les tutelan -los padres y profesores- por dejarles acceder a estos dispositivos que parece cargar el diablo.

Esta narrativa es profundamente problemática, por dos motivos principales. El primero, que les revictimiza y condiciona negativamente la toma de conciencia y responsabilidad. El segundo, que desvía el debate de la raíz del problema: el modelo de negocio de las plataformas digitales. ¿Por qué? ¿Cómo funciona este modelo, en qué se basa y por qué es problemático? ¿Y, en última instancia, cómo proteger y protegernos, evitando el señalamiento?

Fábricas de ‘yonquis’ digitales

Comencemos por el cómo. ¿Cómo nos enganchan las redes sociales y aplicaciones online? Mediante incontables recursos de diseño. Entre ellos están el llamado 'scroll infinito' (la posibilidad de desplazarse hacia abajo para ver contenido todo el tiempo), la reproducción automática de historias y vídeos uno detrás del otro, y los llamados “patrones oscuros” que nos llevan a hacer clic o a suscribirnos en cosas sin querer, o que hacen casi imposible cancelar una suscripción.

Pero también hay muchos otros elementos: los “me gusta”, la posibilidad de comentar y compartir, las notificaciones, la posibilidad de etiquetar a amigos, las recomendaciones de nuevas amistades, la creación de grupos privados, el chat instantáneo, las noticias recomendadas, las listas de tendencias, o los puntos suspensivos mientras alguien escribe para que sepamos que está al otro lado y no desconectemos.

Siempre hay algo más, y esto lleva al FOMO o miedo a perderse algo, y también a la adicción al móvil, y a la nomofobia: la fobia a no tener el smartphone cerca o a perderlo, que es un problema prevalente en España y afecta a entre un 70% y un 80% de la población, según diversos estudios.

¿En qué se basan las técnicas para engancharnos y por qué surten efecto? Hay toda una ciencia detrás de ello, que emerge de la llamada 'captología': la ciencia de la tecnología persuasiva, o de cómo automatizar la persuasión. Esta se basa en cómo funciona nuestro cerebro y el comportamiento humano, nuestros instintos individuales y sociales, qué cosas nos producen sensaciones placenteras y liberan dopamina, y cómo funcionan los sesgos cognitivos (los atajos cerebrales más frecuentes).

En base a todo ello, se decide cómo se diseña cada interacción con una plataforma, los colores, los botones, los tipos de letra, las imágenes… absolutamente todo. No es casual, por ejemplo, que los gigantes tecnológicos decidieran incorporar notificaciones para avisarnos de cosas que, según su algoritmo, no deberíamos perdernos, y que estas se manifiesten en forma de números en un globo rojo emergente. Aprovechan nuestro instinto irrefrenable de saber qué espera al otro lado de ese recuento. Tampoco es casual que los botones de “suscribir” sean más grandes y coloridos que los de “cancelar suscripción”. Hay infinidad de ejemplos.

Todo esto alcanza su máximo esplendor en forma de bucles lúdicos similares a los que se usan en el mundo del videojuego: cajas de recompensas aleatorias con gran capacidad de enganche (como las tragaperras), que potencian los comportamientos impulsivos. La clave para su adictividad es que, al ser algo placentero para el cerebro, este libera dopamina, aprende que esa actividad es gratificante, y pide más de lo mismo.

Este análisis es un breve resumen basado en lo que explico en mi libro ‘Error 404’ (Debate, 2021). Coincide en gran parte con lo que explica también la AEPD en su informe ‘Patrones adictivos en el tratamiento de datos personales’.

Modelo de negocio extractivo

En este punto nos preguntamos. ¿Todo esto, para qué? ¿Por qué quieren engancharnos las empresas digitales que recurren al diseño adictivo? Porque es su modelo de negocio. Sus ingresos publicitarios dependen de la atención continua de los usuarios a lo que se nos muestra.

Con ello consiguen más datos personales de cada usuario, con dos objetivos: venderlos a sus clientes para que puedan conocernos mejor y tratar de manipularnos a su antojo, y personalizar el contenido que nos muestran para que esa persuasión sea más efectiva y para que sigamos enganchados y extraer más datos. Un círculo vicioso.

Es la economía de la atención, una parte del entramado de lo que Shoshana Zuboff denomina el “capitalismo de vigilancia”. Sigue siendo capitalismo, pero bajo una nueva lógica económica regida por el aparato digital. Un patrón que se aleja de la democracia de mercado y que da forma al entorno moral y político de la sociedad del siglo XXI, en el que, sin ser violentos, ejercen una violencia sutil: invaden, violan y se apropian de nuestra intimidad.

El capitalismo de la vigilancia y la economía de la atención se sustentan en los ingresos publicitarios mediante el acceso exclusivo de los anunciantes a registros de datos de navegación de los usuarios. Unos datos (dónde estamos, qué buscamos, qué hacemos, qué compramos, qué leemos, qué escuchamos, qué emos…) que no hemos voluntariamente a compartir y que permiten inferir una amplia información personal sobre nosotros (qué nos preocupa, nuestras filias y fobias, qué enfermedades tenemos, con quién nos relacionamos, etc).

Este modelo, que convierte la experiencia humana privada en materia prima para el mercado, se ha posicionado como sistema por defecto de monetización online. Lo constata también el informe de la AEPD, en referencia a una investigación de 2019 del Comité Stigler, que concluyó que el modelo de negocio de las principales plataformas online se basa en interfaces de usuario adictivas diseñadas para mantener la atención de sus usuarios.

Vulneración de derechos

¿Por qué es todo esto tan problemático? En especial, por sus implicaciones en la violación sistemática y sistematizada de los derechos de las personas. Hablamos de privacidad, pero no solo de privacidad, porque esta es un derecho portal: abre la puerta al ejercicio de otros derechos (como la autonomía personal, la dignidad, la no discriminación, la integración social) o al de las libertades de reunión, de asociación y de movimiento.

Su incumplimiento no solo da lugar a dinámicas en que los datos se utilizan para vigilar y controlar a los pobres, sino que permite perpetuar los privilegios: fortalece las dinámicas de poder preexistentes. Por eso es tan importante.

La AEPD también hace hincapié en esto en su informe: habla de daños a la integridad física y psíquica de las personas; de discriminación, manipulación y vigilancia; de socavar la autonomía de los individuos y su derecho al desarrollo; de coartar la libertad de expresión y el derecho a la información; de injerencias electorales y desinformación, y de erosión del debate público.

El impacto trasciende a los menores y a los jóvenes. Nos afecta a todos. No hablo de los usuarios, hablo todos los ciudadanos, incluso aquellos que no están conectados, porque el impacto se traslada de lo virtual a lo físico.

Responsabilidades

Viendo el impacto de todo esto, parece bastante obvio que la culpa no es ni del móvil, ni de los usuarios, ni de los padres, ni de los profesores. Estos, y la sociedad en su conjunto, tienen una responsabilidad compartida en la solución del problema, pero no son sus causantes. Quienes sí lo son, son los oligopolios digitales y las redes sociales y plataformas que aspiran a serlo.

Por eso, en la búsqueda de soluciones, no podemos poner toda la carga de la responsabilidad en los usuarios. Limitar el tiempo de uso de los móviles y, sobre todo, de ciertas aplicaciones, es imprescindible. También lo son los controles parentales. Pero esa no es la base del problema. El móvil no es el problema. El problema es el modelo de negocio tóxico y antidemocrático de esas plataformas.

Si no fuera así, no sería necesario prohibir el acceso de los menores a ellas, con leyes -como el anteproyecto de ley de protección de menores en entornos digitales- cada vez más restrictivas; si no fuera así, el problema del acceso porno (a menudo no intencionado, propiciado por este funcionamiento tóxico) tendría una escala potencialmente mucho más pequeña. 

Si de verdad queremos atajar el asunto de raíz, debemos pensar en medidas ambiciosas y que abarquen un amplio espectro. Lo primero de todo es cortar por lo sano con el capitalismo de la vigilancia, y para ello es imprescindible -entre otras medidas- prohibir la publicidad personalizada. No a medias tintas, como hace la actual Ley de Servicios Digitales (DSA), sino por completo, para todos los usuarios y sin subterfugios para lograr el consentimiento.

¿Que de algo tienen que vivir las empresas digitales? Por supuesto, pero no de vulnerar nuestros derechos. Aquí entra la responsabilidad de los consumidores, ávidos del todo gratis. Los servicios digitales y las aplicaciones los piensan, desarrollan e implementan trabajadores que merecen ser compensados por ello. Si elegimos opciones gratuitas, nuestros datos y nuestros derechos serán el precio.

Si no le ofrecemos al frutero contarle nuestras intimidades a cambio de una sandía, ¿por qué lo hacemos con las plataformas digitales, haciendo clic en “aceptar todo”? Si quienes hoy ofrecen sus servicios de forma gratuita a cambio de nuestros datos son obligados a cambiar de modelo y a cobrar por lo que hacen, no nos quedará otra que pasar por el aro. Si bien en muchos casos ya existen alternativas respetuosas de pago que podríamos estar eligiendo sin esperar a que eso suceda.

Por otra parte, es necesario delimitar obligaciones específicas para evitar el diseño adictivo digital y los algoritmos tóxicos, forzando a las plataformas a abrir sus sistemas a auditorías externas, a incluir mecanismos de protección contra abusos y herramientas para que los usuarios puedan tomar el control sobre las interacciones que mantienen, a facilitar mecanismos de automoderación y a poner más recursos en el monitoreo y bloqueo de cuentas tóxicas, con más supervisión humana.

Las redes sociales, las plataformas de vídeo y toda la variedad de aplicaciones del ecosistema digital se pueden diseñar de forma que, en lugar de promover la adicción, promuevan el acceso a una pluralidad de ideas, el comportamiento cívico, las relaciones significativas y el entretenimiento sin violencia ni extremos, creando así un entorno más sano, civilizado y seguro para los niños y para todos los usuarios.

Realismo regulatorio

Todas estas medidas deben ir acompañadas de recursos suficientes para garantizar su cumplimiento, cosa que tampoco está pasando por el momento. Además, hay que ser conscientes de que la regulación tiene sus límites. El uso de patrones oscuros ya está prohibido en el marco de la Ley de Servicios Digitales. Y el ‘scroll infinito’ está en proceso de ello. Pero estas prohibiciones se enfrentan a retos técnicos -por la dificultad de probar ciertos aspectos- y de adherencia, cuando compensa más pagar multas que cumplir la ley.

Además, a menudo se regula sin tener en cuenta a la comunidad técnica implicada en la solución del problema. Un ejemplo claro es el caso del ‘pajaporte’. Si de verdad se quiere crear una solución útil para minimizar el acceso de menores a porno online, no se puede obviar la experticia de la comunidad de criptógrafos. Estos ya han advertido de las implicaciones en materia de vulneración de privacidad que tienen las propuestas tanto en el ámbito del acceso al porno como en el contexto más amplio del reglamento europeo eiDAS 2.0 de identificación electrónica, en el que se enmarca la iniciativa del gobierno español. Es imprescindible escuchar sus propuestas de solución e intervención. De igual modo, tampoco se puede obviar el conocimiento de las plataformas afectadas.

La regulación debe tener en cuenta estos aspectos para ser realistas con lo que se pide, y para pensar en qué otras medidas se deben poner en marcha para llegar donde no llega la ley. Por supuesto, la primera de esas medidas es la educación y la sensibilización. Aquí interviene de nuevo nuestra responsabilidad -la de todos- no solo como consumidores sino como ciudadanos, padres, hijos, maestros y miembros de la sociedad. Otro ecosistema digital es posible.