Según el Centro de Control de Enfermedades (CDC) de los Estados Unidos, el reto de TikTok 'Balckout Challenge' consistente en aguantar la respiración hasta desmayarse, ha llevado en aquel país a la muerte a 80 adolescentes.
El caso más conocido en España no es precisamente estadounidense, es inglés, Archie Battersbee de 12 años, que para conseguir el reto decidió ayudarse con una cuerda y acabó ahorcándose. Hay otros retos peligrosos para la salud, como saltar de balcones y filmarlo, comer ingentes cantidades de miel, o manipularse el dispositivo intrauterino (DIU).
TikTok, Instagram, Facebook, y hasta cierto punto Twitter nos enseñan el contenido que es más probable que nos interese, que consiga más engagement. Es este engagement, literalmente "compromiso" en inglés, el que hace que los usuarios estén más tiempo en la plataforma, ésta consiga más audiencia acumulada, y pueda facturar más por publicidad.
El aumento del engagament es el objetivo de los algoritmos que deciden qué contenido es ofrecido a los usuarios. Es supuestamente por este motivo que el Gobierno Chino, a través del Departamento de Control del Ciberespacio, ha obligado a las redes sociales chinas a publicar parte de sus algoritmos.
[TikTok, Alibaba y otras grandes tecnológicas chinas entregan al Gobierno chino su algoritmo]
La realidad es que lo que se ha hecho público hasta ahora no descubre nada que no fuera conocido e incluso intuitivo: el contenido propuesto se selecciona a base de las características de otros contenidos a los que el usuario ha hecho "me gusta" o ha pasado más tiempo visualizando.
En las plataformas de comercio electrónico hay algunas diferencias, pero la filosofía es la misma: proporcionar ideas consistentes con los gustos del navegante. Puede que el Gobierno chino haya accedido a más detalles, pero lo publicado hasta ahora era de sobra conocido.
La filosofía de las plataformas es la misma: proporcionar ideas consistentes con los gustos del navegante
El funcionamiento de estos algoritmos lleva al sesgo de confirmación (sólo vemos noticias consistentes con nuestras ideas apriorísticas) y a las consiguientes burbujas de información en las que toda información que recibimos reafirma nuestras ideas.
Las implicaciones en el caso de la política son conocidas y preocupantes, pero más lo son los efectos en la salud de las personas. Hay burbujas que contienen, por ejemplo, solamente personas anoréxicas y extremadamente delgadas que proporcionan "trucos" para no ganar peso y cómo ocultar a la familia el escamoteo de comida.
¿Deberían los Gobiernos intervenir y hacer a las empresas responsables de los contenidos considerados dañinos para las personas? En principio, parece claro, pero la implantación de tal medida dista mucho de ser obvia.
Estados Unidos exime a las plataformas de responsabilidad sobre lo que en ellas se publica
Para empezar, en Estados Unidos que es la sede de la mayoría de las empresas a que nos referimos, existe la denominada "Section 230 del Communications Decency Act" que, a diferencia los tradicionales medios de comunicación y en aras de la libertad de expresión, exime a las plataformas de responsabilidad sobre lo que en ellas se publica.
La responsabilidad es de la persona que lo publica, no de la empresa tecnológica que hace posible su difusión. Hay algunas limitaciones, como la publicación de material que contravenga las leyes federales o promuevan el tráfico de personas, pero son complejas de aplicar.
Otra complejidad deriva de quién es la responsabilidad sobre la decisión de qué es y qué no es dañino. Ha habido decisiones mediáticas, como la de Twitter de cancelar la cuenta del expresidente Trump, que suscita a debatir si los ejecutivos de una empresa privada tienen derecho a expulsar a una persona de una plataforma que se ha convertido casi en un servicio público utilizado por 400 millones de personas, de las que un 48% lo usan para informarse de las últimas noticias.
Una empresa privada puede hacer lo que le parezca, y el expresidente Trump no tiene coartada su libertad de expresión ya que puede dirigirse a sus seguidores por otros medios, pero el poder de los ejecutivos de estas plataformas debería ser examinado cuidadosamente.
Una posible salida a este conflicto de responsabilidad-libertad de expresión sería obligar a las plataformas, que saben perfectamente las etiquetas de las publicaciones peligrosas, a marcar los contenidos dudosos como posibles fraudes de información, y en las burbujas de información insertar videos de las publicaciones de ayuda a las personas que sufren las patologías.
Una posible salida a este conflicto de responsabilidad-libertad de expresión sería obligar a las plataformas a marcar los contenidos dudosos
Algunas empresas intentan autorregularse. Por ejemplo, Meta con sus servicios Facebook e Instagram, examina todo el contenido publicado con sistemas de inteligencia artificial que detectan contenido sospechoso y lo marcan para que una persona lo examine y decida si debe seguir en la plataforma o ser borrado.
Es un sistema a posteriori, con lo que el contenido se puede haber viralizado en otras plataformas antes de ser eliminado. Poner estos filtros antes de la publicación supondría un retraso en la publicación de contenidos, rebajando la inmediatez de aplicaciones que requieren comentarios en tiempo real.
En contraste a los Estados Unidos, la Comisión Europea acaba de aprobar la Ley de Servicios Digitales que tiene como objetivo abordar los daños provocados por las redes sociales al exigir a las empresas que controlen sus plataformas de manera más agresiva en busca de contenido ilícito o se arriesguen a multas de miles de millones de euros.
Las empresas tecnológicas se verán obligadas a establecer nuevas políticas y procedimientos para eliminar el discurso de odio, la propaganda terrorista y otros materiales señalados como ilegales por los países de la Unión Europea. Pero es más fácil legislar que aplicar las leyes promulgadas.
No hay soluciones perfectas a gusto de todos, pero encontrar una que satisfaga a la mayoría de los implicados es el reto de gobernar para el que la sociedad elige a los políticos.
En cualquier caso, solucionar los problemas expuestos es una necesidad de bien común, y requiere acciones a todos los niveles de la sociedad: personas, empresas, instituciones y gobierno.
Los gobiernos deben legislar adecuadamente para proporcionar a las empresas, instituciones educativas y familias las herramientas, tanto positivas como coercitivas, para poder educar a niños y jóvenes sobre los peligros de la desinformación y las burbujas informativas. Y las personas debemos ejercer la responsabilidad que como elementos de una sociedad madura se espera de nosotros, incluyendo el imprescindible control parental.
*** Josep Valor Sabatier, cátedra Indra de Estrategia Digital, IESE.