La  ‘Economía de datos’ en la Segunda Digitalización (I)

La ‘Economía de datos’ en la Segunda Digitalización (I)

La tribuna

La ‘Economía de datos’ en la Segunda Digitalización (I)

Este nuevo paradigma proporciona servicios personalizados a distancia, pero fuera del control del usuario

4 marzo, 2020 11:00

Hace ahora algo más de una década, Chris Anderson, cuando aún era editor jefe de Wired, se declaraba asombrado por el advenimiento de la era de la informática sobrehumana. Le llamó la Era de los petabytes. Entonces, confieso que no acabábamos de pillar del todo el sentido a sus palabras y, a veces, nos parecían algo exageradas.

Recuerdo que quedé fascinado por una rupturista propuesta suya publicada en 2004 a la que llamó The Long Tail: Why the Future of Business Is Selling Less of More (La Larga Cola: Por qué el futuro de los negocios está vendiendo menos o más). Aquel artículo explicaba, en el momento en que Amazon celebraba su primera década de existencia, por qué con un catálogo online de dos millones de ítems, la suma de las ventas de productos menos vendidos que formaba una larga distribución, suponía un negocio mayor que el de las ventas de la suma de los productos más vendidos de la empresa.

Fue una novedad absoluta. No había catálogos de producto online de esa dimensión, y además, echaba por tierra todo lo que acostumbrábamos a ver en establecimientos físicos y grandes almacenes con recomendaciones 'encubiertas' en murales tipo 'los 10 libros más vendidos'; 'los 40 principales', etc. siempre falseados, pero sobre los que se apoya el marketing desde entonces.

Que Anderson era un visionario ya lo sabíamos. Ya nos hablaba de la computación en la nube, aunque realmente no éramos conscientes de hasta qué punto la informática se dirigía a toda velocidad hacia una computación de dimensión sobrehumana que iba a cambiar el mundo. Por aquel entonces, aún nos mirábamos en el internet ideal de la Wikipedia, que nos parecía algo casi adorable y artesanal.

He vuelto estudiar a fondo toda aquella información (y la posterior) y me he llevado varias sorpresas.  Amazon tenía, entonces, sólo dos millones de productos en su catálogo. En 2020, vende 12 millones de productos propios que se integran en un catálogo de ¡353,7 millones de productos! (excluyendo libros, vinos, media digital y servicios) de ¡688.690 marcas distintas!. Sus usuarios activos suman más de 300 millones (de ellos, 103 millones son Prime). Las cifras económicas actuales de Amazon son impresionantes.

Netflix, por su parte, en febrero de 2007, entregó su DVD físico número mil millones. En 2018, ya disponía en su servicio de streaming de un catálogo de 1.569 series y 4.030 películas (llegó a tener 6.755 en 2010). En 2017, sus usuarios visionaron más de 1.000 millones de horas semanales de audiovisual. Los servicios de Netflix acaparan el 20% de la capacidad de la banda ancha usada este año en todo el mundo. Hoy tiene más de 167 millones de suscriptores de pago y recauda 14.000 millones de dólares anuales. Y el mercado bursátil la valora en 170.000 millones dólares.

Obviamente, estas empresas no solo comercializan y gestionan productos o contenidos. Sobre todo, manejan múltiples datos y metadatos (datos de contexto e información sobre los propios datos) de millones de usuarios, además de los que se producen de la interacción entre ellos y con los contenidos. Esta información se gestiona mediante una infraestructura descomunal de centros de datos (granjas de servidores) y redes desplegadas por todo el planeta. Y eso tiene muchas, muchas, consecuencias para todos.

Un diluvio de datos digitales

Estas empresas globales basadas en la red están articulando una economía diferente. YouTube, por ejemplo, con 2.000 millones de usuarios (30 millones diarios) y con 50 millones de youtubers que crean y suben sus vídeos a un ritmo de 500 millones de horas cada día. O Instagram, con más de 1.000 millones de usuarios (de sus 500 millones) que publican diariamente más de 100 millones de fotos. Sin olvidar a Facebook, con 2.500 millones de usuarios activos mensualmente todo el mundo. En definitiva, casi la mitad de la población mundial (3.030 millones de personas) ya está conectada a internet y participando en alguna red social. Y estos datos se traducen en petabytes. 

Un byte es la información de ceros y unos necesaria para representar una letra; 10 bytes son los datos digitales de una o dos palabras; 1000 bytes (un kilobyte) es lo que ocupa una historia muy corta; un megabyte (un millón de bytes) contendría los datos del texto de una novela completa; en 10 megabytes caben los datos de dos copias de la obra completa de Shakespeare; un gigabyte ocuparía una furgoneta llena de páginas con texto. Y un terabyte equivaldría a los datos de las páginas de texto elaboradas usando la madera y celulosa de 50.000 árboles. Pues bien, sólo Google puede almacenar un millón de veces todas esas páginas, o sea, la información contenida equivalente a las páginas de texto de papel impreso que se podrían fabricar con 50.000 millones de arboles. Nada menos.  

Son cantidades nunca vistas y que casi no podemos imaginar. El propio Anderson, lo advirtió en 2008: "A medida que nuestra colección de hechos y cifras crezca, también lo hará la oportunidad de encontrar respuestas a preguntas fundamentales. Porque en la era de los grandes datos, más no es sólo más. Más es diferente". Esta masa crítica de datos está generando algo diferente, una informática distinta; en suma, una economía diferente, la nueva 'Economía de los datos'.

Los petabytes quedan fuera de nuestro alcance personal propio. Hace falta que los almacenemos en la nube. Necesitamos un centro de datos (data center) con su granja de servidores. Es el big data (macrodatos). No es una informática a la que se le puede poner el adjetivo de 'personal' como hicimos con nuestro ordenador de sobremesa, portátil o teléfono inteligente. Incumbe siempre a otros. Los centros de datos nos proporcionan servicios personalizados a distancia para casi todo, pero sin nuestro control.

La 'economía de los datos digitales masivos'

Nuestro control personal sobre la información que poseíamos en formato digital deja de ser posible y pasamos, sin poderlo evitar, al dominio de la computación del cloud que nos impone obligatoriamente otras reglas. El control de nuestros datos se transfiere a quien posee los centros de datos y los gestiona.

Viktor Mayer-Schönberger, profesor de Gobernanza y Regulación de Internet en el Oxford Internet Institute, publicó junto con el escritor y periodista Kenneth N. Cukier, en 2015, un libro con un título muy significativo: Big Data: Una revolución que transformará la forma en que vivimos, trabajamos y pensamos. ¿La computación va a cambiar nuestra forma de pensar más allá de nuestras decisiones? Eso parece.

En la obra, los autores hacen esta interesante reflexión: "Desde Aristóteles, hemos luchado por entender las causas que están detrás de todo. Pero esta 'ideología' se está desvaneciendo. En la era de los grandes datos, podemos obtener una cantidad humanamente inabarcable de información, que nos proporciona una visión inestimable sobre el qué en lugar del por qué". 

Con el manejo adecuado de los datos digitales a gran escala y usando la estadística computacional masiva, se logran extraer patrones y significados, que proporcionan un poder inmenso a quien los posee y es dueño de esta tecnología. 

El método consiste en usar algoritmos de machine leerning y deep learning, propios de la inteligencia artificial. Para muchas cosas, ya se pueden dejar de buscar modelos. Así que se pueden analizar los datos sin hipótesis sobre lo que podría mostrar. Ya es posible subir masivamente datos en los mayores centros de computación del mundo y dejar que los algoritmos estadísticos encuentren patrones donde la ciencia no puede encontrarlos.

¿Una pérdida de libertad personal?

Mayer-Schönberger y Cukier se hacen preguntas decisivas como si serán las máquinas, en lugar de las personas, las que tomen la mayor parte de las más importantes decisiones o qué pasará con la privacidad. Son cuestiones que invitan a una reflexión profunda y que no tienen una fácil respuesta, pero que hemos de afrontar.

Tim O'Reilly advierte en su último libro, La Economía WTF*, de que "nos dirigimos desordenadamente hacia un mundo modelado por la tecnología, de una manera que no entendemos, y sobre lo que tenemos sobradas razones para el temor". 

Respecto a la 'pérdida de control' del usuario, afirma que "ocurre cada vez más que los humanos, crecientemente, somos los que trabajamos para los ordenadores. El algoritmo es el nuevo jefe de turno". Por supuesto, con esos algoritmos también tienen sus efectos positivos: rastrear las señales vitales para prever infecciones mortales, predecir los incendios de edificios, anticipar el mejor momento para comprar un billete de avión, avanzar diagnósticos de probables enfermedades, conocer la inflación en tiempo real y monitorizar los medios sociales para identificar tendencias.

Como toda tecnología, los macrodatos pueden usarse con fines terapéuticos, pero también con objetivos inconfesables o nefastos. E incluso para generar nuevas injusticias, como la nueva injusticia algorítmica o una nueva y enorme 'industria de la intención'.

Además, podrían originarse -ya está ocurriendo- ciertas desigualdades de nuevo cuño. Una empresa con capacidad para recolectar muchos datos digitales puede hacer un uso muy avanzado de la inteligencia artificial para atraer a más usuarios, que a su vez le suministran más y más datos para sus estrategias de digitalización, acompañadas de una continua absorción de información desde mecanismos intensivos, omnipresentes y engañosos como las cookies.

Obviamente, las instituciones públicas, los gobiernos democráticos y los legisladores deberían pronunciarse con suma urgencia. De la nueva Estrategia Europea para los Datos hablaremos en la siguiente entrega.

Ignacio Garralda, presidente de Mutua Madrileña.

Mutua ganó 289 millones en 2019, un 8,3% más, gracias al liderazgo en no vida

Anterior
Uno de los molinos eólicos de Acciona.

Acciona sube un 8% mientras KKR negocia su salida de la filial de energía

Siguiente