Interfaz del software de 'Sourveillance' con IA de la empresa china SenseTime en una tienda de Pekín.

Interfaz del software de 'Sourveillance' con IA de la empresa china SenseTime en una tienda de Pekín.

La tribuna

Privacidad no es lo mismo que secreto

17 mayo, 2019 07:00

Todo el mundo debería saber que los artefactos digitales están programados. Hemos de entender, y tener en cuenta, que los programas de software y la tecnología que hacen funcionar hoy casi todo no son algo neutro. Se despliegan con una intención, determinados tipos de 'ideología', y con unos fines, buenos o malos, según para quién, que no son inocentes. Toda tecnología tiene un objetivo y nosotros, los usuarios, deberíamos siempre saber cuál es su propósito antes de que comencemos a usarla, así como qué consecuencias puede tener hacerlo.

Está ya diáfanamente claro que es imprescindible aplicar el pensamiento crítico a nuestro uso de las tecnologías. Hemos de tomar conciencia sobre que, en esta sociedad hipertecnologizada, nuestro uso de una determinada tecnología no debe ser algo inevitable, por muy de moda que esté o por mucha gente que veamos sucumbir a ella, a nuestro alrededor.  No podemos caer en la ‘resignación digital’. No todo lo que se puede hacer en tecnología, se tiene que hacer. Y que no todo lo que permitiría la tecnología es éticamente aceptable.

La justicia es a la ética lo que la verdad a la ciencia

La Declaración Universal de los Derechos Humanos dice en su artículo 12: “Nadie debe ser objeto de injerencias arbitrarias en su vida privada, familia, hogar o correspondencia, ni de ataques a su honor y reputación”. Este artículo, como otros de esta declaración, se han incorporado a las regulaciones de países democrático y ha pasado de un ámbito público y social al de los derechos individuales.

Eso genera nuevos conflictos. En el despliegue y estrategias de los gigantes de internet se puede observar claramente una enorme confusión sobre lo que en el ámbito tecnológico es legal o ilegal, y lo que es justo e injusto para los usuarios de las tecnologías, cuyos derechos individuales y locales no son tenidos en cuenta desde lo global, o son orillados mediante toda una arquitectura de ingeniería creativa legal (con trucos tipo ‘el consentimiento informado’. Esto es posible porque las regulaciones estatales son aún insuficientes para ampararnos en el ámbito global.

Mi opinión es que necesitamos evolucionar nuestra cultura sobre el ámbito tecnológico global en relación a lo que es ético o aceptable, y lo que no. Hemos de considerar a lo global, no como algo ‘del extranjero’, sino algo que afecta a nuestra cotidianidad local. Es un ámbito en el que se debería aplicar aquel principio que John Rawls incluyó en el prólogo de su libro La teoría de la justicia: “La justicia es a la ética lo que la verdad es a la ciencia”.

La reciente ley de la Unión Europea sobre GDPR ha generado un cambio de nivel de transparencia inusitado para lo que estaban acostumbradas las empresas globales y nos ha mostrado, por ejemplo, en el caso de los permisos para usos de las cookies de las páginas web, la ingente maquinaria orwelliana de recaudación de datos y metadatos integrada en cualquier sitio web que visitemos. El mecanismo de las cookies ha convertido a muchas entidades públicas, incluso universidades, entre otras razones por la ignorancia supina de sus gestores sobre lo digital, en cooperadoras necesarias para alimentar la inmensa, insaciable y opaca industria del comercio global de datos.

¿Cómo ‘vigilar’ a nuestros vigilantes?

Existe un gap lingüístico y de significado entre el término "sourveillance", cuya traducción literal es vigilancia, y lo que debería significar ahora en español, teniendo en cuenta lo que está sucediendo con ello en el actual mundo digital. Cuando decimos ‘vigilancia’, en español, de inmediato nos viene a la cabeza la idea de un vigilante humano observando en alerta. Verbigracia: un soldado mirando desde una garita; o un guardia de seguridad controlando quién entra por una puerta de una sucursal bancaria, o si alguien se mueve por un espacio que él está encargado de vigilar.

Sin embargo, basada en la sourveillance, que también podríamos calificar de seguimiento, se ha construido recientemente una gran industria global de la vigilancia o seguimiento ubicuos (en cualquier momento y lugar). La mayoría de los negocios de los gigantes de internet están basados en el comercio y uso para generar publicidad personalizada de la gestión indiscriminada de grandes corpus de datos y metadatos (contextos sobre ubicación, atribución e identificación personalizada), procesados mediante tecnolog  cos humanosal; de datos biomñés biomñgocios basados en tecnolog una puerta a la suq estça vigilando. Si embargo, ya hay modelsías de inteligencia artificial, reconocimiento facial y la captura personalizada de datos biométricos humanos, etc. Con la combinación de tecnologías big data se obtiene, procesa y recombina todo ello, mediante los dispositivos electrónicos correspondientes (cámaras de filmación en exteriores e interiores; o integradas en todo tipo de artefactos, desde ordenadores, o tabletas hasta la gama completa de los móviles inteligentes, con varias cámaras y micrófonos susceptibles de ser activados a distancia sin que el usuario lo sepa).

Las ubicaciones, movimientos y conductas de cientos de millones de personas en el mundo, que ni siquiera son conscientes de ello, son objeto de esos seguimientos y , además, como no tienen posibilidad de impedirlo, lo aceptan sucumbiendo a la ‘resignación digital’. Esto te puede suceder en cualquier aeropuerto de China; o de otros países, como España en cuyo aeropuerto de Menorca, Aena ha empezado a ensayar y ha desplegado tecnologías de reconocimiento facial sin consultar a viajeros alguno. Tus movimientos ya son registrados, analizados y tu rostro ‘reconocido’ por las cámaras del aeropuerto, mediante tecnologías de deep learning (aprendizaje profundo en reconocimiento de imágenes) e inteligencia artificial, por encima de que tú lo desees o no, y más allá de que te parezca adecuado o justo o injusto.

Ni siquiera Orwell, en su distopía, llegó a imaginar algo de esta dimensión. Y lo peor es que no parece posible hoy por hoy que, frente a los gigantes de internet que registran, almacenan, usan y comercian con nuestros datos, tengamos posibilidades de articular algún tipo de ‘subvigilancia’, o sea una capacidad de ‘vigilar a nuestros vigilantes’.

Privacidad y secreto no son lo mismo

Cómo decía Fábio Esteves en un post reciente, decir “no tengo nada que ocultar”, no es cierto, pero tampoco realista, ni práctico. No debemos confundir la privacidad con el secreto. Y añade: “Sé lo que haces en el baño después de entrar, pero aún así cierras la puerta. Eso es porque quieres privacidad, no secreto”. Y señala: “Seguro que tienes una contraseña propia de acceso a tu teléfono. Lo mismo ocurre con tu correo electrónico. Nunca nadie me da su teléfono para que pueda leer en él sus chats o ver sus fotos. Si no tuvieras nada que ocultar, no te importaría. Pero te importa. Y todo el mundo lo hace. Eso es porque tu privacidad es algo que forma parte de lo que te hace humano”.

Tu información tiene mucho más valor de lo que podrías creer. Empresas como Facebook y otros gigantes de internet te permiten subir y editar información y datos ilimitadamente a sus servidores, de forma gratuita. Pero, en qué basan su modelo de negocio; y lo más importante, ¿cómo consiguen ganar tanto dinero? Pues vendiendo toda la información que producimos conectados, y se la regalamos sus millones de usuarios.

Hay ejemplos que dan escalofríos. Voy a contar un caso sucedido con un objeto tan aparentemente inocente como un juguete. Describe el caso Shoshana Zuboff, exprofesora de Harvard Business School en su último libro: The Age of Surveillance Capitalism. Es el de Cayla, una bonita muñeca de pelo largo, chaqueta vaquera y pequeños zapatos rosas. Pero que viene equipada con un micrófono, una app con bluetooth y tecnología de reconocimiento de voz integrada. El producto se llama Mi amiga Cayla y se publicita como capaz de presentarse y proponer actividades divertidas. Hace un tiempo, una asociación de consumidores descubrió que cuando alguien le hace preguntas a Cayla, las conversaciones se almacenan en un servidor propiedad de Nuance Communications. Pues bien, resulta que ya hay pruebas de que esa empresa vendió “datos biométricos de voz”, incluso a agencias militares y de inteligencia. Y algo serio sucedió después. Al hacerse públicos los problemas de privacidad que originaba el Gobierno alemán lo prohibió en 2017. Pero la muñeca todavía está disponible a la venta en EEUU.

La conclusión de Zuboff sobre este caso es escalofriante. Señala que esta muñeca es otro ejemplo más de cómo las cadenas de suministro invisibles crean mercados a partir de datos de conductas de personas, en este caso, niños y niñas. Cada fragmento de las conversaciones cuando la niña juega con Cayla acaba en un servidor. Esos datos se comparten con terceros, que pueden venderlos a otra organización. Ni la niña ni sus padres sabrán nunca adónde van a parar los datos, ni con qué fin. Y concluye: “Las niñas están jugando, algo que forma parte normal de su vida. Pero esas vidas están siendo ‘desnudadas’ para obtener datos, igual que un elefante podría ser sacrificado para obtener sólo su marfil... y ¿qué somos en esta ecuación?”, se pregunta Zuboff. Y ella misma responde: “No somos el marfil. No somos lo que se caza furtivamente. Somos el cadáver que queda atrás”.

En su libro, Zuboff describe también las consecuencias del Surveillance Capitalism. Lo considera una “mutación obscena del capitalismo”, que está creando una nueva lógica económica que asedia a la sociedad contemporánea, incluye asaltos al espacio personal, el ‘seguimiento ubicuo’ y la llamada “paradoja de la privacidad” (inconsistencia entre las preocupaciones de las personas con respecto a la privacidad y su comportamiento final). A esto se suman las noticias falsas (fake news), la creciente gobernanza algorítmica, la adicción a medios sociales y smartphones, la abrogación de los derechos humanos, y el posible uso del internet social para fines de desestabilización democrática. Por ahora, en el enfrentar estos enormes retos estamos asistiendo a un verdadero fracaso legislativo y regulatorio de los poderes públicos, cuyos titulares locales, hoy por hoy, siguen siendo, más allá de los usos de la mercadotecnia electoral y la publicidad, verdaderos analfabetos digitales. Nos enfrentamos a un nuevo y enorme reto que les incumbe, pero también a todos nosotros como parte de la sociedad.

Konrad Bergström, CEO y fundador de X Shore, a bordo de su barco eléctrico.

La ingeniería del ‘Tesla’ del mar

Anterior
Konrad Bergström, CEO y fundador de X Shore, a bordo de su barco eléctrico.

La ingeniería del ‘Tesla’ del mar

Siguiente