Perder las llaves de casa todavía significa tragedia y cambio de todas las cerraduras para algunas personas. Sin embargo, entregamos no ya las llaves, sino la contraseña de la alarma y los números de nuestra caja de seguridad, eso sí virtual…, sin pensarlo un segundo. No hay que ser conspiranoico -no lo soy- para entender que estamos (al menos, algo) vigilados.
Tal vez no prestemos excesiva importancia a ese Gran Hermano que ha crecido, con todas las consecuencias de una mayor responsabilidad pero también de un mayor resabio. Quizás otorguemos relevancia a los datos si manejamos un negocio. Es posible que a veces nos incordie que, vía datos, se cuelen en nuestra vida para vendernos cualquier objeto. Seguramente nos molesta que tras comprar una bobería nos pidan nuestro número de teléfono. Puede incluso que nos neguemos.
Pero siendo esto trascendente, el fenómeno adquiere otros tintes cuando esos datos se convierten en un arma de destrucción más poderosa que un veneno. Y si no, que se lo digan a la periodista rusa Oksana Baulina, o mejor a su familia, porque ella ya no puede contestar nada, muerta por un misil de precisión lanzado por sus compatriotas.
En otra época, quizás hubieran vertido veneno en su té. Pero estamos en 2022 y Baulina era seguida sin seguimiento, o mejor dicho con seguimiento digital a través de huellas dejadas por ella misma, como cookies aceptadas en alguna web o cualquier rastro de su teléfono, geolocalizado incluso apagado. El suyo y el de cualquiera. Salvo que el suyo era interesante para el ejército ruso, a cuyo gobierno se había opuesto.
Por ello, el coche en el que viajaba fue localizado, alcanzado por un cohete de alta precisión y destruido. No el de delante ni el de detrás, no, el suyo… Por eso no es absurdo afirmar que el dato personal puede ser hoy el nuevo veneno.
Todos estamos aceptando cookies continuamente, lanzando mensajes al universo, con nuestra actividad, nuestra localización, nuestros gustos, nuestros movimientos. Nada nuestro es ajeno. Estamos permanentemente conectados. Leía hace poco un estudio que contaba que en un minuto se había posteado 578 millones de tuits, subido 65 millones de fotos a Instagram, realizado cinco mil millones de búsquedas en Google. Se nos antojan actos ingenuos.
Sin embargo, para muchas empresas equivale a dinero. Nos parecen actos gratuitos, pero podríamos estar pagando un precio caro, aunque aplazado, porque no sabemos de su valor en un futuro, tanto a corto, como a medio o a largo. Para hablar de algoritmos y sus bondades y maldades, también de datos y sus propiedades, me he reunido con Patricia Benito, directora general de Openbank; Marta Colomina, directora general de la Fundación PWC y directora de marketing, RSC/ESG de PWC, así como a la divulgadora y especialista en tecnología y digitalización, Silvia Leal.
Silvia Leal.- Gratis no hay nada. Si no te cobran es porque el producto eres tú. Les va a permitir rentabilizar el uso de esas máquinas, ese software, las personas dedicadas a resolver posibles incidencias…
Marta Colomina.- De las diez mayores compañías del mundo, varias son tecnológicas: Facebook, Microsoft, Google… Los datos son fundamentales para ellas, para la publicidad. Ahí radica su rentabilidad.
Patricia Benito.- Las empresas mencionadas basan su modelo de negocio en la publicidad y esta trata de dar soluciones a los consumidores. En los medios clásicos teníamos segmentaciones en televisión y radio, por ejemplo, en base a regiones o ha contenido específico, pero ahora vamos a la microsegmentación. Estamos impactando al individuo. El coste de la tecnología de almacenaje es bajo, y eso ha permitido tener muchos datos de los consumidores.
Solo por dar un ejemplo, en Openbank contamos con setenta mil datos anonimizados (no usamos nombres, no sabemos quiénes son) de los usuarios y creamos campañas personalizadas y así podemos prescribir mejores productos. De esa manera, se combina un bajo coste de la nube con modelos de negocio basados en la personalización de campañas y recomendaciones de productos.
Charo Izquierdo.- Es decir, que lo que se ha dicho que los datos son el petróleo del siglo XXI es real.
S.L.- Un petróleo maravilloso, pero hay empresas que se están dedicando a comprar datos y, si no saben gestionarlos, lo único que hacen es acumular información que les cuesta guardar y rentabilizar.
M.C.- Es una fuente de riqueza que va más allá de la publicidad. Los datos ayudan a tomar mejores decisiones. Por ejemplo, en temas sociales; pueden ayudar en un conflicto bélico, en una catástrofe ambiental. Los móviles permiten predecir movimientos de personas, es posible intuir por ejemplo dónde habrá desembarcos de pateras para tener equipos de rescate.
P.B.- La clave son los usos y cómo se analizan, que es algo que deben hacer tecnólogos que sepan entrenar al algoritmo. Porque no hay algoritmos buenos o malos, sino casos de usos.
M.C.- Yo sí creo que hay malos algoritmos, los mal diseñados. Puede ser porque la muestra no es representativa y entonces habrá sesgos, o porque no son transparentes en la toma de decisiones, o por no ser robustos, de modo que pueden atacarte… por no tener en cuenta la privacidad. Y hay algoritmos malos porque no observan un comportamiento ético.
S.L.- Mal diseñados y con un entorno no favorable para que sea ético. Ojo porque hay que tener cuidado también con dónde están basados quienes manejan los algoritmos y el idioma.
Ch.I.- No es solo cómo están diseñados, sino cómo aprenden y si en ese aprendizaje se pueden malograr.
M.C.- Cómo se utilizan, hay veces que para determinados temas, especialmente vinculados a colectivos vulnerables sería mejor que no se usaran. En temas que afectan a la vida de las personas no puedes dejarlo todo a un sistema automatizado.
Ch.I.- No solo automatizado, sino que también tarda en aprender.
S.L.- Esto tiene un matiz (gran reto de la ciencia) que es que un algoritmo aprende y cuando avanza en el tiempo no te da explicaciones de lo que ha aprendido. Por ejemplo en aplicaciones para buscar candidatos, puede rechazar a alguien y no saber aclarar el porqué. Los algoritmos aprenden de la experiencia. Usan su propia lógica. Hay técnicas y muchos proyectos tratando de resolverlo.
P.B.- Pero sí es importante ver cómo lo entrenas. Nikon entrenó en Europa un algoritmo para ver cómo quedar mejor en las fotos y cuando se probó en Asia recomendaba abrir los ojos…, porque no está entrenado a nivel global. En el tema de inversiones, si no lo corrigiéramos ¿quién compraría un producto?
Pues cogería los datos históricos y se los vendería a los hombres, que son los que más han invertido en un tipo de producto. Lo que hemos hecho es tener auditorías y comités éticos para revisar los algoritmos y que no salieran sesgados. Es decir, sí se pueden corregir y mientras aprenden es factible seguir corrigiendo.
"Tenemos que enseñar a los niños a enfrentarse a este mundo"
S.L.- Como los niños, tienes que vigilar.
M.C.- Hay que contar con equipos preparados, no vale solo tecnólogos. Se están haciendo dos cosas. Por un lado, dar formación a estos en valores, en tema de sesgos, para que sean conscientes cuando programan. Y por otro se están incorporando perfiles especializados en ética y filosofía, para que puedan trabajar conjuntamente, teniendo en cuenta que en el algoritmo, como cualquier tecnología, hay que poner en el centro a la persona.
S.L.- Curiosamente vamos a un mundo más digital que abre las puertas a las humanidades.
P.B.- Pongo un ejemplo que muestra estos sesgos, en Google translate (la herramienta de traducción), al principio, idiomas como el turco que es neutro en género, te decían “ella es cocinera”. Cocinero es neutro, pero las profesiones donde hay más mujeres te las traducía en femenino y en las que hay más hombres, en masculino.
S.L.- O Siri que le decías que te querías suicidar y te daba las indicaciones. Ahora ya no lo hace. Aquí hay un aprendizaje, y es que todas las tecnologías necesitan personas detrás.
Ch.I.- Entre otras cosas por este problema de sesgos de género, es importante que las mujeres estudien carreras STEM (Ciencias, Tecnología, Ingeniería y Matemáticas, por sus siglas en inglés). ¿Serán una ayuda para que haya menos estereotipos en el algoritmo o no?
P.B.- Creo que estamos más sensibilizadas. Tenemos además data scientists en España súper relevantes, y es importante que estemos ahí para corregir estos sesgos.
M.C.- Se va a producir una oportunidad laboral y ahí también queremos estar las mujeres.
S.L.- Es el puesto de trabajo más sexy del siglo XXI, por la satisfacción personal y la remuneración mensual.
Ch.I.- Al ser las carreras mejor remuneradas, si las mujeres se enganchan, eso contribuirá a reducir la brecha salarial.
M.C.- Sin duda, la Inteligencia Artificial es un campo en crecimiento. Hay cifras que dicen que el 80% de las compañías la están usando o van a hacerlo en un futuro próximo. Por eso es tan importante que las chicas entiendan que deben elegir las optativas que les permitan estudiar estas carreras técnicas.
P.B.- No solo es importante estar para corregir sesgos, es que hay ya muchas mujeres referentes. Quiero nombrar algunas, como Nuria Oliver, pionera en Inteligencia Artificial, o Carme Artigas, secretaria de Estado de Digitalización. Hay que darles visibilidad para que las chicas elijan carreras STEM.
"Un algoritmo no es bueno o malo, depende del uso"
Ch.I.- ¿Podríamos hablar de un nuevo humanismo digital?
M.C.- Hay una frase que dice que la Inteligencia Artificial ni es inteligencia ni es artificial. Siempre hay un hombre detrás, el hecho de que haya un hombre o una mujer hace que tengamos que conseguir estas herramientas que pueden ayudarnos a mejorar el entorno social en el que vivimos.
S.L.- De hecho, quien trabaje como un robot tiene los días contados. Cuánto más humano seas, más difícil de sustituir serás, si muestras lo que te hace distinto no te van a faltar ofertas de empleo.
Ch.I.- ¿Va a determinar nuestro futuro la Inteligencia Artificial?
M.C.- Va a ayudar incluso a que desarrollemos más las inteligencias naturales.
S.L.- Aplicada a las matemáticas, reduce el tiempo de aprendizaje hasta un tercio.
Ch.I.- Otro tema: cada vez hay más personas que se creen vigiladas.
M.C.- Sin duda tiene riesgos, hablamos de tecnologías con muchas ventajas, pero también con peligros y uno de ellos es atentar contra la privacidad.
P.B.- Pero ahí tenemos la regulación europea. Desde 2018, por el GDPR (Reglamento General de Protección de Datos, por sus siglas en inglés), tienes que dar consentimiento a las empresas para usar tus datos y, a su vez, estas tienen que explicar qué hacen con ellos. Creo que es un muy buen avance.
S.L.- Voy a contar un caso real, porque el problema no es la tecnología ni la empresa, es la conciencia que le ponemos. En Londres organizaron un congreso y dijeron que dejaban el WIFI abierto, claro, aceptando las condiciones de uso. ¿Qué incluían? El aceptante cedía los derechos de su primogénito. No se lo leía nadie. Obviamente eso era irregular y nadie se ha quedado con el primogénito de nadie.
Otro ejemplo es el de un fotógrafo que fue al metro, empezó a hacer fotos y dijo: “En dos minutos no solo voy a demostrar quiénes sois, sino que también sabré dónde vivís y qué os gusta”. El proyecto se llama “Your face is big data”. ¿Qué puede hacer una persona contigo si sabe tus gustos? Puede venderte cualquier cosa, hacerte creer que es tu amigo, tu compañero de trabajo… Por eso, hay que prestar atención a los datos que cedemos.
P.B.- Y saber qué pasa con ellos. Si pones un like en Instagram conocen tus preferencias, si te paras en determinadas fotos saben qué te interesa más, por lo que te sirven publicidad de eso. Allí quieren recurrencia y que vuelvas; hasta dónde llega la cosa, que a veces te mandan notificaciones de tu ex con su actividad, simplemente para que abras la App.
M.C.- Me preocupa mucho la incapacidad que se está generando en los jóvenes, incapaces de prestar atención a algo durante más de cinco segundos. Nosotros no somos nativos digitales y podemos gestionar más o menos esa capacidad de focalizar en un tema porque lo hemos practicado, pero qué pasa con nuestros jóvenes que se mueven en un mundo generado por esta tecnología para que no te apartes nunca del teléfono. Me preocupa la adicción y sus perjuicios.
Ch.I.- ¿Creéis que en los colegios deberían impartir educación digital más profunda?
P.B.- Totalmente. Educación digital desde edad temprana. Mi hijo de 8 años va a clase de programación porque yo sé que es una herramienta profesional para toda la vida, para saber qué hace, qué pasa, cómo se usan los datos. Y profesionalmente creo que la programación va a ser fundamental en todos los ámbitos.
M.C.- No solo es que sepan programar, sino que entiendan los riesgos de la tecnología. Y qué significa cuando suben una imagen que se queda permanentemente o cuando interactúan con personas que no conocen. Hay que enseñarles a usarla.
S.L.- Yo añadiría que estamos en un momento muy delicado en todo lo relacionado con las adicciones y redes sociales porque llega el metaverso, donde el que esté enganchado, si no sabe gestionar muy bien su tiempo y la diferencia entre el mundo real y virtual, se va a quedar inmerso.
Tenemos que enseñar a los niños a enfrentarse a este mundo, porque el metaverso está diseñado para hacer que nos enganchemos, pero ojo que viene con cosas maravillosas para acciones de marketing, por ejemplo…, pero si las redes son adictivas, el metaverso va a ser otro nivel.
Ch.I.- Podría ser la evidencia de estar viviendo lo físico y lo virtual al mismo tiempo y de una manera muy realista.
S.L.- Tus sentidos no son capaces de discriminar. Los gigantes digitales se van a encargar de esto hasta que explote. Lo que sucede es que también tiene cosas buenas. Eso no justifica que digamos hasta aquí hemos llegado.
P.B.- Por eso es tan importante la educación, desde una edad temprana; un algoritmo no es bueno o malo, depende del uso.
M.C.- Y entender y trasladar cómo son las cosas y el mundo real, como he oído y me gusta decir, el lujo es poder tener tiempo para conversaciones sin pantallas, experiencias en espacios físicos que no te dan las tecnologías. En la medida que veamos que los aparatos nos dan pero nos quitan, tenemos que ser capaces de trasladar lo que hay en el mundo real y que no nos lo podemos perder.
P.B.- Porque hay muchos juegos que van por ese camino, estás con tu avatar jugando en línea y hay que tener cuidado sobre todo en edades tempranas.
S.L.- El metaverso nos va a dejar interactuar con personas que no hubieran estado a nuestro alcance, experiencias de marketing, asistir a un concierto con hiperrealismo… Pero Don Quijote enloqueció porque dejó de comer para leer novelas de caballería. Si dejamos de comer para estar en el metaverso…, todos locos, ¿no?
"Hablamos de tecnologías con muchas ventajas, pero también con peligros "
Ch.I.- Habéis hablado de normativas. ¿Qué regulación falta?
P.B.- Código ético en las empresas y auditorías. Nosotros a nivel de grupo, tenemos todos los algoritmos revisados y auditados, pero también el regulador nos revisa a nosotros. Y esto es algo que no tiene que llevarse solo al sector bancario, debe aplicar a todo.
M.C.- Va a ser un campo donde habrá regulación en los próximos años. La Unión Europea ha publicado el libro blanco de la Inteligencia Artificial recientemente y habrá que cubrir los derechos de las personas.
S.L.- Y el uso comercial que se hace de los datos, si te pueden llevar a consumir más. ¿Quién no quiere que Netflix le recomiende una película? Pero hay que tener cuidado.
Ch.I.-: Hay personas que hablan de que eso va contra su libertad.
P.B.- Depende. Porque por ejemplo, hablaba de Openbank y de soluciones que ofrecemos a nuestros clientes, y que si no tal vez no las verían. Lo que es verdad es que hay un límite, por eso los datos están anonimizados.
S.L.-Yo añadiría que puedas poner límites tú como usuario. No conseguimos acabar con las llamadas que te venden cosas.
P.B.- Lo importante es la educación digital y saber a lo que estás cediendo, si cedes.
Ch.I.- A veces cedemos datos y damos permiso para que nos llamen o nuestra compañía comparta nuestros datos. Tal vez hay que negarse.
M.C.- Hay veces que esos datos pueden usarse para cosas positivas, pero también hay una parte muy peligrosa: cuando tratan de afectar a comportamientos de personas. Por ejemplo, a través de redes sociales se mandan mensajes más a favor de determinados temas relacionados con la política o derechos humanos; no está limitado y creo que debería estar perseguido.
P.B.- Hay una normativa de transparencia, de cómo tienes que colocar las cosas para que sea transparente y entendible y el usuario sepa lo que está decidiendo.
Ch.I.- Lo que comentaba antes Marta, como ciudadanos deberíamos exigir que no sucediera. La manipulación político-social, cómo se trabaja o se está trabajando para una mayor polarización de la sociedad…
M.C.- Deberíamos exigir a nuestros Gobiernos, no solo sobre esas cookies.
P.B.- En 2021 se empezó a regular la Inteligencia Artificial con un borrador, que afecta a todos los sectores, vamos avanzando y se están poniendo medidas, y en Europa el GDPR.
Ch.I.- Pero hay otros países que no son Europa y son determinantes.
S.L.- Y ahora que nos queremos posicionar como referentes en temas de sostenibilidad en Europa, esto igual también tendríamos que incluirlo. No solo los derechos de los ciudadanos europeos, sino los de los europeos frente a empresas globales.
Ch.I.- ¿Qué datos básicos debería tener clara una persona que lea o escuche este debate sobre los algoritmos? ¿Qué punto es clave?
M.C.- Yo lo resumo en dos cosas: muchas ventajas y beneficios, muchos riesgos de delincuencia, mucha falta de robustez… La tecnología nos va a ayudar, pero pongamos foco en gestionar los riesgos.
S.L.- Yo hablaría de educación y conciencia respecto a estos datos y volvería al principio: cuando algo es gratis, el producto eres tú.
P.B.- Y lo importante que son los data scientist (una profesión de mucho futuro) y que los algoritmos no son ni buenos ni malos, dependen de para qué los uses.
Sobre las tertulianas
Patricia Benito
Directora general de Openbank, desde 2015, previamente, fue chief digital officer de Grupo Tendam. Es licenciada en Ciencias Económicas y Empresariales por la Universidad Autónoma de Barcelona, Executive MBA de ESADE (beca LiderA) y ha cursado el Executive Program on Digital Business en ISDI. En 2020 fue elegida para participar en el programa W2W (Women to Watch). Patricia también es Auditora Censor Jurado de Cuentas y miembro del ICAC.
Marta Colomina
Directora general de la Fundación PwC, desde la que impulsa el desarrollo del sector social en nuestro país: “Cuanto mejor, más potentes, innovadoras y eficientes sean las ONG, entidades sociales y otros emprendedores sociales, mejor solucionaremos los retos sociales de nuestro país, y nuestra labor es esa, ayudar a los que ayudan”. Esta labor la compagina con su rol como Managing Director de Marketing y RSC de PwC España que le permite tener una visión global de las tendencias y retos del mundo empresarial.
Silvia Leal
Speaker y experta internacional en tecnología y tendencias de futuro. Doctora en Sociología. Autora de numerosas publicaciones como Tendencias, Consejos y No te vas a morir. En la actualidad, es además Consejera Independiente (Capital Radio) y está apoyando la aceleración de dos startups con potencial de Unicornio: ARFuture (Metaverso) y Aygloo (Inteligencia Artificial).
Charo Izquierdo
Coordinadora de las tertulias Petit Comité. Consejera independiente, periodista, escritora, conferenciante, ha sido directora de diversas publicaciones femeninas. Es especialista en sostenibilidad, moda y estilo de vida. Ha publicado los libros Puta no soy, Socorro soy abuela y ¿Soy yo o es que aquí hace mucho calor?, del que es coautora.