Hace unos días, Apple presentó un nuevo sistema por el cual un algoritmo de aprendizaje automático escanearía las fotos de nuestro iPhone que se compartieran por iMessage. Una función que aunque por ahora no llegará a España, ya ha causado rechazo no solo por una parte de la comunidad de los usuarios, sino por pesos pesados en la industria.
Y es que después de haber presentado este sistema hace unos pocos días, Apple ya se ha ganado detractores. El primero y el más importante es WhatsApp, la popular aplicación de mensajería, que ya se ha posicionado frente a la política de Apple lanzando un rotundo no.
Por si fuera poco, más de 5.000 expertos han firmado una carta abierta que no solo critica la medida, sino que expone sus principales inconvenientes, argumentando que esta medida podría generar graves conflictos con la privacidad de los usuarios de cara al futuro.
WhatsApp en contra
Así lo ha expresado Will Cathcart, actual responsable de WhatsApp. En un hilo ciertamente extenso, Cathcart explica que está "preocupado", y cree que el enfoque de Apple está equivocado. Piensa que el sistema "es un revés para la privacidad de las personas en todo el mundo" y ante la pregunta de si WhatsApp adoptará este sistema de escaneo, la respuesta es un rotundo "no".
Sin dejar de condenar la pornografía infantil y el abuso de menores, Cathcart ha dejado muy claro que si bien hay que tomar medidas contra estas lacras, WhatsApp ya lo ha estado haciendo, reportando y expulsando de la plataforma a los responsables. Aseguran haber reportado más de 400.000 casos el año pasado, todo "sin romper el encriptado de WhatsApp".
Cathcart es muy crítico con la medida. "Hemos tenido ordenadores personales durante décadas y nunca ha hecho falta escanear el contenido privado de todos los ordenadores de escritorio, portátiles o teléfonos globalmente en busca de contenido ilícito. Así no es como la tecnología construida en países libres funciona", rezan sus tuits.
Además de criticar que el sistema escanee fotos que ni siquiera hemos compartido con otras personas, Cathcart también plantea la posibilidad de que este sistema se pueda usar por gobiernos de todo el mundo que quieran controlar la población, calificándolo como un sistema de vigilancia que podría escanear contenido privado "para cualquiera que quiera control".
El CEO de WhatsApp expone varios escenarios posibles, planteando lo que ocurriría con falsos positivos, cuán habituales serían estos y sobre todo criticando que Apple haya tomado esta iniciativa "sin consultar a expertos que han documentado de forma extensa sus preocupaciones técnicas sobre esto".
Acaba recordando un mensaje a los consumidores que la propia Apple lanzó en 2016. "Creemos que lo mejor para todos sería dar un paso atrás y considerar las implicaciones [...]. Sería incorrecto que el gobierno nos obligara a instalar backdoors (puertas traseras) en nuestros productos. Y, en última instancia, tememos que esta demanda socave las mismas libertades y la libertad que nuestro gobierno debe proteger".
Una carta abierta
Además de Cathcart, Apple tiene otro frente abierto: más de 5.500 expertos en tecnología, que han firmado vía GitHub una carta abierta en contra de la medida. Entre esas firmas, nos encontramos con personajes de renombre, como Edward Snowden o Matthew D. Green, de la Universidad de Johns Hopkins, una de las primeras voces en alzarse contra la medida.
"La propuesta de Apple introduce una backdoor (puerta trasera) que amenaza con socavar las protecciones de privacidad fundamentales para todos los usuarios de los productos de Apple. La carta, totalmente abierta, agrega que esta tecnología depende de una infraestructura que no solo es expandible, sino que ni siquiera se puede monitorear o limitar."
No es solo cuestión de privacidad, reza la carta, sino "también de la falta de responsabilidad, las barreras técnicas para la expansión de la medida y la falta de análisis o incluso de reconocimiento del potencial de errores y falsos positivos" de la misma.
Este sistema, que se usará en todos los sistemas de Apple, analizará todas las imágenes que los usuarios quieran compartir o al menos que sean susceptibles de compartirse. Algoritmos de aprendizaje automático con tecnología hash analizará las imágenes sin necesidad de abrirlas, transformándolas en números que describen su contenido.
Una vez esos códigos son obtenidos, se comparan con los que la propia compañía ha establecido como "sospechosos", si se detectan demasiadas coincidencias. En este caso, la imagen se difumina, se alerta a la persona que la recibe y bloquea el envío de la imagen. Los padres podrán recibir avisos si sus familiares o hijos quieren mandar estos contenidos, y abre la posibilidad de que puedan alertar incluso a las autoridades.
Y este es parte del problema, según la carta. "Debido a que ambas verificaciones se realizan en el mismo dispositivo del usuario, tienen el potencial de eludir cualquier cifrado de extremo a extremo que de otro modo salvaguardaría la privacidad del usuario".
La carta, finalmente, exige dos cosas a Apple. La primera que detenga el despliegue de esta tecnología que primero se probará en los Estados Unidos. Y la segunda, que al hacerlo emitan una declaración explicando su compromiso con la privacidad del usuario y las tecnologías de cifrado de extremo a extremo aplicadas a aplicaciones como WhatsApp.
También te puede interesar...
- No, WhatsApp no ha cambiado la configuración de la privacidad de los grupos
- La biblia de la privacidad y seguridad de Apple: el documento que revela cómo blinda tus datos
- WhatsApp aclara su política de privacidad: estos son los datos que no comparte con Facebook