Seamos sinceros, nadie se lee los acuerdos de uso y la política de privacidad cuando empieza a usar una app. Sí, hablo de esos enormes textos llenos de jerga legal que parecen haber sido escritos por un robot y no por un humano.
Todo el mundo sabe que debería leer esos textos a conciencia, por lo importantes que pueden llegar a ser para su privacidad y seguridad; pero para el usuario medio, es imposible comprender lo que realmente dicen.
Como resultado, la mayoría de la gente no sabe qué es lo que está aceptando cuando pulsa el botón y empieza a usar la app. Por ejemplo, Facebook es famosa por el tratamiento de sus datos, pero ¿sabías que Twitter admite que vende tus datos, directamente en la política de privacidad? ¿O que Waze puede dar tus datos al gobierno?
Por supuesto, estas compañías no dicen eso de manera explícita en sus documentos, creados por abogados con el objetivo explícito de no meterse en problemas y poder lavarse las manos en caso de que algo salga mal. A menos que sepas del tema, es difícil detectar este tipo de avisos e indicaciones de lo que las compañías realmente hacen con nuestros datos.
La IA que lee políticas de privacidad
Guard nació para ayudarnos a comprender mejor qué es lo que aceptamos en estos textos. Es una aplicación web que usa una red neuronal entrenada para leer todos esos textos y sacar conclusiones sobre ellos, determinando qué partes son más peligrosas para nuestra privacidad, y qué problemas potenciales podríamos tener con la app.
El servicio usa tanto el texto de las políticas de privacidad como los "escándalos" recientes protagonizados por la app para otorgar una puntuación, que determina si deberíamos evitar la app o no.
Entre las apps más peligrosas, según Guard, están Twitter, por la manera en la que vende y transfiere nuestra información, Tumblr, por no borrar toda nuestra información cuando eliminamos la cuenta, e Instagram, por no garantizar la seguridad de nuestros datos. En cambio, Telegram recibe la mejor puntuación, al no tener ningún apartado peligroso para la privacidad.
Cada peligro potencial para nuestra privacidad es listado de manera clara y sin rodeos; si una app comparte tus datos, te lo dice. Si queremos saber más, podemos ver exactamente qué partes del texto han llamado la atención a esta IA como riesgos potenciales; pero también podemos ver resaltadas en verde las partes que son más apropiadas para proteger nuestra privacidad.
Podemos ayudar a enseñar a esta IA, con un pequeño "test" en el que se nos muestran dos textos y tenemos que elegir los que consideramos que protegen mejor nuestra privacidad. Sin embargo, hay que aclarar que el servicio está sólo en inglés por el momento.