¿Puede, o debe, la Inteligencia Artificial (IA) intervenir en la investigación científica aplicada por las fuerzas y cuerpos del orden y la seguridad? El debate es amplio y rico, abierto a la polémica y al análisis. Y no es fácil ser concluyente. Sobre ello ha profundizado esta semana la investigadora del Citic de la Universidade da Coruña (UDC) Patricia Faraldo Cabana en una reunión de trabajo organizada por el Instituto de Sociología y Psicología Social de la Universidad de Colonia (Alemania).

Faraldo es doctora en Derecho Penal por la UDC, diplomada en Criminología por la Universidade de Santiago de Compostela y dirige el grupo deinvestigación Criminoloxía, Psicoloxía Xurídica e Xustiza Penal no século XXI. Es también una de las expertas que participaron en la redacción de la ley del solo sí es sí.

¿Qué retos tiene por delante el uso de la IA con fines policiales?

La Comisión Europea y los estados miembros de la UE ya saben que la IA puede suponer un cambio revolucionario en la investigación y persecución de los delitos. Por eso la Comisión promociona que se investiguen en plataformas los instrumentos que permitan facilitar a la Policía un análisis de la información más moderno, obtener pruebas lícitas de forma más fácil y mejorar la detección de delitos, como los cometidos en la Red.

¿La Policía es receptible?

El desarrollo de las herramientas basadas en IA necesita muchísimos datos, ya que se entrenan con datos. Pero los datos personales son datos sensibles, y si hablamos de datos relacionados con actividades criminales, tienen un nivel de protección más elevado que los datos personales con carácter general.

La tensión entre seguridad y libertad hay que replantearla continuamente, según aparecen nuevas tecnologías. La IA es muy positiva en muchos aspectos pero también puede ser muy invasiva

Patricia Faraldo

Esto es un círculo vicioso, entonces.

Exacto. La Policía no proporciona los datos personales que tiene, con razón, y faltan datos del ámbito criminal para poder entrenar las herramientas de IA. Así, sin datos, esos instrumentos no son tan útiles. Estamos invirtiendo millones de euros en herramientas que podrían ser más útiles si las policías pudieran compartir esos datos de forma segura y sin afectar a la intimidad de las personas.

¿Esa cultura del secretismo es firme, férrea? ¿O tiene fisuras? ¿Es posible de alguna forma acceder a esos datos que no se dan?

Para la Policía es muy importante saber qué normas regulan lo que tienen que hacer. Pero las normas muchas veces no existen para un ámbito concreto o no son claras. Cuando no son claras, la Policía recurre a lo que sabe, a lo que ha hecho siempre, a una cultura organizacional de secretismo en la que se crean compartimentos estancos y resulta muy difícil acceder a los datos dentro de la propia Policía o compartirlos con otras agencias, como puede ser el CNI o agencias de seguridad extranjeras.

La UE es consciente de esto y lleva años tratando de mejorar la colaboración entre las policías europeas. Pero esos silos de información se rompen poco a poco. Hay que construir confianza con un marco normativo que dé seguridad a las policías, algo que ahora es difícil de comprender para los expertos, y que vaya rompiendo poco a poco esa cultura del secretismo, que a veces tiene razón de ser pero otras veces no.

¿Qué puede aportar la IA en investigación que no sea capaz de desarrollar la Policía?

Con instrumentos de inteligencia artificial podemos usar toda la web, todo internet, donde están buena parte de las vidas y actividades de los ciudadanos. Voy a darle un ejemplo: estamos en un proyecto europeo que busca mejorar la lucha contra el tráfico de patrimonio histórico creando una plataforma que busca datos en toda la web sobre subastas de objetos patrimoniales, operaciones o transacciones, información satelital combianada con datos de teléfonos móviles... Esto lo permite la IA: en segundos saca miles de datos y los correlaciona con otros para ir creando redes, movimientos, hechos... Se ahorran cientos de horas de trabajo policial.

¿Es posible en la actualidad que pueda haber un acercamiento, alguna cesión por parte del ámbito policial?

Todas los policías tienen un oficial de protección de datos que recibe las peticiones y las contesta. Pero son diamantinos, no se comparte nada, y menos algo que tengo que ver con la comisión de delitos. ¿Qué se puede hacer? Creo que a nivel europeo tiene que haber una legislación más clara que determine cuándo pueden compartir datos para investigación científica. Y a nivel nacional tenemos que hacer una mejor adaptación de la ley europea.

En Reino Unido hay un laboratorio seguro, llamado secure lab, que consigue de la Policía los datos solicitados por los investigadores y los prepara para que sean adecuados y seguros para el uso de esos investigadores a nivel nacional. En Inglaterra se hacen estupendos informes con datos de la Policía. Y eso ayuda a todos.

Los delitos se pueden resolver más rápido con IA. Pero hay que calibrar el interés por resolverlos cuanto antes y el interés por proteger la intimidad de los ciudadanos

Patricia Faraldo

¿Sin estos obstáculos, la IA permitiría resolver casos criminales en un tiempo mucho más corto?

Sin duda. Pero aquí tenemos que calibrar el interés por resolver los delitos cuanto antes y atrapar a los culpables y el interés por proteger la intimidad de los ciudadanos. Está claro que si tenemos un régimen de vigilancia totalitaria, se descubrirían más los delitos y se castigarían más. ¿Pero queremos esto? ¿Queremos el modelo chino, donde todos estamos vigilados nada más salir de casa?

Europa ha tratado de calibrar su interés por la seguridad y ponderarlo con el interés de la ciudadanía por su libertad. Yo creo que ha encontrado un equilibrio bueno, que más bien favorece la libertad.

Este es otro de los riesgos que plantea la IA, ¿no?

La tensión entre seguridad y libertad hay que replantearla continuamente, conforme aparecen nuevas tecnologías. La IA es muy positiva en muchos aspectos pero también puede ser muy invasiva. Creo que más que estar señalando los problemas que plantea la IA, que son muchos, es hora de investigar cómo podemos usarla con seguridad.

¿Es optimista con la supervisión de la IA que realizará la sede de la Aesia en A Coruña?

Tengo que ser optimista porque soy manager de varios proyectos de IA y desarrollo la parte ético-legal. Diseñamos los mapas de riesgos ante el uso de esta tecnología y con ello vemos las medidas que debemos tomar para minimizar los riesgos. Ese es el código ético que aplicamos. Veo posible desarrollar instrumentos éticos y a la vez funcionales. Pero necesitamos algo más de colaboración y mejorar el marco legal.