La noche aún no tiene horizonte. La oficina está prácticamente vacía y apenas quedan un par de luces encendidas de forma ténue en el sótano 1 del edificio policial. Sólo se ve, y se escucha, un ordenador encendido dentro de la sección de Antropología Forense. Frente a la máquina, un agente sorbe la taza de café mientras aguarda unos resultados. Ha insertado una imagen del sospechoso y espera que el programa le dé la respuesta de quién es. ¡Bingo! Imprime los resultados, se levanta como un resorte a toda prisa, coge su chaqueta y sale corriendo a detenerle.
La escena descrita se ha visto en mil y una ocasiones en el cine. Sin embargo, hasta el momento la Policía no puede realizar ese tipo de búsquedas de reconocimiento facial a través de ningún programa. El trabajo sigue siendo más rudimentario, podríamos decir incluso que es manual. Siete personas, entre las que se encuentra Sergio Castro, inspector de la sección de Antropología Forense de la Policía Nacional, miran imagen a imagen a los sospechosos y las comparan con las de la escena del crimen. Uno a uno, foto a foto, hasta emitir un juicio de valor; es la única posibilidad.
Esto cambiará a partir de ahora. La Policía Nacional se prepara para utilizar ABIS, un sistema automático de identificación biométrica remota y en diferido que permitirá hacer un poco más real lo visto en las escenas cinematográficas. Ellos pondrán la imagen de la escena del crimen y el programa dará una respuesta sobre quién puede ser el autor del hecho delictivo. La implantación llegará el próximo año y sólo las dudas legales se ceban con ella. Porque, ¿podría enviarnos a la cárcel un algoritmo que nos identifique en un reconocimiento facial hecho a máquina?
[La Policía detiene a uno de los 10 hombres más buscados del mundo oculto en un hotel de Madrid]
El inspector Sergio Castro asegura que no. La utilización de este tipo de programas se regirá siempre por una revisión de los profesionales que trabajan ya en los cuerpos de seguridad. En síntesis, este tipo de programas lo que permitirá será abrir nuevos campos de búsqueda.
Es decir, hasta el momento la Policía Nacional, Guardia Civil y los cuerpos regionales dedican personal a establecer comparativas visuales entre imágenes ya conocidas. Hay una imagen de lo ocurrido y un sospechoso. Es un sistema que llaman 1-1. Si no hay una foto de la persona a la que se podría imputar el hecho, la comparativa es imposible.
Al menos hasta ahora. La inteligencia artificial y, en concreto, el programa ABIS les permitarán hacer comparativas 1-N. Es decir, desde la implantación del nuevo sistema podrán introducir las imágenes del hecho delictivo en un ordenador y que este busque al sospechoso dentro de las bases de datos de delincuentes. El programa hará una lista, ordenando quién podría ser. El primero tendría más posibilidades de ser el culpable, pero en realidad podría serlo el número 15.
Por lo tanto, será la Policía Nacional quien deberá estar al quite. Los agentes especializados de este grupo serán quienes decidirán a qué sospechoso se deberá investigar. La máquina ayuda, pero no decide. El hombre debe corroborar lo que dice la inteligencia artificial, nunca al revés.
El mayor problema al que se enfrentan es el legal. De hecho, la Comisión Europea ya ha propuesto un marco legislativo para el uso de este tipo de programas; un marco reglamentario sobre inteligencia artificial (IA) con el objetivo, entre otros, de "garantizar que los sistemas de IA introducidos y usados en el mercado de la UE sean seguros y respeten la legislación vigente en materia de derechos fundamentales y valores de la unión".
El funcionamiento del grupo
Los siete magníficos, capitaneados por Sergio, dedican sus esfuerzos a resolver unos 500 asuntos al año de reconocimiento facial. Este grupo policial, además, realiza retrato robots de los sospechosos. Pero eso sólo se hace para abrir una vía de investigación, nunca para señalar a un culpable.
—¿Cómo trabajáis?
—Es un grupo que se dedica a la comparativa facial. Comparamos rostros indubitados con rostros dubitados. Es decir, los de referencia, los que sabemos quiénes son esas personas son los indubitados. Los rostros dubitados son aquellas imágenes que se duda quiénes pueden ser. Esos son datos biométricos de referencia son indubitados, porque sabemos a quién se le han tomado. Los dubitados son imágenes del atraco al banco, una estación fraudulenta, una imagen de internet… Cualquier imagen en la que se determine que esa persona está relacionada con un hecho delictivo.
Muchos estamos imaginando ahora mismo cómo el inspector, delante de su ordenador, acerca cada vez más la imagen para poder ver mejor lo que ocurre en la pantalla. Lo hace una y otra vez. El ordenador le limpia la imagen y todo es cada vez más claro. Pero la realidad dista mucho de eso. Castro lo explica.
—Nosotros, curiosamente, lo hacemos al revés casi. Disminuimos, disminuimos, disminuimos… Las imágenes suelen ser de una calidad muy mala y se pierden muchas veces. Ampliar no ayuda a percibir mejor el detalle. Hacemos un procesado, pero es un procesado muy bajo. Eso realmente se inventa la imagen. No hacemos mejoras que inventen la imagen.
—¿Qué necesitan para reconocer a alguien?
—Necesitamos una alta calidad de la imagen. Necesitamos 4 veces más resolución que una persona para reconocer a alguien. Es muy habitual que un investigador o un testigo digan: la persona que aparece es tal. Nosotros necesitamos cuatro veces más de resolución para reconocerle. Los reconocimientos no solo se basan en los rasgos físicos, sino también en cómo se mueve una persona, en cómo va vestido, la apariencia, los gestos. La habilidad natural que tenemos para reconocer a personas de nuestro entorno nos ayudan, pero nosotros necesitamos el detalle de los rasgos faciales. Nosotros no evaluamos gestos y tal. Los reconocimientos son tremendamente complicados. Se circunscribe al rostro porque es la parte que se puede ver, tiene una alta variabilidad y de la que se tiene registros. Puede que en una mano se le vea un tatuaje y tal. Puede entrar en la evaluación de la comparativa, claro, pero normalmente cuando te encuentras con una persona, te fijas en la cara realmente.
Retratos robots.
Otras líneas de investigación. El grupo de reconocimiento facial que dirige Sergio Castro tiene varios cometidos además del reconocimiento. Entre ellos, está la elaboración de retratos robots para abrir nuevas líneas de investigación. Tal y como explica Castro, esta "no es una técnica de investigación. Generalmente, cuando existe un hecho delictivo y la investigación está estancada, porque por ejemplo sólo existe el relato de la víctima, como pasa en agresiones sexuales, se hace uno". El inspector comenta que trabajan entrevistando a la persona que pudo ver el rostro del presunto delincuente y, a través de un programa informático, se hace "una representación un tanto 'burda' de esa persona". El agente explica lo de 'burda': "Porque es difícil hacer un retrato robot fehaciente y fiable. Lo que se busca es una caricatura para seguir con la investigación, por si a alguien le suena a alguien". De ahí que se utilicen siempre "para abrir líneas de investigación, pero no para identificar".
La idea es fijarse en partes estables del rostro, zonas que no cambian con el paso de los años. Castro habla del "pabellón auditivo". Las orejas no suelen modificar su morfología con el paso de los años y son muy peculiares en cada persona, por lo que pueden ser claves. La nariz es otra parte de la cara a tener en cuenta.
En palabras del inspector, "buscamos rarezas y cosas poco frecuentes. También cosas estables. No cambiamos tanto de un año para otro a no ser que tengamos un suceso traumático. Entonces, es una combinación de distintos factores. El pabellón auditivo tiene una gran variabilidad morfológica y no suele variar con el tiempo. La nariz, por ejemplo, también es muy estable con el tiempo. Los elementos más identificativos, por ejemplo, son marcas, lunares…".
Este tipo de marcas son tan variables de una persona a otra que ni siquiera dos hermanos gemelos homocigóticos comparten los rasgos. "Son elementos que dependen más allá del genotipo. Tú puedes tener una predisposición genética a tener lunares, pero dos gemelos homocigóticos no tienen dos lunares en el mismo sitio. Es un producto del ambiente. Las cicatrices también… Es muy individualizador".
—¿La cirugía estética es su peor enemigo?
—No, nuestro peor enemigo es la calidad de la imagen. Con la cirugía estética cambias parte de tu rostro, pero no lo cambias todo. Con la calidad de la imagen, es nuestro mayor hándicap, es lo que nos lo hace todo muy limitado. Ahí se pierde todo, no solo lo que has operado. El mayor enemigo es la calidad de imagen. Seríamos capaces de encontrar a alguien aunque se haga la cirugía plástica.
Esto es como ir superando barreras. Cuantas más barreras hay, más nos dificulta la comparativa. Pero eso no significa que no se pueda hacer. Una barrera podría ser la calidad de imagen, otra la ocultación, otra las cirugías estéticas, las diferencias temporales, cambios de peso… Todo eso son barreras que dificultan la comparativa o que la hacen inviable. En torno al 70% de las imágenes que se reciben no tienen la calidad suficiente para que podamos emitir un dictamen. La calidad suele ser bastante mala.
Este grupo no emite informes en los que señalan únicamente sí o no. "Sería muy fácil equivocarse. Transmitimos si la fiabilidad es alta o no". Lo que hacen es emitir una serie de gradientes de posibilidad, una especie de grado de certeza. "Tenemos una escala de tres grados a la correspondencia y tres grados a la discrepancia", cuenta Sergio Castro.
El primero de ellos es el apoyo extremadamente fuerte a la correspondencia de identidad. Aquí los agentes tienen un 0% de posibilidad de fallo según los exámenes a los que se les ha sometido anteriormente. El siguiente: apoyo fuerte, con un 0, 4% de posibilidad de error. En el apoyo moderado, el error está entre el 5% y 7%.
A partir de aquí, comienzan los grados negativos. Apoyo moderado a que son personas distintas, con un 10% de fallo. El apoyo fuerte a que no es la persona, con un 0,5% de probabilidades de error; y apoyo extremadamente fuerte a que no se corresponde la imagen con el sospechoso, con otro 0% de posibilidades de fallo.
[Así se convierten en Toledo civiles ucranianos en soldados: "Quieren defender lo que es suyo"]
Castro se congratula que el mayor error se dé en el apoyo moderado a que no se corresponde. Significa que trabajan muy sobre seguro y que el cuerpo tiene una gran efectividad con el resto. Si no están seguros, no señalan a nadie.
Para emitir estos resultados, el trabajo se lleva a cabo por dos agentes distintos. Es decir, dos miembros del grupo analizan, comparan las imágenes y luego validan los resultados. Es lo que denominan como ACV. Por supuesto, hasta la tercera fase los agentes no ponen en común sus análisis. Luego, un superior da el 'ok' a la investigación.
"Lo más complejo ahora mismo es que esto no es algo matemático, que se meta en una máquina y salga el resultado. Depende todo del experto. Ese experto tiene que estar correctamente formado, tiene que ser evaluado constantemente… Eso es importante y complejo", apunta.
En la sala de trabajo
La sala de trabajo de estos siete magníficos de la Policía Nacional cuenta con varias mesas y pizarras. Los carteles con la morfología de las caras humanas decoran las paredes. Los agentes forman por parejas, cada uno con su ordenador, con departamentos aun así separados. Los agentes tienen todos el uniforme puesto, pero estando en un departamento de Científica parece inevitable el uso de las batas blancas.
Aquí no se detiene a nadie. El trabajo tampoco se realiza con premura. El 90% de los asuntos que llegan aquí son judiciales, ya están en fase de instrucción. "Solemos hacer periciales judiciales", dice Castro. El otro 10 por ciento son investigaciones policiales. Los compañeros "no tienen otro elemento para la imputación del hecho delictivo" y solicitan la comparativa para que les ofrezcan un hilo del que tirar. A partir de ahí, se buscan más pruebas para poder llegar, por ejemplo, a la comparación.
La forma de trabajar de estos policías cambiará, en principio, a partir de 2023. Se incorporará el sistema de identificación biométrica ABIS, que les permitirá realizar comparativas 1-N. Es decir, podrán introducir la foto de un sospechoso y compararla con la base de datos que tiene la Policía Nacional. Por el momento, se trabaja para conectar la base de datos criminal al sistema.
La herramienta no detectará al 100% de fiabilidad si estamos ante el sospechoso. Tampoco realizará un reconstrucción perfecta de la imagen. Simplemente, hará una comparativa y dará una lista de candidatos, ordenados de mayor a menor, según el grado de probabilidades que sea. "Ordenas el millón y tienes más posibilidades de que la persona esté en la parte alta. Es lo que nos posibilita la búsqueda del candidato". Castro avisa: "Puede ser que sea el 1 o puede ser que sea el 10. Eso lo tendremos que verificar".
Estas búsquedas y comparativas biométricas se realizarán exclusivamente en bases de datos criminales, no en las civiles.
Castro comenta que han probado distintas herramientas a lo largo de los años. "Lo que hemos visto, más allá de que unas funcionen mejor que otras, es una evolución con el paso del tiempo. Es decir, desde herramientas que casi no valían a herramientas que tienen unas imágenes con unas condiciones muy controladas, imágenes frontales, sin gafas, con el mismo gesto, con gesto neutro… Ahora ya estamos en la fase en la que cada vez más dan mejor respuesta. Son menos sensibles a la calidad de imagen, a elementos, gestos, paso de los años...".
Además de ellos, podrán implantarla otros Cuerpos y Fuerzas de Seguridad del Estado como la Guardia Civil o las policías autonómicas. "Esta herramienta es de la Secretaría de Estado de Seguridad. Todos los procesos de compra, de prueba, de regulación, adaptarse a la situación judicial existente… Todo eso lo han hecho ellos. Nosotros somos participantes sobre todo en la parte técnica porque no se toma una decisión sin que opinemos".
Cada día que pasa la herramienta pierde un poco de valor. "Posiblemente no es de las mejores del mundo, pero mañana puede serlo. Esto en muy pocos meses evoluciona mucho. Hasta que no tengamos la herramienta en operativo no lo sabremos. Porque con la última versión que venga no vas a saber lo buena que es".
El perfil legal
Muchos se preguntan hasta qué punto este tipo de sistemas son legales. La Comisión Europea ya ha propuesto que los sistemas de identificación biométrica remota en tiempo real sean prohibidos. Esto sería una especie de Gran Hermano que, en ningún caso, se aplicará al sistema policial.
Los sistemas que utilizarán los agentes españoles serán utilizados para las comparativas. Además, ya se han realizado las propuestas para su uso. Las mismas están contempladas en la "Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión".
Dicho reglamento expone que "la noción de 'sistema de identificación biométrica remota' que se utiliza debe definirse, de manera funcional, como un sistema de IA destinado a identificar a distancia a personas físicas comparando sus datos biométricos con los que figuren en una base de datos de referencia".
Esto deberá hacerse, eso sí, "sin saber de antemano si la persona en cuestión se encontrará en dicha base de datos y podrá ser identificada, con independencia de la tecnología, los procesos o los tipos de datos biométricos concretos que se usen".
Castro no ahonda en los aspectos legales, pero sí en el desconocimiento que tiene la población general sobre estas cuestiones. "Muchos dicen: 'No es que la herramienta dijo que era tal y lo metieron 20 años en la cárcel'. Quizás en Estados Unidos... No lo sé. Aquí no pasa. La máquina nunca tomará una decisión, lo haremos nosotros".
Cabe resaltar que esto no agilizará el trabajo de los agentes. Simplemente, abrirá nuevos campos de trabajo para ellos. "Generalmente a nosotros nos pasan una foto de un candidato y otras imágenes del hecho delictivo. Ahí hacemos el 1-1 que explicamos antes. Sin embargo, ahora tenemos la posibilidad de hacer la comparativa 1-N y podremos nosotros proveer un candidato potencial tras hacer el estudio 1-1".
Casos concretos
Aquí se trabajan casos concretos, pero el Inspector no sabe decir cuál es el de mayor complejidad. Señala los casos de pornografía como aquellos que entrañan una dificultad mayor. "Al final tienes que tragarte toda la escena de lo que ocurre", comenta.
En el resto de casos, ellos no llegan a saber en muchas ocasiones de qué se trata. "A veces ni siquiera nos enteramos del caso. Vemos a alguien pasando por una puerta o saliendo de un garaje. No sabemos realmente qué ha hecho o ha dejado de hacer. Nuestra misión es decir si el sujeto que nos ofrecen pueden ser quien pasa o no por la puerta o por el garaje. Si coincide".
Los sistemas de inteligencia artificial podrían ayudar mucho en estos casos. El problema es que parece prácticamente imposible que logren avanzar más, sin confrontar derechos fundamentales de los ciudadanos y sin conocer lo suficiente la naturaleza.
—¿El algoritmo es su peor enemigo?
—Nuestro enemigo es la calidad de imagen. El resultado del algoritmo lo verificamos nosotros. Eso lo que condiciona es que no te ayuda, es que no hay esas herramientas que te reconstruyen una imagen a partir de una pieza. No existen. Y aunque existan, hay mucho de mejorar la imagen por inteligencia artificial. Quedan muy bonitas en apariencia pero no casan con la realidad, porque se lo ha inventado. La IA trabaja en base a un volumen muy grande de información. Se ha entrenado a una herramienta que sabe hacer algo. Cuando le presentas una cosa nueva, en base a lo que ella ha visto, repite un patrón. Aplica una generalidad. Puedes hacer un envejecimiento de una fotografía, pero a lo mejor la persona no envejece así. Entonces, pues… Es complicado. Pero, bueno, aquí seguimos.