Usan reconocimiento facial en un concierto de Beyoncé para capturar criminales peligrosos
En el evento que congregó a 60.000 fans de la artista se usaron cámaras de reconocimiento facial para encontrar delincuentes.
18 mayo, 2023 17:40Aunque actualmente España esté dominada por la oleada de inteligencia artificial, existe un amplio abanico de tecnologías que actualmente están cambiando la forma en la que la sociedad se configura. Sin ir más lejos, en la actualidad no es raro ver escaneos de reconocimiento facial en múltiples ciudades del mundo, algo que no ha sido visto con buenos ojos por todo el mundo. Es lo que ha ocurrido en Reino Unido, con un concierto de Beyoncé en la zona de Cardiff.
Según recoge la BBC, el concierto que tuvo lugar el pasado miércoles de la artista por su gira mundial Beyoncé Renaissance incorporó cámaras de reconocimiento facial. Este despliegue fue realizado por las autoridades de policía de Gales del Sur, y sirvieron para, en palabras de la policía, detectar a personas buscadas "por delitos prioritarios".
Si bien este sistema ya fue usado en la ceremonia de coronación del actual Rey de Inglaterra Carlos III, el uso del mismo en un evento así contrasta con las negativas de los legisladores europeos, que están en contra de que se usen estas cámaras en espacios públicos.
Reconocimiento facial en un concierto
Dicho concierto fue celebrado en el Millennium Stadium de Cardiff, y congregó a cerca de 60.000 fans de Beyoncé para que asistieran en el evento. Ante esta situación, la policía de Gales del Sur se apresuró a aclarar varios detalles, como el uso de datos y sobre todo la finalidad de la implementación de estos sistemas.
Los cuerpos policiales quisieron aclarar que si la persona enfocada con el sistema de reconocimiento facial no estaba involucrada en una lista de busca y captura, los datos biométricos ni siquiera llegaron a almacenarse, siendo eliminados de inmediato. En el caso contrario, las imágenes de estas cámaras se almacenan hasta por 31 días.
this is a crowd that Beyoncé deserves😭😭😭 pic.twitter.com/fYT3Y6ukaP
— 𝗱𝗮𝗻𝗻𝘆🫧💚 (@beyoncegarden) May 18, 2023
Estas cámaras estaban supervisadas en todo momento por operarios humanos y, en ningún caso, estas tecnologías iban a aprobar un arresto, ya que la decisión de detener a alguien detectado con estas cámaras recayó enteramente sobre los oficiales. Estos se encargaron de verificar si, efectivamente, las alertas de estas cámaras coincidían con las imágenes de la persona en busca y captura.
En palabras de los oficiales, estas cámaras se usaron para apoyar "a la aplicación de la ley" y garantizar "la protección de los niños y las personas vulnerables". Además, esto no era un condicionante; el usuario podía entrar perfectamente dentro del estadio si el reconocimiento facial no le había captado, según portavoces del evento.
No obstante, existen varios hechos que ponen en tela de juicio el uso de estas cámaras en el evento. Por ejemplo, en el pasado la misma policía de Gales del Sur había tenido problemas judiciales por usar estos sistemas. Esto es debido a que un residente de Cardiff, Ed Bridges (cuyo rostro fue escaneado con esta tecnología en protestas de la ciudad) demandó a las autoridades y en 2020, se dictaminó que el uso de esta tecnología por parte de los policías era ilegal.
Esto no evitó que los policías siguieran usando las cámaras, ya que se siguieron probando en eventos posteriores, llegando a escanear a casi 110.000 rostros. Parte del argumento de la policía de Gales del Sur era que se habían realizado mejoras importantes en la precisión del sistema, con solo una coincidencia falsa de cada 6.000. Además, a sus ojos, ya no presentaban sesgos de raza y género.
Vigilancia y errores
El uso de esta tecnología está respaldada por el Brexit, ya que recordemos que el pasado octubre de 2021 el Parlamento Europeo pidió prohibir el uso de reconocimiento facial en espacios públicos, mostrando de forma clara su oposición al uso masivo de esta tecnología. La base de esta iniciativa fueron las preocupaciones de los diputados europeos sobre los errores que estos sistemas, basados en IA, podían presentar.
Recordemos que los sistemas de reconocimiento facial como los usados en la Interpol usan algoritmos de inteligencia artificial y otros métodos para detectar los rasgos inherentes de un rostro para compararlos con los existentes en una base de datos criminal. Por ejemplo, en el caso del sistema de la Interpol, este codifica la imagen facial introducida en el sistema para compararla con los perfiles almacenados en el mismo.
El problema es que esta tecnología, como cualquier otra, puede fallar. La inteligencia artificial ha demostrado en el pasado tener importantes problemas de fiabilidad en esta materia, debido principalmente a sesgos de género y raza. Estos no solo pueden provocar una enorme discriminación, sino que pueden llegar a dar lugar a arrestos indebidos.
[Una llave maestra para burlar a los sistemas de reconocimiento facial]
Por otro lado, numerosísimas voces en todo el mundo han hablado de lo problemático de usar estas cámaras de reconocimiento facial para situaciones de vigilancia masiva que pueden desembocar en discriminación. Según declaraciones de Katy Watts, abogada del grupo de derechos humanos Liberty (que por cierto, trabajó para el residente de Cardiff que ganó el juicio), estos sistemas "afianzan los patrones de discriminación en la vigilancia".