La Inteligencia Artificial ha incrementado los delitos virtuales, sobre todo tras la pandemia.

La Inteligencia Artificial ha incrementado los delitos virtuales, sobre todo tras la pandemia. iStock

Qué hacer

La Inteligencia Artificial como herramienta criminal: el difícil reto de proteger tu intimidad en un entorno virtual

Anna Fernández Blanes
Publicada
Actualizada

Reinaba la tranquilidad cuando la utilidad de la Inteligencia Artificial (IA) se reducía a los avances tecnológicos vinculados a la robótica, aplicados al ámbito de la medicina. Hoy la IA suena más por peligrosa que por su precisión a la hora de "salvar vidas".

Ya en 1979 la Constitución Española previó la necesidad de proteger la intimidad en un "entorno virtual" a través del art. 18.4: "La ley limitará el uso de la informática para garantizar el honor y la intimidad". Lo que no podían imaginarse los padres de nuestra Constitución es que décadas después nos encontraríamos con una crisis sanitaria mundial que aumentaría exponencialmente los delitos cibernéticos y que la aparición de la IA abriría paso a una guerra tecnológica de difícil frenada

Delitos a través de la IA

Sabemos que los más "imaginativos" encuentran en esta tecnología su fuente de inspiración a la hora de manipular imágenes o utilizar y suplantar rostros para generar un contenido hiperrealista que les sirva para dañar la dignidad, el honor y la integridad de sus víctimas.

Recientemente el Juzgado de Instrucción nº 4 de Pamplona condenaba por un delito de coacciones y contra la integridad moral a un joven de 18 años por difundir imágenes generadas mediante aplicaciones de IA de unas compañeras de su instituto, a las que mostraba desnudas.

También, una de las ramas más explotadas tiene que ver con el concepto de deepfake como publicación falsa en la que se superponen rostros y voces en vídeos, imágenes o audios. En los inicios de la IA, cerca de 2017, las primeras afectadas fueron mujeres famosas: montajes de Scarlett Johansson o Jennifer Lawrence. El pasado noviembre una foto manipulada de la tan querida Rosalía corría como la pólvora por internet.

Pero el deepfake también es utilizado para la comisión de delitos contra el patrimonio y orden socioeconómico. A todos nos suenan los famosos 25 millones de euros estafados a través de IA que han sido portada en febrero de este año: un empleado de una empresa hongkonesa fue engañado a través de una videollamada en la que su supuesto superior, en presencia de otros compañeros (todos ellos inexistentes), le ordenaba hacer una transferencia, asegurando el empleado reconocer perfectamente el aspecto y tono de voz de sus colegas, cuando realmente no eran más que imágenes y sonidos preconstituidos.

En la violencia de género

Los casos más habituales de IA aplicada a la violencia de género son denominados coloquialmente de "pornovenganza". Nos referimos a la pareja o expareja que, a través de IA, y a modo de represalia, difunde o amenaza con difundir imágenes auto confeccionadas que simulan situaciones íntimas o sexuales de la mujer, con el propósito de coaccionarla, intimidarla, controlarla o dañar su honor, imagen e intimidad personales.

La IA, como cualquier otra tecnología, es -mal- utilizada incluso para localizar y explotar perfiles de víctimas más vulnerables, identificando sus inseguridades emocionales o seleccionando a personas sin una red de apoyo que pueda alertarles del posible ataque.

Pero sí, evidentemente, también tiene su lado positivo. Tiene el potencial de ser utilizada para prevenir y combatir crímenes, también de violencia de género. Los algoritmos de IA son capaces de localizar grandísimas cantidades de datos, publicaciones en redes sociales o registros de llamadas para identificar patrones de comportamientos del agresor.

"Sabemos que la Inteligencia Artificial puede abrir caminos, pero también que se ha usado para elaborar pornografía falsa o para rastrear y acosar a mujeres", señala Sarah Hendriks, directora ejecutiva adjunta de ONU mujeres, al reclamar la protección de la violencia sexual y de género en el mundo de internet.

Hoy en día, la mayoría de estos casos se investigan por amenazas, coacciones o acoso (agravados por violencia de género, en su caso). Sin embargo, el epicentro del interrogante jurídico se plantea al preguntarnos si no debería existir cierta regulación por el uso -indebido- de esta nueva tecnología que sirve como medio facilitador para la comisión de estos delitos.

¿Es más responsable el joven de Pamplona que difunde una imagen auto confeccionada o el responsable del desarrollador de esa IA? En el Derecho Penal, la regulación en nuestro Código de este monstruo tecnológico presenta un desafío importante para el legislador. Y, más allá de lo jurídico, se echa en falta la transparencia en el desarrollo de algoritmos y la educación en un uso ético de esta tecnología.

Anna Fernández Blanes, abogada en Ramón C. Pelayo Abogados especializada en el área de Derecho Penal. Socia de Woman in a Legal World, Sección Young.