"Una de mis hijas se ha acercado con un disgusto tremendo. Me ha dicho 'Mamá, mira lo que me han hecho'. Y es que con una app han cogido una foto suya y han hecho que estuviera desnuda. Esto le ha pasado a mi hija y a decenas de niños más en Almendralejo y en pueblos de alrededor". El testimonio de la doctora Miriam Al Adib se ha hecho viral en cuestión de horas por la dureza de lo que cuenta. A golpe de clic, unos chavales, presuntamente, en forma de broma que se les acabó yendo de las manos, desnudaron a un grupo de jóvenes con una IA para, posteriormente, difundir los montajes a través de grupos de WhatsApp. 

Según ha podido confirmar este periódico, en Málaga ya se han denunciado situaciones similares a la de Badajoz, a causa de montajes sexuales generados con IA. Y es que, aunque suene crudo, este caso no es aislado y está a la orden del día. Sin ir más lejos, la influencer Laura Escanes denunció hace unas semanas en sus redes sociales que había sido víctima de este tipo de ciberdelincuentes.

Andrés Román, jefe de la Sección de Ciberdelincuencia de la Comisaría Provincial de la Policía Nacional en Málaga, está convencido de que estas apps y webs son toda "una amenaza" de lo que está por llegar. Algunas como Deepsukebe o Clothoff permiten a cualquier usuario desnudar a alguien del que cuenten con una fotografía en apenas un minuto y, en algunos casos, sin pagar nada. 

"Es una amenaza a la que nos vamos a enfrentar cada día más y que vuelve a poner a la persona en el centro de la ciberdelincuencia. No a la ciberseguridad, sino a la persona, que acaba siendo la damnificada a través del engaño, como ocurre en el 90% de los casos en Internet", lamenta Román.

¿Y cómo se le pone freno a esta situación? ¿Cómo se puede evitar que alguien entre a este tipo de aplicaciones para hacer maldades? Enrique González de Gor, experto en Inteligencia Artificial en Credo, lo tiene claro: "El nuevo escenario que tenemos debe acompasarse con nuevas mejoras en la educación y nuevas mejoras en la legislación. Esa es la única forma de ir por el buen camino. Además de una buena campaña por parte de las administraciones. Esas tres patas son la base para construir el futuro".

Concuerda con él Román, que pone una línea divisoria entre el cuerpo virtual y el físico. "Nos enseñan a cuidar nuestro cuerpo físico, pero no el virtual. Y en este sentido son más vulnerables los más jóvenes, quienes a través de TikTok, Instagram y las diferentes redes están más expuestos", lamenta.

Como perito tecnológico, González de Gor asegura, además, que se está trabajando mucho desde su sector para que se pueda distinguir lo que es realidad de lo que no lo es a través de herramientas que sean capaces de contrastarlo. Y esto es clave, pues en nuestro día a día, pasamos muchas horas con nuestro teléfono móvil en la mano y recibimos cientos de estímulos de los cuales muchos no terminamos de saber si son reales o no, como fue algo tan simple como el caso de la famosa imagen del papa Francisco con zapatillas y chaquetón con aires de trapero. Todo estaba generado con IA, pero fueron miles de internautas los que creían que era real.

Algunos montajes del papa, hechos por Abel Xavier mediante IA.

Enrique compara un martillo con la IA para hacernos ver que los límites del uso de la IA están en la ética que tenga cada usuario. Un martillo es útil para muchas cosas, como colgar una obra de arte en un sitio maravilloso, pero con él también puedes golpear en la cabeza a alguien y matarlo, lo que es un delito. Pues con la IA pasa algo similar.

"El mundo digital puede ser tan perjudicial como el mundo real y no nos damos cuenta. Igual le gastas a alguien en el mundo real una broma y no pasa nada, pero en el mundo digital pasa todo lo contrario. Además, ese permite que llegue a cualquier sitio muy rápidamente. Algo que pasa en el mundo digital puede guardarse, grabarse o distribuirse y seguir haciendo daño en el futuro y mucho más. Hay que tener mucho más cuidado", explica el experto.

¿Regulación?

No solo pueden desnudarnos en apenas unos segundos, sino que pueden incluso robarnos nuestra voz e imagen para difundir un vídeo donde demos un discurso quizá contrario a lo que verdaderamente pensamos... O incluso pueden doblarnos a otros idiomas, como se ha visto en los últimos días en Twitter, donde hemos visto a personajes públicos como David Broncano o la mismísima Belén Esteban charlando en inglés. Aún hay fallos, sobre todo percibibles en el movimiento de la boca, pero sus resultados no dejan de ser sorprendentes.

Aunque los límites estén en la ética de cada uno y se le pueda sacar mucho partido a la IA para bien, son muchos los analistas que creen que, como en muchos aspectos de la vida, ha de existir un control. En abril de 2021, la Comisión Europea anunció que se estaba trabajando en un marco regulador para poner control a los usuarios de la IA y desde entonces se han ido produciendo diversos avances al respecto para elaborar una Ley Reguladora Sobre Inteligencia Artificial.

De hecho, la Eurocámara aprobó en junio de este año negociar la que sería la primera ley sobre IA del mundo. Habrá que esperar, pero los expertos aseveran que si sigue retrasándose, quizá no llegue a tiempo y acabe resultando obsoleta ante los constantes avances de la tecnología.

Noticias relacionadas