La página genera imágenes de mujeres desnudas en base a un algoritmo

La página genera imágenes de mujeres desnudas en base a un algoritmo

Software

Apple elimina apps para generar desnudos con IA de su App Store que se anunciaban en redes como Instagram

Estas aplicaciones estaban alojadas en la tienda de los de Cupertino, y no fue hasta que fueron reportadas que quedaron eliminadas por completo.

26 abril, 2024 17:06

Con la popularización de la inteligencia artificial en España, llegaron sus problemas asociados. Generar pornografía con IAdesnudar a personas sin su consentimiento son solo algunas de sus lacras más importantes. Apple se ha visto obligada a borrar aplicaciones para generar imágenes con inteligencia artificial después de que estas anunciaran la capacidad de crear desnudos ilegales.

Así lo relata 404 Mediael medio que descubrió que estas aplicaciones habían conseguido saltarse las medidas de seguridad de la App Store y permitían generar desnudos vía IA. Se trata de tres aplicaciones distintas que los de Cupertino ya han borrado de la App Store, pero solo después de que el portal avisara de este problema directamente a la empresa.

Lo más llamativo es que Apple no eliminó estas aplicaciones hasta que 404 Media no envió los enlaces de las mismas a Apple. Esto podría indicar que la empresa no pudo localizar estas apps, incluso si estas violaban directamente las políticas y directrices de publicación de aplicaciones de la tienda de Apple.

Apple elimina aplicaciones ilegales

Todo comienza sorprendentemente en Instagram, la red social más popular de Meta. El mismo medio descubrió el pasado lunes que Instagram estaba anunciando aplicaciones para generar desnudos por inteligencia artificial. Esto llevó a revisar la biblioteca de anuncios de Meta, que archiva los anuncios que se muestran en la plataforma. Se pudieron detectar estas aplicaciones provenientes de la App Store de Apple.

Las otras dos aplicaciones anunciadas en Instagram no eran más que servicios ubicados en la web, y poco después Meta eliminó por completo los anuncios. Poco después, Apple contactó con el portal para consultar información sobre estas aplicaciones y un día después se dispuso a borrarlas por completo de la App Store. Algo similar hizo Google con su Play Store, eliminando aplicaciones para generar deepfakes pornográficos.

App que desnudaba a personas.

App que desnudaba a personas.

Los desarrolladores de estas aplicaciones siguen una serie de pautas muy concretas para evitar ser eliminadas de estas tiendas de apps. Estas apps tenían páginas de descarga muy sencillas, sin elementos problemáticos para evitar que los sistemas automáticos de Apple y Google las borrasen. El problema es que luego anunciaban estas funciones de crear desnudos en webs pornográficas.

Este no es un asunto baladí, en absoluto. No solo por el hecho en sí que atenta contra la privacidad e intimidad de una persona, sino por las repercusiones que estas tienen en los usuarios. En marzo fueron arrestados dos jóvenes en Florida que estaban creando imágenes con IA que desnudaban a sus compañeras de clase, según adelantó The Verge en su día.+

Compendio de imágenes sacadas del servidor Unstable Diffusion.

Compendio de imágenes sacadas del servidor Unstable Diffusion. Manuel Fernández Omicrono

El asunto de generar desnudos con IA se ha extendido a límites insospechados, creando incluso productos dedicados a este fin. Es el caso de Nuca, un prototipo de cámara impresa 3D que permite crear en apenas unos segundos un desnudo basado en inteligencia artificial de cualquier persona. Una cámara que tenía como objetivo "provocar y cuestionar la trayectoria actual de la inteligencia artificial generativa en la reproducción de imágenes del cuerpo".

Esto ha llevado a casos especialmente dañinos tanto para usuarios normales como para celebridades, como el de Taylor Swift y las fotos sexuales que inundaron la red social X de Elon Musk. En septiembre del año pasado se pudo descubrir un nuevo caso de niñas desnudadas por inteligencias artificiales, llevando a la apertura de varios procesos en comunidades como Madrid o Badajoz.