Desde que se han popularizado los modelos de inteligencia artificial en España, han surgido diversos debates éticos en torno a la promoción y monetización del arte producido por ellos. Especialmente por la comunidad de artistas, que ha denunciado cómo algunos se están lucrando a cambio de arte generado sin ningún esfuerzo. Un nuevo actor surge en esta problemática: las IAs usadas para generar pornografía.
No es ni la primera vez ni será la última que una inteligencia artificial ha sido usada para generar pornografía. No obstante, lejos de que estas se usen para satisfacer las necesidades de unos pocos internautas, hay quienes no solo están buscando estos resultados, sino ganar dinero a través de ellos.
Es lo que pretende Unstable Diffusion, un grupo que según reporta en un extenso artículo TechCrunch, quiere monetizar la pornografía de inteligencia artificial de manera sistemática. Algo que ha provocado todo un caos en algunas plataformas, como Reddit, que se ha visto obligada a tomar medidas.
La IA para pornografía
Si estás metido en el mundillo de las IAs, quizás te suene Stable Diffusion, uno de los más recientes modelos de aprendizaje automático. Ha sido desarrollado por la firma Stability AI, y es una herramienta que permite convertir descripciones de lenguaje en imágenes fotorealistas.
En los últimos meses, se ha vuelto bastante popular en España ya que algunos lo están usando para conseguir imágenes artísticas con su cara. El famoso youtuber Dot CSV, especializado en inteligencia artificial, ha publicado un muy famoso tutorial para conseguir entrenar a esta IA con tu cara.
Y era inevitable que algunos usaran este poder para crear imágenes de contenido erótico. A principios de 2022, Stable Diffusion pasó a ser de código abierto, y se formaron muchas comunidades en los principales foros de Internet como Reddit o 4chan para generar imágenes tanto realistas como estilo cartoon o anime para crear imágenes de desnudos o en posiciones eróticas. El contenido conocido como NSFW (por sus siglas en inglés, No Safe For Work).
Dejando por el momento a un lado las implicaciones éticas tanto para artistas como para los propios consumidores que tienen estas prácticas, la cosa empezó a desmadrarse cuando algunos usaron esta IA para crear imágenes de desnudos falsos de celebridades de Internet. Algo que lógicamente generó muchísimo revuelo.
Esto llevó a Reddit a cerrar prácticamente todos los subreddits (subforos) dedicados a estas prácticas. Algunas comunidades llegaron a prohibir completamente la publicación de arte generado por IA. De todos ellos destacó Unstable Diffusion, un servidor que ahora opera en Discord y que se basa no solo en publicar estas imágenes, sino en venderlas a través de servicios como Patreon.
Unstable Diffusion comenzó a operar en agosto, prácticamente a la vez que se lanzó al público el modelo Stable Diffusion y se hizo código abierto. Se mudaron a Discord después de que Reddit cerrase su subforo principal. Actualmente y a fecha de escrito este artículo, el servidor cuenta con más de 62.000 personas.
[Lo último de Google es su propio DALL-E para generar GIFs con una frase]
En dicho servidor hay todo tipo de chats, y en ellos se comparten tanto artes generados por Stable Diffusion de carácter estándar como imágenes claramente pornográficas. Además, hay tutoriales sobre cómo usar el modelo de IA para generar estas imágenes. No fue hasta que los administradores comenzaron a usar Stable Diffusion para poder generar este contenido y monetizarlo.
El reportaje de TechCrunch relata cómo los primeros intentos de generar pornografía con este modelo eran infructuosos, ya que como casi todos los modelos de IA para generar imágenes a texto, Stable Diffusion usó datos de miles de millones de imágenes. Una ínfima parte del conjunto de datos del modelo en sí contiene pornografía (un 2,9%), por lo que no era viable usarlo sin modificaciones.
Entonces ¿cómo consiguieron generar estas imágenes? Si Unstable Diffusion tiene actualmente su propio bot para generar imágenes NSFW, es porque los administradores usaron a voluntarios del servidor para generar su propio conjunto de datos pornográficos y que así el modelo fuera más fiel a la hora de crear el contenido. Siguen trabajando actualmente para reparar los problemas derivados de este método, como las extremidades y cuerpos deformes.
TechCrunch asegura que el servidor tiene actualmente una recaudación de más de 2.500 dólares mensuales por donantes en Patreon y han generado más de 4 millones de imágenes hasta la fecha.
[Tres tareas que la inteligencia artificial hace y quizá no sabías]
De nuevo, el uso de IA para estos fines no es en absoluto una novedad, pero el problema reside en que Stable Diffusion es un modelo que puede generar imágenes especialmente detalladas y con mayor fidelidad. Incluso están preparando una herramienta web para facilitar el uso de Stable Diffusion para generar pornografía.
Esto plantea varios problemas. Para empezar, los más relacionados con la moral y con la difusión de estos contenidos, ya que perjudica principalmente a los artistas dedicados a crear este tipo de arte. Y es que es más fácil conseguir una imagen fiel al modelo original con Stable Diffusion que con un artista, que depende principalmente de su estilo artístico para trabajar.
Todo esto, además, aplicando unos estándares prácticamente irreales sobre la normatividad de los cuerpos femeninos y los comportamiento sexuales de los mismos. Según recoge Ravit Dotan, vicepresidente de la firma AI at Mission Control, estos riesgos "incluyen poner expectativas aún más irrazonables sobre los cuerpos y el comportamiento sexual de las mujeres". Eso sin contar el asunto de los desnudos sin consentimiento de personas famosas y todo lo que ello implica para su privacidad.
Si bien Stable AI no prohíbe explícitamente que los usuarios generen pornografía a través de su modelo, piden que esta se genere siguiendo siempre la legislación vigente o sin que esta perjudique a otros usuarios.
Algo difícil, ya que hay muchos puntos que podrían considerarse como dañinos, como el uso de obras de otros artistas para entrenar estas inteligencias artificiales. IAs que además, usan estos estilos para crear sus obras, y las acreditaciones de dichas obras también suelen incluir los nombres de los artistas en los que se basan, lo que puede no gustarle a muchos al ver su arte relacionado con estos contenidos.
Un mantra que administradores de Unstable Diffusion han aplicado por su parte, prohibiendo cualquier imagen que no sea ficticia y que no sea "respetuosa con la ley, tanto para SFW como para NSFW". Todo apunta a que esto será más difícil de controlar a medida que la moderación se vuelva más complicada. Una moderación que, además, no tienen actualmente entre sus planes directos.