Esta semana ha estado marcada por el drama de las imágenes de abuso sexual generadas por inteligencia artificial basadas en Taylor Swift. En España y en el resto del mundo aparecían miles de estas imágenes, generadas por personas humanas usando herramientas accesibles para todos. Todo apunta a que usaron Designeruna app de generación de texto a imagen y que ahora Microsoft ha parcheando para evitar la generación de estas imágenes.

Según apunta 404 Media, algunos de los responsables de estas imágenes habrían usado Designer, una aplicación que sirve para, mediante prompts, convertir texto en imágenes. Algo similar a lo que hacen servicios como Stable Diffusion o DALL-E. Organizándose mediante canales de Telegram y la plataforma 4chan, los usuarios responsables usaron este software para inundar X (anteriormente Twitter) de estas deplorables imágenes.

Ahora, Microsoft y su CEO, Satya Nadella, han saltado a la palestra para anunciar cambios y protecciones para dicha aplicación. Nadella, en una entrevista a NBC News, explicó que era responsabilidad de Microsoft agregar "más salvaguardas" a las aplicaciones de inteligencia artificial, para evitar precisamente estos casos.

Generar imágenes explícitas con trucos

Después de la inundación de estas imágenes ilegales de Taylor Swift en X, 404 Media descubrió que al menos una parte de estas imágenes fueron generadas usando esta herramienta, completamente gratuita. Lógicamente, estas imágenes van en contra de los términos y condiciones que Microsoft y el resto de empresas imponen para generar estas imágenes. No obstante, muchos sistemas de IA contienen errores y vulnerabilidades que permiten generar estas imágenes.

Este habría sido el caso de estos usuarios. En 4chan, usuarios experimentados en la creación de esta clase de imágenes lanzaron tutoriales sobre cómo eludir las protecciones de Microsoft para la generación de imágenes explícitas o dañinas. Cambiando el orden de los comandos o modificando estratégicamente algunos de ellos, era posible crear esta clase de imágenes.

Taylor Swift canta durante la gala de los American Music Awards. Reuters

Escribir mal el nombre de la celebridad, incluir su profesión en medio de los prompts o describir la situación sin usar términos sexuales son algunos ejemplos. Por ejemplo, en lugar de describir el acto sexual, los usuarios describían objetos, colores o composiciones que claramente referenciaban a estas situaciones. Un método conocido, y que no es ni mucho menos la primera vez que se usa en una de estas herramientas.

Microsoft toma cartas en el asunto

Tras toda la polémica, Microsoft ha anunciado que no solo investigarán todo este problema, sino que tomarán "medidas adecuadas para abordarlos". En palabras de un portavoz de Microsoft, estas imágenes sexuales no están permitidas por el Código de Conducta de Microsoft, e ir en contra de ellas puede resultar en el bloqueo total del usuario para poder usarlas.

He aquí la declaración completa. "Nuestro Código de Conducta prohíbe el uso de nuestras herramientas para la creación de contenido íntimo para adultos o no consensuado, y cualquier intento repetido de producir contenido que vaya en contra de nuestras políticas puede resultar en la pérdida de acceso al servicio. [...] Estamos investigando estos informes y estamos tomando medidas adecuadas para abordarlos".

Taylor Swift.

Nadella, por su parte, ha dicho en la entrevista que la intervención de Microsoft para implementar más protecciones en Designer es una cuestión de "convergencia social sobre ciertas normas". Aseguró poder hacerlo, "especialmente cuando contamos con la ley, la aplicación de la ley y las plataformas tecnológicas que puedan unirse. Creo que podemos gobernar mucho más de lo que nos damos crédito", aclaró el CEO.

Y estas medidas parecen haberse implementado más pronto que tarde. 404 Media recoge cómo algunos de los usuarios pertenecientes a los hilos de 4chan y grupos de Telegram involucrados ya no pueden generar estas imágenes. Si bien algunos métodos seguían funcionando, otros muchos no. Los usuarios resaltan que ahora las imágenes generadas son genéricas.

Desgraciadamente, existen muchas más herramientas de inteligencia artificial que sirven para estos propósitos. De hecho, algunos ya han asegurado que encontrarán otras herramientas para realizar estas fechorías. La industria de la pornografía no consensuada basada en IA está explotando, y expertos ya advertían de la problemática que supone de cara al futuro.

También te puede interesar...