La controversia sobre los derechos de imagen en la industria de la inteligencia artificial (IA) ha sido un tema recurrente desde que esta tecnología irrumpió en nuestra sociedad. Sin embargo, Elon Musk y Grok, la IA disponible de forma gratuita en España para los usuarios de X (antes Twitter), han elevado esta problemática a un nivel completamente nuevo.
Grok ha estado en el ojo del huracán durante la última semana debido a la viralización y el volumen de imágenes generadas y compartidas en redes sociales. Este modelo, conocido como Aurora, no parece tener problemas en permitir prompts o descripciones que no serían aceptadas por otras IA.
Un ejemplo controvertido de su capacidad son los deepfakes de celebridades, que han inundado las redes sociales con millones de representaciones a menudo comprometedoras o malintencionadas, y que incluyen a deportistas, políticos y artistas de diferentes nacionalidades.
El abogado especializado en inteligencia artificial y derecho tecnológico, Andrés Vanegas Canosa, analiza las implicaciones legales de herramientas como Grok. "El uso de imágenes y nombres de celebridades en estas plataformas plantea cuestiones legales importantes, especialmente en cuanto a derechos de imagen y propiedad intelectual".
Además, según señala, el marco legal podría extenderse a otros delitos relacionados con esta problemática inicial: "dependiendo del propósito y beneficio comercial derivado de estos montajes, podrían surgir demandas por violación de derechos de privacidad o publicidad".
IA sin censura
En este contexto, el aspecto económico no será el único problema que enfrentará la aplicación. "Esto no solo implica costes financieros elevados (sobre todo en jurisdicciones como la estadounidense), sino también riesgos reputacionales y estratégicos para Elon Musk", subraya.
Aunque no todas las solicitudes de generación de imágenes se procesan de manera adecuada, el hecho de que sea posible crear estas representaciones plantea preocupaciones éticas y legales muy significativas.
Musk, por su parte, ha defendido a Grok como un modelo de "IA sin censura", lo que ha generado críticas y nuevas preguntas sobre el impacto de esta herramienta en los derechos de imagen y privacidad.
El enfoque y las decisiones estratégicas del magnate estadounidense son claras, y se caracterizan por su aparente despreocupación hacia las consecuencias legales. Esta situación plantea un panorama incierto, lo que podría generar un impacto significativo y potencialmente perjudicial en todo el sector tecnológico.
"Es cierto que Musk ha mostrado una postura poco convencional frente a riesgos legales, pero en casos como este, las demandas podrían ir más allá de lo económico. Establecer precedentes legales adversos podría limitar herramientas similares en el futuro", concluye Vanegas Canosas. El propio magnate ha publicado imágenes generadas con Grok de personas reales, como Kamala Harris con un atuendo de dictador comunista.
A nivel europeo, la situación sigue siendo incierta. Según Daniel García Carabelos, abogado especializado en inteligencia artificial en Rúa Abogados, el futuro de la aplicación está ligado a la implementación de la legislación en Europa. "Grok se basa en que, por el momento, la AI Act no está plenamente en vigor", señala.
La EU AI Act (Ley de IA de la Unión Europea) es la primera regulación integral sobre inteligencia artificial a nivel mundial. Este marco legal busca garantizar que las aplicaciones de IA desarrolladas y utilizadas en el espacio europeo sean seguras, transparentes, éticas y respetuosas con los derechos fundamentales.
"Si Grok quiere mantenerse en el mercado europeo como un adalid de la libertad de expresión, debe empezar a desarrollar su sistema de gestión de riesgos", advierte García Carabelos, quien considera fundamental incorporar una marca de agua detallada en los contenidos generados. Esta aparece en la esquina inferior derecha de las imágenes creadas por Grok, pero parece insuficiente para su identificación inmediata e inequívoca, y puede recortarse o taparse fácilmente con cualquier software de edición de imágenes.
Deepfakes: el coste legal
En el ámbito legal, los deepfakes han abierto un debate sobre cómo abordar las responsabilidades civiles y económicas derivadas de su uso indebido. Según Daniel García Carabelos, estos casos suelen analizarse desde dos perspectivas principales: el daño emergente y el lucro cesante.
- Daño emergente: "Se refiere al daño efectivamente causado. Normalmente, en casos como los de las celebridades, se incluirían conceptos como la sensación de ansiedad, el daño físico si lo hay, y campañas de lavado de imagen".
- Lucro cesante: "Corresponde a todo aquello que el perjudicado ha dejado de ganar. Por ejemplo, si se le caen campañas de publicidad a causa del deepfake".
Otro de los aspectos clave para Carcía Carabelos es el contexto: "habrá que atender a cada caso concreto. No sería lo mismo una cancelación de Ibai que la de una microinfluencer con 5.000 seguidores".
Las multas del Reglamento de IA:
"Una vez entre en vigor la normativa del Reglamento de IA, se prevén multas de cuantías bastante elevadas. En el caso de sistemas de IA general, podrían llegar a alcanzar hasta un 3% del volumen de facturación anual a nivel mundial del último año. La naturaleza, gravedad y duración de la infracción serán factores clave para graduar la multa", afirma.
Grok se distingue de otros generadores de inteligencia artificial por una ventaja clave: utiliza su propia base de datos. A diferencia de otros sistemas que se apoyan en gigantescos bancos de imágenes externos, Grok se entrena directamente con el contenido generado y publicado en X.
Desde este verano, la red social activó por defecto la opción para que los datos de los usuarios alimenten su IA, lo que ha permitido que millones de imágenes se usen para entrenar a Grok. Muchos usuarios no desactivaron esta opción, ya sea por desconocimiento o por falta de atención, lo que ha impulsado el crecimiento y la precisión de una de las herramientas más potentes del sector.
A pesar de la libertad presente dentro de la aplicación, los términos de servicio de xAI dejan claro que la responsabilidad por el uso indebido de las imágenes generadas recae exclusivamente en el usuario. Además de esta advertencia general, también se detallan restricciones específicas sobre los usos de Grok, particularmente en lo que respecta a la toma de decisiones que afecten a las personas.
En este sentido, la plataforma prohíbe explícitamente utilizar los resultados generados para tomar decisiones que puedan tener un impacto legal o material en otros individuos, incluyendo áreas sensibles como el crédito, la educación o la salud.
El caso Scarlett Johansson
La nueva IA de Grok lleva unos días operando y, hasta el momento, no se ha registrado ninguna demanda de celebridades contra X. Sin embargo, casos como el de Scarlett Johansson podrían marcar el inicio de futuras disputas legales.
En septiembre de 2023, OpenAI contactó con la intérprete para ofrecerle la oportunidad de ceder su voz al sistema ChatGPT, lo que a muchos recordaría su papel en la película Her, aunque ella rechazó la propuesta. Meses después, al escuchar la nueva voz del asistente, llamada Sky, la estrella de Hollywood notó una inquietante similitud con la suya.
Este descubrimiento la llevó a considerar la posibilidad de emprender acciones legales contra la compañía, lo que podría sentar un importante precedente en la industria.
Ante la controversia, OpenAI negó que la voz de Sky fuera una imitación de la reconocida artista, explicando que la persona elegida para el proyecto había sido seleccionada antes de contactar con la actriz. No obstante, y como muestra de respeto (y para evitar una demanda millonaria), la empresa decidió retirar la voz de sus productos.
*Iván Castejón, autor del reportaje, es alumno de la segunda promoción 2024-2025 del Máster de Periodismo de EL ESPAÑOL/UCJC.