Microsoft está harta de los 'deepfakes': pide a EE.UU que regule los vídeos falsos hechos con inteligencia artificial
En un texto firmado por el vicepresidente y presidente de la compañía, Brad Smith, la firma exige un marco legal para combatir el fraude.
30 julio, 2024 18:00Que los deepfakes se están convirtiendo en un problema no es un misterio en España. No faltan casos perturbadores; una IA clonando la voz de Biden y pidiendo no votar, madres usando inteligencias artificiales para atacar rivales o métodos para robar millones son solo algunos ejemplos. Microsoft parece estar harta, y pide al Congreso de los EE.UU regular los deepfakes de una vez por todas.
Una noticia que llega en un momento de tensión respecto a esta tecnología, con el suceso de Elon Musk compartiendo deepfakes de Kamala Harris aún reciente. En una entrada del blog de Microsoft, titulado "Proteger al público del contenido abusivo generado por IA", la compañía de Redmond solicita medidas para combatir el fraude nacido de esta tecnología.
Firmado por Brad Smith, actual presidente y vicepresidente de Microsoft, el texto del blog alaba que los miembros del Congreso ya hayan movilizado una serie de leyes para abordar el problema. Sin embargo, pide directamente una ley integral contra el fraude de los deepfakes "para impedir que los ciberdelincuentes utilicen esta tecnología para robar a los estadounidenses comunes".
Microsoft pide regular los deepfakes
Básicamente, la misiva de Brad Smith refleja los peligros que presenta la inteligencia artificial en la creación de los deepfakes y sobre todo pide proteger a la ciudadanía, así como a las elecciones y a los procesos electorales elementales. Smith llega a plantearse la IA como un arma de doble filo, que sirva como arma, valga la redundancia, o como avance social.
La entrada aprovecha para publicar 42 páginas de un informe titulado Protección del público contra el contenido abusivo generado por IA, el cual se puede consultar fácilmente desde este enlace. Este texto, reza el comunicado de Smith, permite "comprender el desafío", integrando "un conjunto integral de ideas que incluyen el respaldo al trabajo duro y las políticas de otros".
Sin embargo, el centro del texto radica en la petición de Microsoft hacia los congresistas estadounidenses de crear legislación en torno al problema. "Además de combatir las falsificaciones d IA en nuestras elecciones, es importante que los legisladores y los responsables de las políticas tomen medidas para ampliar nuestras capacidades colectivas", dice Smith.
Smith pide ampliar estas capacidades para "promover la autenticidad del contenido, detectar y responder a las falsificaciones de inteligencia artificial abusivas y dar al público las herramientas para aprender sobre los datos de la IA sintética". Establece, por otro lado, un paquete de nuevas recomendaciones de políticas para las altas esferas de Estados Unidos.
Estas recomendaciones se dividen, a su vez, en tres grandes grupos: proteger las elecciones, proteger a personas mayores y a consumidores del fraude online y proteger a las mujeres y niños de la explotación online. De esta forma, Microsoft pone sobre la mesa tres grandes primeras medidas, dos de ellas dirigidas casi de forma directa al Congreso de los Estados Unidos. Estas son las medidas propuestas por la firma de Redmond:
- Microsoft recomienda promulgar una ley federal contra el fraude por deepfake. Piden otorgar a los funcionarios "un marco legal independiente para procesar los fraudes y las estafas generadas por IA a medida que proliferan con rapidez y complejidad".
- Microsoft recomienda que el Congreso exija a los proveedores de sistemas de IA que usen herramientas de última generación para etiquetar el contenido sintético. "Esto es esencial para generar confianza en el ecosistema de información, y ayudará al público a comprender si el contenido es generado por IA o si está manipulado".
- Por último, Microsoft recomienda a los legisladores asegurarse de que las leyes federales y estatales de EE.UU respecto a la explotación, abuso sexual infantil o publicación de imágenes íntimas se actualicen para incluir el contenido generado por IA.
Los peligros de la IA según Microsoft
Microsoft aprovecha el texto para advertir de muchos de los peligros intrínsecos que encierra la IA y sobre todo la generación de deepfakes, los cuales son cada vez más usados para cometer fraudes, abusos y manipulaciones. Pese a las medidas, estos deepfakes tienen el potencial de "interferir en las elecciones" y de desempeñar un importante papel "en otro tipo de delitos y abusos".
La firma lamenta que el acceso cada vez más amplio y sencillo a las herramientas de IA para generar este contenido las está haciendo más difíciles de controlar. "Cualquiera con acceso a Internet puede utilizar herramientas de IA para crear un medio sintético de gran realismo que puede usarse para engañar: un clon de la voz de un familiar, una imagen deepfake de un candidato político o incluso un documento gubernamental manipulado", relata Smith.
De hecho, las palabras del ejecutivo de Redmond son bastante duras en lo que al uso de la IA refiere. "La IA ha hecho que la manipulación de los medios sea mucho más fácil: más rápida, más accesible y requiere menos habilidad. Tan rápido como la tecnología de IA se ha convertido en una herramienta y se ha convertido en un arma", lamenta el presidente.
Por último, Microsoft aprovecha esta situación para exigir estas medidas, y alentar a sectores como los responsables políticos, los líderes de la sociedad civil y la industria tecnológica para que tomen medidas más rápidas. "A medida que avanzamos en este terreno complejo, es imperativo que los sectores público y privado se unan para abordar esta cuestión de frente", dice el texto.