MADRID, 7 (Portaltic/EP)
La compañía de investigación de Inteligencia Artificial (IA) Open AI ha lanzado la versión completa de su modelo de lenguaje GT-2, que genera párrafos coherentes de texto sin supervisar que logran convencer a cerca de siete de cada diez personas, después de haber lanzado hasta el momento solo versiones limitadas por los peligros de su capacidad para usos como redactar noticias falsas o llevar a acabo ataques de 'phishing'.
Open AI anunció un modelo de GPT-2 en febrero de este año, que no se lanzó debido a las preocupaciones generadas alrededor de los malos usos que se podían hacer de esta tecnología, pero lanzó una primera versión completa en agosto. Ahora, la compañía ha publicado su versión completa, donde han incluido 1.500 millones de parámetros, más del doble que la anterior.
Tras analizar el modelo a fondo, la compañía no ha observado pruebas sólidas de que se haya hecho un mal uso de ella en sus versiones pruebas, según declara en su página web, aunque reconoce que podría ser usada para campañas de 'spam' o 'phishing'.
Durante sus nueve meses de desarrollo, la compañía ha podido comprobar que el nuevo modelo de GPT-2, ha mejorado la credibilidad de sus textos, ya que en una encuesta de la Universidad de Cornell (Estados Unidos) las personas le daban un 6,91 sobre 10 de credibilidad (frente al 6,72 sobre 10 del modelo de agosto).
El mayor desafío al que se enfrentan los investigadores es la creación de texto sintético que produce este modelo. Según el Centro de Terrorismo, Extremismo y Contraterrorismo de la Universidad de Middlebury (Estados Unidos), GT-2 podría ser utilizado por grupos extremistas de supremacistas blancos, yihadistas, marxistas o anarquistas.
OpenAI advierte de que "la detección de texto sintético es un desafío a largo plazo", y ha desarrollado una herramienta basada en GT-2 para detectar textos falsos que logra una precisión del 95 por ciento, una cifra que consideran que "no es suficientemente alta".