Tras lanzar GPT Store, la tienda donde comprar chatbots personalizados, OpenAI ha actualizado recientemente la política de uso de su inteligencia artificial, ChatGPT, que desde hace unas semanas es más rápido y versátil. Una renovación de su política que ha dejado un importante cambio, ya que la empresa ha eliminado la prohibición de que su tecnología se utilice para fines militares y en guerras.

Concretamente, la compañía liderada por Sam Altman ha modificado un poco su política de uso en lo que a aplicaciones militares y bélicas se refiere. Si anteriormente dicho documento mencionaba de forma explícita la prohibición de usar ChatGPT en ese tipo de actividades, con la nueva actualización esto ha suprimido

Las nuevas políticas de uso de OpenAI siguen prohibiendo el uso de esta tecnología para fines como desarrollar armas, herir personas o destruir propiedades; pero hay ciertos aspectos y restricciones del documento que se han suavizado. Y, en el caso de la actividad militar y bélica, se ha eliminado su mención en el documento -cuando anteriormente sí estaba reflejado-.

ChatGPT.

"No utilices nuestros servicios para hacerte daño a ti mismo o a otros. Por ejemplo, no utilices nuestros servicios para promover el suicidio o autolesionarte, desarrollar o utilizar armas, herir a otros o destruir propiedades, o participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema", se puede leer en la nueva actualización de política de uso de ChatGPT.

Un cambio que no ha pasado desapercibido, incluso por los expertos, y que se llevó a cabo hace unos días, concretamente el pasado miércoles 10 de enero. Además, la empresa ha señalado que esta nueva actualización se presenta como una opción para que las normas resulten "más claras" y aporten una "orientación más específica" a los usuarios.

[Aprueban una ley redactada por ChatGPT en secreto: la última polémica por usar la IA en política]

Los cambios de políticas de uso suelen suceder con bastante frecuencia en el mundo de la tecnología. Sin embargo, este último ha generado polémica. Sarah Myers West, directora general del AI Now Institute y exanalista de políticas de inteligencia artificial en la Comisión Federal de Comercio, ha indicado al medio The Intercept que "el lenguaje que figura ahora en la política sigue siendo vago y plantea preguntas sobre cómo OpenAI pretende abordar la aplicación de la ley". 

También te puede interesar...