OpenAI contra los riesgos de la IA: crea un nuevo comité independiente que bloqueará modelos que sean peligrosos
El miedo a una IA perjudicial lleva a los responsables de ChatGPT a prometer mayores medidas de seguridad como "revisiones independientes".
17 septiembre, 2024 09:35La explosión que ha supuesto ChatGPT a nivel mundial, incluso en España, también ha repercutido en la propia compañía que ha sido duramente criticada por haber dejado atrás sus orígenes de organización sin ánimo de lucro y centrada en la investigación. Este último año ha sido algo convulso para la dirección de OpenAI con el despido y regreso de Sam Altman como director ejecutivo, la salida de miembros fundadores o el abandono de Microsoft de su rol de observador en la junta directiva, entre otros cambios. En menos de cuatro meses, la empresa vuelve a crear un nuevo comité de seguridad.
Escándalos como el lanzamiento de GPT 4.o con una voz muy parecida a la de la actriz Scarlett Johansson o los rumores de una posible superinteligencia artificial no segura han puesto contra las cuerdas a este gigante de la IA cuyas herramientas son utilizadas por 200 millones de usuarios semanales. Con este nuevo comité la empresa promete ser más transparente en su trabajo, ahora que busca subir su valoración hasta los 150.000 millones de dólares mediante una nueva recaudación de fondos.
La empresa responsable de ChatGPT ha informado a través de su blog la creación de un "comité de supervisión de la Junta" que será independiente y tendrá la autoridad de retrasar los lanzamientos de nuevos modelos y herramientas por cuestiones de seguridad. Esta decisión se ha tomado después de que el Comité de Seguridad y Protección de la empresa llevará a cabo una revisión de 90 días de los procesos relacionados con la seguridad y formulará una serie de recomendaciones a la Junta en pleno.
Hay que recordar que ese Comité de Seguridad y Protección se creó a finales del mes de mayo. Estaba liderado por el propio Altman, director ejecutivo de la compañía, y tres consejeros: Bret Taylor, Adam d'Angelo y Nicole Seligman. Su única labor ha sido ese estudio de 90 días en el que se han dado algunas recomendaciones como colaborar con organizaciones externas y "establecer una gobernanza independiente para la seguridad y la protección".
De esta forma, el Comité de Seguridad y Protección se convierte en un comité que estará presidido por Zico Kolter, Director del Departamento de Aprendizaje Automático de la Facultad de Ciencias de la Computación de la Universidad Carnegie Mellon. También formarán parte Adam D'Angelo, cofundador y director ejecutivo de Quora y general retirado del ejército de EEUU, así como Paul Nakasone y Nicole Seligman, ex vicepresidente ejecutivo y asesora general de Sony Corporation.
El anuncio asegura que este nuevo comité será independiente y supervisará a la junta, pero sus miembros también pertenecen a la junta directiva de la empresa. Sam Altman, actual director ejecutivo, ya no pertenece a este comité. La empresa además, afirma estar buscando por recomendación de su comité "más formas de compartir y explicar nuestro trabajo de seguridad" y "más oportunidades para realizar pruebas independientes de nuestros sistemas".
"Nos comprometemos a mejorar continuamente nuestro enfoque para lanzar modelos altamente capaces y seguros", afirma el comunicado. A finales de agosto OpenAI y Anthropic acordaron permitir que el gobierno de los Estados Unidos evalúe los principales modelos de IA antes de lanzarlos al público.
Esta medida sería similar a la Junta de Supervisión creada por Meta, empresa de Mark Zuckerberg, para revisar las decisiones de la junta directiva de la empresa a la que pertenecen algunas de las redes sociales más relevantes del momento como Instagram o la aplicación de mensajería WhatsApp y que también desarrolla inteligencia artificial generativa.