ChatGPT en un montaje fotográfico.

ChatGPT en un montaje fotográfico. Reuters Reuters

Software

Los creadores de ChatGPT sufrieron un ciberataque y lo ocultaron más de un año y medio después

Un atacante desconocido, que no tendría relación con potencias extranjeras, accedió a información importante dentro de la firma.

4 julio, 2024 17:17

OpenAI, la empresa desarrolladora detrás del exitosísimo ChatGPT, se ha enfrentado a varias polémicas respecto a la privacidad de los usuarios en España. En el pasado mes de diciembre se desveló un sencillo truco para revelar miles de datos privados. Ahora se ha descubierto que OpenAI no solo fue hackeada, sino que no informó de que fue atacada a las autoridades.

Así lo relata el The New York Timesque explica que a principios del pasado año 2023, un atacante consiguió acceder a los sistemas de mensajería internos de OpenAI. Una vez dentro, este hacker se habría hecho con información vital sobre el diseño que sustenta las principales tecnologías de IA de la firma de Sam Altman, como es ChatGPT.

El aspecto más llamativo de este hecho es que lejos de reportar este caso a las autoridades, OpenAI decidió limitarse a informar a los propios empleados durante una reunión general. Además, no advirtieron a las autoridades pertinentes debido a que no se habían robado datos sensibles de clientes o socios. Sin embargo, dicho incidente despertó ciertos temores de espionaje entre algunos trabajadores de la empresa.

OpenAI sufrió un hackeo

Todo habría hace más de un año y medio, a principios del 2023. Un atacante de identidad desconocida accedió de forma fraudulenta a los sistemas que regulan la mensajería interna entre empleados de OpenAI, y robó datos referentes a los diseños de las IAs de OpenAI.

Más concretamente, y según el portal, el hacker se habría hecho con datos provenientes de un foro en el que los empleados charlaban sobre los últimos avances tecnológicos de la empresa. Pese a ello, el ciberdelincuente no se 'coló' en los sistemas que sustentan los principales sistemas de IA, como ChatGPT; tampoco robó información de estos sistemas.

Sam Altman, cofundador de OpenAI.

Sam Altman, cofundador de OpenAI. Reuters | Mariia Shalabaieva Omicrono

Tras el ataque, OpenAI celebró una reunión general en sus oficinas ubicada en San Francisco, en abril del año pasado. Se habló de información completamente clasificada, y se relevó la naturaleza del ataque por parte de los directivos ejecutivos de OpenAI. La clave está en que ninguno de estos ejecutivos decidió sacar la noticia a la luz, ya que no había evidencia sobre robo de datos sensibles de usuarios o socios comerciales.

Al no haber robo alguno de esta información privada, los ejecutivos decidieron no catalogar este incidente como una amenaza y mantuvieron el problema dentro de las puertas de OpenAI. Ningún ejecutivo involucrado en el problema contactó con las autoridades pertinentes que puedan considerar este hackeo como un asunto de seguridad nacional.

El problema es que los empleados de OpenAI no se quedaron tranquilo. Desde hace meses las principales esferas políticas estadounidenses están preocupadas sobre las amenazas cibernéticas que perpetran países enemigos, como China. Algunos empleados tenían miedo de que agentes extranjeros pudieran robar datos de inteligencia artificial, llegando incluso a suponer un problema de seguridad a escala nacional.

Por otro lado, también se causó una inquietud entre los empleados referente a la forma de tratar estos asuntos por parte de OpenAI. Los ejecutivos no pensaban que el hacker tuviera relación alguna con ningún gobierno enemigo de EE.UU, lo que les motivó a mantener el hackeo en secreto. Sin embargo, el secretismo en torno al asunto puso de manifiesto los riesgos que supone el robo de datos en sistemas de IA.

Sam Altman, en unas jornadas tecnológicas en Estados Unidos.

Sam Altman, en unas jornadas tecnológicas en Estados Unidos. Getty

La primera noticia que vino sobre el ataque provino de Leopold Aschenbrenner, antiguo investigador de OpenAI que acabó siendo despedido presumiblemente por hablar de estos problemas de seguridad. En una serie de memorandos enviados a la junta directiva, Aschenbrenner denuncia que la empresa de inteligencia artificial no estaba tomando suficiente acción para evitar que agentes gubernamentales robasen su información.

Todo este asunto, que ya se vio mencionado en un podcast por el propio Aschenbrenner el mes pasado, llega en un momento delicado para OpenAI. Las polémicas de la empresa han sido numerosas; el culebrón de Sam Altman o los amenazantes descubrimientos contra la humanidad que OpenAI realizó antes de despedir a su CEO son solo algunos ejemplos.

Incluso fuera de OpenAI, los miedos de las élites políticas a estos ataques no cesan. Jake Sullivan, asistente del actual presidente estadounidense Joe Biden perteneciente a la Agencia de Protección Ambiental, denunció que países enemigos de EE.UU estaban perpetrando ataques a sus sistemas de agua potable, haciendo objetivos a las empresas hídricas involucradas.