Robert Oppenheimer, uno de los padres de la bomba atómica, dijo sobre su invento: sabíamos que el mundo no sería el mismo. Con esta frase rotunda ha informado Dan Hendrycks, el director del Centro para la Seguridad de la IA (CAIS) de un nuevo manifiesto firmado por expertos y dirigentes de las principales empresas que buscan evitar que la inteligencia artificial (IA) conduzca a la extinción de la humanidad. Entre las firmas está la de Sam Altman, padre de ChatGPT, que recientemente visitó España en una campaña global para promover la regulación de esta tecnología.
Un nuevo manifiesto en la web del Centro para la Seguridad de la IA anima a debatir los miedos de los principales agentes de esta industria en ciernes. El texto compara, una vez más, el peligro de esta nueva tecnología con grandes amenazas conocidas por la población como las armas nucleares. "Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear" se puede leer.
Sam Altman, director ejecutivo y John Chulman, cofundador del fabricante de ChatGPT, OpenAI, firman la carta junto a Demis Hassabis director ejecutivo de Google DeepMind y Dario Amodei de Anthropic. Académicos e investigadores de todo el mundo apoyan el manifiesto en una larga lista, aunque de momento no figuran otros nombres como Elon Musk, el magnate de Twitter, SpaceX y Tesla firmó el primero de estos manifiestos antes de saberse que pretendía crear su propia inteligencia artificial. No obstante, la lista está abierta para que sigan llegando firmas de apoyo.
[El 'padre' de ChatGPT recula y no dejará a Europa sin su IA: "No tenemos planes de irnos"]
El Centro para la Seguridad de la IA (CAIS) se define como una organización sin ánimo de lucro que tiene como misión "reducir los riesgos a escala social asociados con la IA mediante la realización de investigaciones de seguridad, la construcción del campo de los investigadores de seguridad de la IA y la defensa de los estándares de seguridad". Sus componentes no pierden la oportunidad de aclarar en su web que consideran que la inteligencia artificial "tiene el potencial de beneficiar profundamente al mundo, siempre que podamos desarrollarla y usarla de manera segura".
La organización asegura que "el objetivo de esta nueva carta es permitir la expresión de inquietudes sobre algunos de los riesgos más graves de la IA avanzada y crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos". El momento de publicarlo coincide con el despertar de los gobiernos por legislar esta tecnología, intención que también se menciona en el texto como uno de los motivos por los que han publicado el escrito. No piden paralizar su desarrollo, como si han solicitado otros expertos.
Entre los firmantes también aparece Geoffrey Hinton, el llamado "padrino de la IA", que con 75 años de edad anunció a principios de mes su renuncia a la vicepresidencia de ingeniería en Google para dedicarse a alertar del reverso tenebroso de esta tecnología que él mismo ha contribuido a crear. Este experto ha mostrado su preocupación por la facilidad con la que los nuevos modelos de inteligencia artificial generativa como ChatGPT o Midjourney generan falsos textos, fotos y vídeos. Las autoridades chinas han detenido hace días a un sospechoso de difundir noticias falsas creadas con ChatGPT.
Hilton también teme que las nuevas herramientas supongan el despido de un gran número de trabajadores. Recientemente ha visto la luz otra advertencia emitida por la comunidad médica sobre el impacto que esta nueva tecnología puede provocar en la salud de la población, entre otros motivos, por la adopción de las herramientas sin controles que aseguren su correcto funcionamiento y la supervisión de profesionales, sobre todo cuando se trata de hacer diagnósticos en pacientes.
Aunque la publicación no detalla en gran medida los riesgos a los que se refieren, sin que abre la puerta a debatirlos, Dan Hendrycks, director de la organización sin ánimo de lucro responsable de la iniciativa, ha explicado en redes sociales que entre los riesgos que deben abordarse están el sesgo sistémico, la información errónea, el uso malicioso, los ciberataques y el armamento. "Desde la perspectiva de la gestión de riesgos, así como sería imprudente priorizar exclusivamente los daños presentes, también sería imprudente ignorarlos", afirma.