Aunque parezca sacada de una película de Scorsese, la idea de que las inteligencias artificiales del futuro puedan extinguir la humanidad no es algo baladí. Al menos, para expertos de todos los lugares del mundo, incluyendo España. Los expertos han advertido en numerosas ocasiones de los riesgos que corre la humanidad con estas tecnologías, que ahora están en boca de todos. Tanto es así, que incluso la responsable de ChatGPT, OpenAI, está preparándose para este futuro distópico.
Según expone la propia compañía, OpenAI está tan preocupada de que unas IAs superinteligentes provoquen problemas a los humanos que incluso han creado un equipo específico para garantizar que estos sistemas funcionen por el bien de las personas, no en su contra. De hecho, la misma compañía habla de la posibilidad de que un mal uso de estas tecnologías lleve a la extinción de la raza humana.
El equipo se llamará Superalignment, y planea desarrollar sistemas con inteligencia a nivel humano que pueda supervisar a las IAs superinteligentes que se espera lleguen en los próximos 4 años. Y actualmente, OpenAI está contratando a personas para este equipo, al que planea dedicar al menos un 20% de su fuerza computacional total.
Un equipo para controlar IAs
En un comunicado en su blog, OpenAI detalla que la superinteligencia de la IA será "la tecnología más impactante que la humanidad haya inventado". Admiten que podría ayudarles a resolver "muchos de los problemas más importantes del mundo", pero reconocen que su "vasto poder" podría ser muy peligroso, hasta el punto de "llevar a la pérdida de poder de la humanidad o incluso la extinción humana".
Ante el hecho de no contar con una solución actual para controlar una IA "potencialmente superinteligente" y evitar que provoque problemas, OpenAI ha desarrollado este nuevo equipo. Todo ello, lógicamente, admitiendo que los humanos "no podrán supervisar de manera confiable los sistemas de IA mucho más inteligentes que nosotros", lo que impedirá usar las técnicas de alineación de inteligencia artificial actuales.
Así, el objetivo de OpenAI es crear un equipo de investigadores capaces de usar "grandes cantidades de cómputo" para conseguir alinear iterativamente la superinteligencia. Este nuevo método de investigación de alineación automatizado necesitará del desarrollo "de un método de entrenamiento escalable", de "validar el modelo resultante" y hacer "una prueba de esfuerzo de toda la canalización [de OpenAI]".
En palabras más sencillas, OpenAI desea aprovechar los sistemas de IA actuales para conseguir una mayor evaluación de otros sistemas, lo que se conoce como supervisión escalable. También desean comprender "y controlar cómo nuestros modelos generalizan nuestra supervisión a tareas que no podemos supervisar", algo llamado generalización.
Según OpenAI: "para validar la alineación de nuestros sistemas, automatizamos la búsqueda de comportamientos problemáticos (robustez) e internos problemáticos (interpretabilidad automatizada). Finalmente, podemos probar toda nuestra canalización entrenando deliberadamente modelos desalineados y confirmando que nuestras técnicas detectan los peores tipos de desalineaciones (prueba adversaria)".
Este nuevo equipo que reunirá algunos de los mejores investigadores e ingenieros en lo que a aprendizaje automático se refiere usará el 20% del poder de computación de OpenAI, para resolver "el problema de la alineación de la superinteligencia". Además, esperan que otros tantos equipos contribuyan a esta misión, "desde el desarrollo de nuevos métodos hasta su ampliación paral a implementación".
[OpenAI actualiza ChatGPT: estas son las mejoras que incorpora su inteligencia artificial generativa]
La compañía reconoce que su objetivo es "increíblemente ambicioso" y niegan una garantía de éxito próxima. Este equipo estará codirigido por el investigador Jan Leike y el enfoque de la investigación lo llevará Ilya Sutskever, cofundador y científico jefe de OpenAI. Se unirán a ellos tanto investigadores del equipo de alineación anterior como investigadores de otros equipos dentro de la compañía.