Sam Altman, CEO de OpenAI, ha realizado una gira por Europa en la que ha amenazado con dejar al continente sin ChatGPT y en la que se ha reunido en España con Pedro Sánchez, presidente del Gobierno, quien pidió una supervisión global a la inteligencia artificial (IA). Y aunque aún se sigue debatiendo sobre esta posibilidad, lo cierto es que la compañía ha dado un paso más allá y ya ha pedido un organismo centrado en el "riesgo existencial" que plantea la superinteligencia para la humanidad.
Desde hace tiempo se está estudiando la creación de una agencia internacional que se haga cargo de inspeccionar y auditar la inteligencia artificial general -la actual- para garantizar que sea segura. Pero OpenAI ya ha alertado en un comunicado que es concebible que "dentro de diez años los sistemas de IA superen el nivel de habilidad de los expertos humanos en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad".
En el artículo, que está firmado por Sam Altman y dos directivos de la compañía, Greg Brockman e Ilya Sutskever, la compañía ha asegurado que en términos de ventajas y desventajas potenciales, "la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Y serán más capaces que AGI -IA general-. Podemos tener un futuro dramáticamente más próspero, pero tenemos que gestionar el riesgo para llegar allí".
Garantizar que sea segura
La superinteligencia es aquella inteligencia artificial que supera de manera significativa la capacidad intelectual del ser humano en todos los aspectos. Y puede que dentro de diez años sea toda una realidad, por lo que OpenAI ha asegurado que debe haber un cierto grado de tratamiento y coordinación "entre los principales esfuerzos para garantizar que su desarrollo ocurra de una manera que permita mantener la seguridad de la humanidad y ayudar a la integración fluida de estos sistemas con la sociedad".
Para controlar el progreso de esta tecnología y mitigar sus riesgos, OpenAI ha afirmado que es posible que se necesite crear una organización internacional similar a la Agencia Internacional de Energía Atómica (OIEA), fundada el 29 de julio de 1957 y que ayuda a regular la energía nuclear y establece salvaguardas para asegurarse de que no se utilice con fines militates.
"Es probable que eventualmente necesitemos algo como un OIEA para los esfuerzos de superinteligencia; cualquier esfuerzo por encima de un cierto umbral de capacidad (o recursos como computación) deberá estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, requerir auditorías, probar el cumplimiento de las normas de seguridad, estándares, imponer restricciones en los grados de despliegue y niveles de seguridad, etcétera", han indicado.
Por otra parte, la compañía también ha señalado en el comunicado que otro punto de partida es contar con "la capacidad técnica para hacer que una superinteligencia sea segura. Esta es una pregunta de investigación abierta en la que nosotros y otros estamos poniendo mucho esfuerzo".
[El momento más temido de la IA: ChatGPT-4 tiene signos de razonamiento humano, avisa Microsoft]
También han considerado importante que las empresas y los proyectos de código abierto "desarrollen modelos por debajo de un umbral de capacidad significativo" y que "los sistemas de hoy crearán un enorme valor en el mundo, y si bien tienen riesgos, éstos se sienten acorde con otras tecnologías de Internet". Eso sí, han indicado que "los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora".
También te puede interesar...
- "No sabemos si podremos controlar la IA si llega a cobrar conciencia", advierten los científicos
- Geoffrey Hinton. ¿Por qué el padrino de la IA cambia de bando?
- Apple habría restringido ChatGPT a sus empleados para proteger su información confidencial
- La app de ChatGPT para iPhone es oficial: así puedes usar la IA desde tu móvil