A los responsables de ChatGPT les ha salido un nuevo rival, al menos en lo que a ética y seguridad se refiere. Uno de sus miembros más destacados ha decidido emprender el camino de nuevo, creando un nuevo laboratorio sin ánimo de lucro, con el objetivo de evitar el peor futuro que plantea el desarrollo de la inteligencia artificial, o lo que es lo mismo, máquinas más inteligentes que los humanos operando sin control. 

El nombre de Ilya Sutskever se mencionó mucho a finales del año pasado. El investigador y cofundador de OpenAI, fue uno de los impulsores de la destitución de Sam Altman como director ejecutivo. Esta salida duró solo unos días hasta que Altman volvió con más fuerza al frente de la que es una de las empresas líder en el desarrollo de la inteligencia artificial, pero también duramente criticada por haber dejado atrás sus orígenes de organización centrada en la investigación y sin ánimo de lucro.

En ese huracán corporativo, Ilya Sutskever cambió de opinión y ayudó a Altman a volver a la empresa. Tras la sorpresa final, Sutskever guardó silencio hasta mediados de mayo, cuando anunció su salida de OpenAI. Ahora ha revelado que sus nuevos planes se centran en una empresa llamada Safe Superintelligence Inc (SSI), un laboratorio que perseguirá la creación de una superinteligencia artificial segura.

Hay que recordar, que uno de los rumores que explicaban la destitución de Altman por parte de la junta directiva de OpenAI era el supuesto avance que habían hecho sus investigadores y que podría ser una amenaza para la Humanidad. El líder de ese misterioso ensayo llamado 'Q*' fue Ilya Sutskever, entonces Chief Scientist en OpenAI.

¿Qué es la superinteligencia?

La superinteligencia artificial (ASI) define esa barrera en la que la inteligencia artificial supere de forma general a la inteligencia humana con funciones cognitivas de vanguardia y capacidades de pensamiento muy desarrolladas. Esta es aún una simple hipótesis que algunos investigadores sitúan en un futuro a medio o largo plazo, mientras que otros aseguran que está más cerca de lo imaginable, y un tercer grupo rechaza que pueda ocurrir.

Por ahora, la mayor parte de la comunidad habla de una inteligencia artificial estrecha (ANI), IA limitada. Esta destaca en tareas específicas como traducir idiomas o crear imágenes partiendo de texto. Se basa en algoritmos y datos preprogramados y requiere de la intervención humana para funcionar. Entremedias de la inteligencia artificial actual y la superinteligencia, estaría la inteligencia general artificial (AGI), más fuerte y capaz de aprender y razonar entre dominios con la capacidad de establecer conexiones en diferentes campos.

De izquierda a derecha: Jakub Pachocki, Greg Brockman, Ilya Sutskever, Sam Altman y Mira Murati, líderes de OpenAI Ilya Sutskever en Twitter Omicrono

La superinteligencia puede aportar grandes beneficios como dar solución a problemas del mundo que los humanos aún no han encontrado o llevar más lejos tecnologías como la conducción autónoma y el control del tráfico, por ejemplo. Sin embargo, también implica riesgos. 

Preocupa que, al superar a los humanos, esta tecnología adquiera conciencia de sí misma y se dedique a manipular sistemas clave como armas avanzadas. Parte de la solución la explicó también el propio Sam Altman el año pasado al sugerir la necesidad de coordinarse entre la mayoría de agentes en la industria y buscar la manera de "alinear una superinteligencia", es decir, asegurarse que esta tecnología persigue los objetivos marcados por sus desarrolladores y no otros.

Una ASI segura

El objetivo de esta nueva compañía creada por Sutskever sería crear un sistema de inteligencia artificial potente y seguro dentro de una organización de investigación pura que no tiene ninguna intención a corto plazo de vender productos o servicios de IA. A muchos esto les sonará familiar, pues es prácticamente idéntico al principio sobre el que se fundó OpenAI hace años como organización sin ánimo de lucro. 

En palabras del propio Sutskever: "Estará completamente aislado de las presiones externas de tener que lidiar con un producto grande y complicado y estar atrapado en una carrera de ratas competitiva", recoger Bloomberg. "De esta manera, podremos escalar en paz", reza el comunicado de lanzamiento de la empresa.

A Sutskever le acompañan otros dos cofundadores: Daniel Levy, otro reputado investigador de OpenAI; y Daniel Gross, exlíder de IA de Apple. Ni la compañía ni sus fundadores han indicado a qué se refieren o cómo esperan conseguir que esa superinteligencia artificial sea segura. Tampoco han revelado quienes son los patrocinadores financieros tras el proyecto ni cuánto dinero han recaudado. Sus primeras oficinas están en Palo Alto y en Tel Aviv, "donde tenemos profundas raíces y la capacidad de contratar el mejor talento técnico", explican. Tanto Sutskever como Gross crecieron en Israel.