La IA ya forma parte de miles de herramientas y dispositivos al alcance de todos en España y medio mundo, pero esto es solo el principio. El considerado el padre de ChatGPT, Sam Altman, ha dado su peculiar predicción del futuro de la IA más temida, aquella capaz de superar al ser humano. Mientras otros responsables de este popular chatbot han emprendido proyectos paralelos para alcanzar esa superinteligencia, Altman sugiere que llevará tiempo, pero será un camino que "debemos descubrir", a pesar de las desventajas como los miles de trabajos que puede destruir.
El CEO de OpenAI ha publicado un extenso artículo de opinión en su página web tratando este tema. "Es posible que tengamos superinteligencia en unos pocos miles de días, puede que lleve más tiempo, pero confío en que lo lograremos".
La superinteligencia es el siguiente nivel a la AGI (inteligencia artificial general) en la que ahora está trabajando oficialmente OpenAI. Se entiende el término como una IA capaz de igualar a la humana en la realización de múltiples tareas, mientras que lo siguiente sería superará a los humanos en cualquier aspecto intelectual. Este último nivel se ha tratado mucho entre teóricos de esta tecnología, sobre todo para enumerar los posibles males que supondría.
A esta afirmación vaga, el diseñador de software y director científico de Rational Software, Grady Booch respondió en X (Twitter): "Estoy harto de todo el bombo publicitario de la IA: no tiene ninguna base en la realidad y sólo sirve para inflar las valoraciones, enardecer al público, generar titulares y distraer del verdadero trabajo que se está realizando en informática".
El directivo de OpenAI compara la evolución histórica que han sufrido las profesiones a lo largo del último siglo con la evolución que se avecina. "Muchos de los trabajos que hacemos hoy habrían parecido insignificantes pérdidas de tiempo a la gente de hace unos cientos de años, pero nadie mira al pasado deseando ser farolero", escribió. "Si un farolero pudiera ver el mundo de hoy, pensaría que la prosperidad que lo rodea es inimaginable. Y si pudiéramos avanzar cien años en el tiempo, la prosperidad que nos rodea parecería igualmente inimaginable".
Altman también reconoce que este proceso, aunque no sea nuevo, se va a acelerar. "No será una historia totalmente positiva, pero las ventajas son tan tremendas que nos debemos a nosotros mismos y al futuro descubrir cómo sortear los riesgos que tenemos por delante", dice.
El excofundador y científico jefe de OpenAI, Ilya Sutskever, dejó OpenAI en junio para fundar una empresa con el término en su nombre: Safe Superintelligence. Sutskever defiende que su proyecto se enfoca en alcanzar esta meta, pero de forma segura para la humanidad. No se sabe si su salida se debe a discrepancias con Altman, quién acaba de salir del consejo de seguridad de OpenIA.
Hay que recordar, que uno de los rumores que explicaban la destitución de Altman por parte de la junta directiva de OpenAI era el supuesto avance que habían hecho sus investigadores y que podría ser una amenaza para la Humanidad. El líder de ese misterioso ensayo llamado 'Q' fue Ilya Sutskever, entonces Chief Scientist en OpenAI.
También a corto plazo, Altman insta a democratizar la tecnología. "Si queremos poner la IA en manos de la mayor cantidad de personas posible", escribe Altman en su ensayo, "necesitamos reducir el costo de la computación y hacerla abundante (lo que requiere mucha energía y chips). Si no construimos la infraestructura suficiente, la IA será un recurso muy limitado por el que se librarán guerras y se convertirá principalmente en una herramienta para los ricos".
OpenAI en el punto de mira
Mientras la compañía sigue siendo la más conocida a nivel mundial en esta nueva industria, también es el foco de ciberdelincuentes. Esta semana la cuenta oficial de OpenAI para dar noticias en X ha sido hackeada. Una publicación animando promocionando un negocio criptográfico supuestamente relacionado con la start-up de IA delataba la actividad fraudulenta. Desde OpenAI aseguran estar investigando el suceso.
Este no es el primer caso de una publicación fraudulenta relacionada con criptomonedas desde una cuenta vinculada a OpenAI. El domingo, la cuenta del investigador Jason Wei publicó un mensaje similar en el que afirmaba anunciar un token llamado OPENAI. Y en junio, la cuenta del científico jefe de OpenAI, Jakub Pachotki, fue pirateada. La cuenta de la directora de tecnología, Mira Murati, también fue pirateada brevemente en junio de 2023.