La IA se acerca al techo: "Todo el mundo busca la próxima novedad para evitar que se estanque su desarrollo"
- Ilya Sutskever, uno de los padres de ChatGPT, entre otros investigadores, advierten de las limitaciones de la principal técnica de entrenamiento.
- Más información: El 'padre' de ChatGPT, sobre la superinteligencia artificial: "es posible que la tengamos en unos pocos miles de días"
La inteligencia artificial ha protagonizado una explosión en los últimos años, propiciada por la llegada de herramientas al gran público y en muchos dispositivos, además de por el rápido crecimiento de los modelos de lenguaje natural y sus espectaculares resultados. Sin embargo, la frenética carrera podría empezar a frenarse ante ciertas limitaciones tecnológicas. La industria busca alternativas, nuevas técnicas y hardware con el que seguir mejorando.
Los desarrolladores de inteligencia artificial cosechan ahora los frutos de años de investigación, pero para el futuro tendrán que aplicar nuevas técnicas si quieren que los modelos de lenguaje natural sean cada vez más capaces. Hasta ahora ha primado el tamaño del conjunto de datos con los que eran entrenados los modelos de lenguaje; cuanto más grande, mejor. Sin embargo, diferentes científicos e investigadores llevan tiempo advirtiendo de los limites de esta práctica.
Entre las voces, la última en alzarse es la de Ilya Sutskever, cofundador de OpenAI que recientemente abandonó la empresa para crear unos nuevos laboratorios enfocados en conseguir una superinteligencia segura, es decir, superior a la humana sin implicar un riesgo para el planeta y sus actuales habitantes. En declaraciones a la agencia de noticias, Reuters, Sutskever asegura que se han estancado los resultados.
"La década de 2010 fue la era de la ampliación(...) Ampliar lo correcto es ahora más importante que nunca", ha dicho. En su nuevo proyecto se estaría abordando un nuevo enfoque para llevar a la IA tan lejos como propone el nombre de la empresa, pero aún no se han dado detalles al respecto.
Las palabras de Sutskever se suman a las de otros expertos que llevan tiempo observando cómo la industria se acerca rápidamente a ese tope provocado por varios motivos. No solo es cada vez más difícil encontrar nuevos millones de datos con los que nutrir a la IA, sino que el hardware existente evoluciona al mismo ritmo que demanda esta pesada carga de trabajo suponiendo un alto coste medioambiental y económico el entrenamiento de los modelos.
Como solución se plantea el desarrollo de nuevos chips, OpenAI estaría creando su propio modelo. También se valora el uso de menos datos, pero más relevantes o, incluso, utilizar contenido creado por la propia IA. En otro sentido se están volcando en mejorar los modelos ya existentes, así ha nacido o1 de OpenAI que anunció capacidades de razonamiento para su nueva IA.
Si GPT-4o llegó a resolver correctamente el 13 % de los problemas de IMO (International Mathematics Olympiad), este modelo de razonamiento resuelve el 83 %. Esto se ha conseguido mediante la técnica "cómputo en tiempo de prueba", que mejora los modelos mientras se utilizan.
La tecnología se enfoca en dedicar más poder de procesamiento a tareas desafiantes y ante un problema evalúa múltiples posibilidades en tiempo real para ofrecer al final la mejor respuesta. Una técnica de razonamiento que sería similar a la de los humanos. Anthropic, xAI y Google DeepMind también estaría trabajando con esta técnica, según informa Reuters.