El ambiente en el corazón tecnológico de Estados Unidos, California, se respira tenso. La política ha vuelto a ser un tema tabú estos días. Las elecciones pasaron, los votantes demócratas reflexionan, los republicanos celebran y, mientras tanto, Trump da los últimos retoques a su polémico gabinete que entrará en el gobierno el próximo mes de enero.
El ciclo de noticias gira en torno a las guerras y a la próxima administración republicana y, mientras tanto, en Silicon Valley se deja la política de lado y se debate abiertamente sobre otra preocupación: los posibles límites de la inteligencia artificial.
No es una cuestión filosófica solamente, sino que también se cuestiona si la tecnología de aprendizaje automatizado puede seguir avanzando al mismo ritmo que lo ha hecho hasta ahora.
¿Habrá límites para la inteligencia artificial? Hasta ahora, el rápido progreso que hemos experimentado en el campo desde 2022 dejaba entrever que la tecnología arrasaría con todo. Los saltos cualitativos entre ChatGPT 3.5 y ChatGPT 4.0 fueron considerables, pero al parecer, el fenómeno no se repetirá con los próximos modelos que se encuentran en desarrollo.
Esta semana se filtró que OpenAI, la organización sin ánimo de lucro que se encuentra detrás de ChatGPT y trabaja en transformar su modelo de negocio, está encontrando problemas con el próximo modelo bautizado como Orion. Al parecer, la nueva versión no cumple con las expectativas.
No es la única firma con obstáculos. Google y su software de IA Gemini también se está topando con problemas y sus nuevos modelos no estarían a la altura, según filtraciones. Por su parte, el modelo 3.5 Opus de Anthropic no hace más que sufrir retrasos.
Las inversiones millonarias que las compañías están realizando en sus productos de inteligencia artificial han visto fuertes retornos, pero el entrenamiento de estos nuevos modelos de aprendizaje automatizado más potentes están presentando problemas relacionados con el acceso a más información y datos: necesitan encontrar nuevas fuentes de las que alimentarse.
Las grandes corporaciones de Silicon Valley y las startups dedicadas a la inteligencia artificial compiten en una carrera feroz por llegar a ser la primera en crear una Inteligencia Artificial General (IAG), un modelo capaz de realizar cualquier tarea intelectual humana de manera similar a como lo haría cualquier persona.
A diferencia de la tecnología con la que contamos en la actualidad, diseñada para tareas concretas como reconocer o generar imágenes y generar texto, la IAG tendría la capacidad de comprender, aprender, y aplicar conocimientos de manera amplia y flexible sin ser limitada a un ámbito específico. Tendría conocimientos en todos los campos.
El objetivo no está muy lejos. Según expertos en el campo, estamos a escasos años de ver cómo la IAG se convierte en una realidad.
Sin embargo, los costes para llegar a esa meta son elevados. El entrenamiento de la inteligencia artificial requiere de millones de datos, un elemento finito y un recurso con el que las compañías parecen estar teniendo problemas. También se requieren centros de datos potentes, con procesadores de nueva generación y el consumo energético es considerable. Tal es así, que la única manera factible de alimentar la inteligencia artificial del futuro pasará por revivir las centrales nucleares, un secreto a voces en el sector.
Son buenas noticias para aquellos que temían la inminente llegada de un nuevo orden mundial impuesto por la inteligencia artificial. El orden natural de las cosas ha logrado poner freno a su avance. Las entidades regulatorias podrían disponer, finalmente, del tiempo que necesitan para crear un marco regulatorio que controle el crecimiento y el uso de esta tecnología.