OpenAI nos acerca a 'Her': todo lo que puedes hacer con el nuevo ChatGPT que interactúa como un humano
El nuevo modelo GPT-4o de OpenAI tiene el potencial de ser una gran revolución en una industria que aún está dando sus primeros pasos.
14 mayo, 2024 10:54OpenAI lo ha vuelto a hacer. Justo cuando parecía que sus rivales se estaban acercando a las posibilidades de ChatGPT, especialmente Google con Gemini, la compañía comandada por Sam Altman ha dado un golpe en la mesa con la presentación de GPT-4o, su nuevo modelo de lenguaje que puede cambiarlo todo, otra vez.
El lanzamiento de ChatGPT fue un terremoto del que la industria tecnológica aún no se ha recuperado; y ahora, apenas 18 meses después, todo vuelve a cambiar. La presentación de GPT-4o puede pasar a la historia, porque es la primera vez que se pueden hacer realidad las historias de ciencia ficción más surrealistas.
Para comprender la importancia del lanzamiento de GPT-4o, hay que comprender que esto es algo más que una ‘simple’ actualización de ChatGPT como las anteriores. Es cierto que GPT-4 y GPT-4 Turbo ya fueron pasos de gigante respecto a sus antecesores, pero eran eso, pasos sobre un camino ya establecido. GPT-4o, en cambio, es un salto.
Así es GPT-4o y qué puede hacer
La ‘o’ de GPT-4o se refiere a ‘omni’, concretamente, a sus capacidades multimodales. Es fácil comprenderlo si nos fijamos en ChatGPT, y nos damos cuenta de que todo lo que hace está relacionado con el texto; es capaz de comprender lo que escribimos y nos responde con palabras escritas. En cambio, GPT-4o es capaz de trabajar con texto, voz y vídeo al mismo tiempo; y aunque parezca un cambio nimio, en realidad es lo que abre la puerta a muchas posibilidades.
Aunque GPT-4o no es más ‘inteligente’ que GPT-4, el hecho de poder entender y razonar usando los diferentes modos le da una ventaja vital: permite la interacción entre humanos y máquinas. De la misma manera que dos personas usan diferentes métodos para comunicarse, muchas veces durante la misma conversación, esta IA ahora es capaz de hacer lo mismo para comprendernos mejor y especialmente, para ayudarnos a comprenderla.
Dog meets GPT-4o pic.twitter.com/5C0hlYq5ws
— OpenAI (@OpenAI) May 13, 2024
El asistente personal mostrado en la presentación es el mejor ejemplo de cómo GPT-4o puede cambiar nuestras vidas. Las respuestas del asistente son más personales y adaptadas a cada situación, huyendo de respuestas estandarizadas. Por ejemplo, el asistente es capaz de saber si estamos enfadados, tristes o contentos, usando la cámara frontal del móvil para detectar nuestro rostro; en base a esa información, podrá responder de manera diferente, adaptándose a nuestras necesidades y no al revés.
El uso de la visión también permite otras funciones, algunas útiles y otras curiosas, como la posibilidad de jugar a piedra, papel o tijera con una Inteligencia Artificial; aunque probablemente muchos estudiantes estarán interesados en la manera en la que la IA puede detectar las funciones geométricas que tenemos en la pantalla y explicárnoslas en un lenguaje que podemos entender.
Math problems with GPT-4o and @khanacademy pic.twitter.com/RfKaYx5pTJ
— OpenAI (@OpenAI) May 13, 2024
No han faltado las comparaciones de GPT-4o con tecnologías de ciencia ficción. La más obvia es la de her (2014), la película de Spike Jonze, en la que un hombre inicia una relación sentimental con un asistente personal con voz femenina, la única ‘persona’ que realmente le comprende y le ayuda más allá de las necesidades básicas que provee un ordenador. No es una comparativa extraña; el propio Sam Altman ya lo adelantó en una interacción en X (Twitter) el día antes de la presentación.
Pero esa no es la única inspiración en la ciencia ficción de GPT-4o. Una de las funciones más llamativas es el traductor automático en tiempo real; como un aparato sacado de Star Trek, nuestro móvil es capaz de pasar de un idioma a otro de manera nativa. Sólo es necesario indicarlo, y la IA es capaz de funcionar de intermediario entre dos personas que están hablando en sus propios idiomas. Y si preferimos aprender idiomas, podemos apuntar a un objeto con la cámara, y la IA nos explicará cómo se dice lo que estamos viendo en el idioma que queremos.
Realtime translation with GPT-4o pic.twitter.com/J1BsrxwYdE
— OpenAI (@OpenAI) May 13, 2024
Tal vez lo más rompedor de la presentación fue la revelación de que GPT-4o será gratis, parcialmente. Inicialmente, está disponible sólo para los usuarios de pago de las versiones Plus y Enterprise de ChatGPT, pero OpenAI también ofrecerá acceso a ciertas funciones a los usuarios de la versión gratuita. La pelota ahora está en el tejado de Google, que tendrá mucho que demostrar en el Google I/O que se celebra hoy.