Mientras se sigue esperando la llegada de GPT-5, OpenAI ha anunciado desde su cuenta de X (anteriormente Twitter) la disponibilidad de GPT-4 Turbo fuera del previo como una vasta mejora ante las anteriores versiones. No ha dado detalles precisos de las mejoras, pero sí que su capacidad de 'razonamiento' ha mejorado exponencialmente.
En esta 'guerra' continua que se está viviendo en estos momentos entre OpenAI, Google y la llegada de Vids para generar vídeos con IA, e incluso Meta con el despliegue próximo de Llama 3, los creadores de ChatGPT pegan un buen golpe sobre la mesa al sacar del previo a GPT-4 Turbo y así dar el paso final para que se pueda utilizar abiertamente.
OpenAI ha comunicado desde su cuenta de X (anteriormente Twitter) que GPT-4 Turbo ha salido finalmente del previo como un modelo que es una gran mejora frente a los anteriores. De hecho, especifica que el modelo ha mejorado en las matemáticas y en su capacidad de 'razonamiento'.
Un 'razonamiento' que aplicado a Vision, hace que GPT-4 Turbo sea de una gran mayor utilidad para los desarrolladores. Justamente la cuenta para desarrolladores de OpenAI ha mostrado desde X (anteriormente Twitter) algunos ejemplos de empresas que están trabajando ya con su modelo: Healthify, para ser capaz de analizar el valor alimentario de un plato con una fotografía al usar Vision, o Cognition, que con su plataforma está ofreciendo nuevas experiencias en la asistencia a la programación.
OpenAI ha compartido que se ha logrado que GPT-4 Turbo 'razone' mejor gracias a las mejoras en el entrenamiento y en el uso de distintos tipos de datos. Un anuncio en el que no hay muchos detalles para evaluar realmente el porqué de la masiva mejora con GPT-4 Turbo.
Desde la plataforma de OpenAI se puede leer la descripción del nuevo GPT-4 Turbo con sus capacidades para la visión y las especificaciones para que los desarrolladores puedan comenzar a integrarlo.
Se espera que próximamente los creadores de ChatGPT puedan especificar con datos que supone el gran avance con GPT-4 Turbo ante los distintos modelos anteriores. Y es que tal como se recoge de sus palabras en X, necesitan el feedback de los desarrolladores para comprender mejor este gran paso dado y al que se ha denominado como un 'mega avance'.
Como se podría decir, un buen 'zarpazo' que ha dado a los intereses de Google con Gemini Pro y ese gran avance mostrado hace horas para que desde Workspace se puedan crear vídeos en cuestión de segundos gracias a la inteligencia artificial generativa.