Mientras la Unión Europea aprueba, por una amplia mayoría, el reglamento para mitigar los riesgos de la Inteligencia Artificial (AI) esta semana, y Google retrasa la llegad de Bard a España, la empresa en la cresta de esta ola tecnológica, OpenAI, lanza mejoras en sus modelos de AI generativos que nutren a ChatGPT o Bing de Microsoft. GPT 4 y 3.5 Turbo integran nuevas funciones para conversar con más coherencia y trabajar buscando información en grandes bases de datos.
Aparte de las posibles preguntas que se le puedan hacer a ChatGPT o Bing para pasar el rato. GPT, el famoso modelo de lenguaje natural de OpenAI se está volcando en numerosas aplicaciones creadas por la comunidad de desarrolladores y que sirven como asistente virtual en infinidad de casos: para resumir amplios textos, para guiar a los clientes a la hora de comprar en una web, incluso, para simplificar la gestión de empresas y patrimonios.
Enfocado principalmente en este amplio mercado de servicios inteligentes en herramientas externas, OpenAI ha anunciado esta semana varias novedades en las versiones de GPT-4 y 3.5 turbo que beneficiarán a la hora de buscar información o datos relevantes incluso en aquellos usuarios que no son conscientes que tras esas herramientas está la habilidad de esta inteligencia artificial.
[El momento más temido de la IA: ChatGPT-4 tiene signos de razonamiento humano, avisa Microsoft]
También han modificado precios en el programa de suscripción para desarrolladores. Aunque ambas versiones son de pago actualmente, GPT-3.5 Turbo requiere una suscripción de pago el doble de cara que la versión Plus, aunque OpenAI ha anunciado un descuento del 25% en el precio.
Charlas más coherentes
Para empezar la versión GPT-3.5 Turbo adquiere una ventana de contexto más amplia, esto significa que el modelo de lenguaje natural puede hacer referencia a una mayor cantidad de texto generado anteriormente en la conversación. Es importante a la hora de comunicarse con los chatbots que usan esta tecnología que recuerden las preguntas o detalles mencionados con anterioridad en la conversación para que sus respuestas sean más coherentes a medida que avanza el diálogo entre usuario e inteligencia artificial.
Una mejora que poco a poco se irá incrementando y aplicando en otras versiones, incluso la que está abierta al público de forma gratuita. Estos chatbots aspiran a tener conversaciones tan fluidas como las personas y recordar todo lo que se ha comentado en la charla mejora sus respuestas.
Tu gestor personal
Ambas versiones de este modelo han recibido una nueva capacidad denominada "Function Calling", que se podría traducir como "función de llamada". Esta nueva capacidad permite a los desarrolladores describir funciones para sus aplicaciones o sistema y el modelo de lenguaje crea el código de programación necesario para ejecutar dicha herramienta.
Como demostración de esta nueva capacidad, la propia OpenAI afirma que puede convertir indicaciones como "Envía un email a Anya para saber si quiere tomar café el próximo viernes" el chatbot lo transformaría en "send_email(to: string, body: string). Otro ejemplo, sería:"Consulta el clima en Boston?", que se convierte en "to get_current_weather(location: string, unit: 'celsius' | 'fahrenheit')"
Es cierto que para cualquiera que esté leyendo este artículo, lo más fácil sería buscar en Google ahora mismo el clima de Boston o escribir directamente el email. Sin embargo, esta nueva función tiene otro objetivo, servir de puente entre el chatbot o el modelo de lenguaje natural y herramientas externas, es decir, la tecnología dando órdenes a la tecnología como servicio a los humanos.
De esta forma, y con esas líneas de código, los chatbots que usen GPT-4 pueden realizar consultas directas con bases de datos o extraer datos estructurados de un texto. "Estos modelos se han ajustado para detectar cuándo es necesario llamar una función (según la entrada del usuario) y para responder con JSON que se adhiere a la firma de la función", dice el comunicado de OpenAI. JSON es un formato de texto sencillo que tiene como objetivo el acceso, almacenamiento e intercambio de datos.
El uso de ChatGPT o GPT3.5 o 4 está siendo principalmente para crear otros servicios y aplicaciones, más que esporádicas preguntas curiosas que se le puedan hacer al chatbot para completar los deberes o saber su opinión sobre los pueblos más feos de España. De ahí que esta inteligencia artificial se esté integrando en servicios como los de Stripe, una destacada empresa de tecnología financiera que usa GPT para obtener información detallada de sus clientes o reformar mecanismos de fraudes. Así, la función de llamada serviría para convertir la pregunta "¿Quiénes sin mis diez clientes más importantes de este mes?" en el código "get_customers_by_revenue(start_date: string, end_date: string, limit: int" para extraer la información de alguna herramienta de gestión empresarial.