
Con el paso del tiempo, un número creciente de empresas están incorporando modelos de IA generativa en sus operaciones o servicios, ya sea mediante desarrollo interno o apoyándose en los modelos creados por los grandes referentes en esta disciplina. Uno de estos referentes es OpenAI, la entidad de investigación y desarrollo de inteligencia artificial detrás de tecnologías como DALLE o GPT.
Ante la intensa competencia que se está gestando en este sector, no cesa en su labor de innovación para sus herramientas, y recientemente ha anunciado actualizaciones relacionadas con GPT. A través de un comunicado en su blog, ha presentado nuevas funcionalidades y también una disminución en sus precios.
Nueva función de llamada en GPT-3.5-turbo y en GPT-4
Específicamente, han sido las versiones GPT-3.5-turbo y GPT-4 las que han adoptado estas actualizaciones. Ambos modelos ahora disponen de una nueva funcionalidad conocida como «función de llamada». Esto permite a los desarrolladores describir funciones y que el modelo recupere información estructurada.
Con esta funcionalidad, se podrían desarrollar chatbots capaces de responder preguntas accediendo a herramientas externas mediante la creación de código. Por ejemplo, podríamos indicarle a la IA «envía un correo a Andrea para averiguar si puede reunirse hoy a las cinco de la tarde», y esta transformaría la solicitud en una llamada de función como «send_email (to: string, body: string)».
Otras opciones que proporciona son: convertir lenguaje natural en llamadas a la API o consultas a la base de datos, y extraer información estructurada de un texto.
Una ventana de contexto ampliada en GPT-3.5-turbo
La ventana de contexto, que se mide en tokens, hace referencia a la cantidad de texto que la IA considera antes de generar sus respuestas. Por lo tanto, cuanto más amplia sea esta ventana, superior será la calidad del texto producido. Considerando esto, OpenAI ha cuadruplicado la ventana de contexto de su modelo GPT-3.5-turbo, que ahora abarca 16.000 tokens.
Sin embargo, esta mejora conlleva un aumento de precios, estableciendo un costo de 0,003$ por cada 1.000 tokens de entrada (los que introduces en la herramienta), y de 0,004$ por cada 1.000 tokens de salida (los que genera la IA).
Además, la empresa ha indicado que está probando una versión de GPT-4 que presenta una ventana de contexto de 32.000 tokens. Pero por ahora, se trata de una versión limitada.
Reducción de precios
Mientras que OpenAI incrementa el coste de los tokens en la versión mejorada de GPT-3.5-turbo, la empresa, en su búsqueda por ser más competitiva, ha decidido reducir el precio de la versión anterior de GPT-3.5-turbo.
Esta disminución es del 25% y permitirá a los desarrolladores utilizar este modelo por 0,0015$ por cada 1.000 tokens de entrada y por 0,002$ por cada 1.000 tokens de salida. Esto equivale a alrededor de 700 páginas por dólar.
Foto: Depositphotos