Inteligencia Artificial

OpenAI anuncia GPT-4 Turbo

En su conferencia de desarrolladores, OpenAI anunció el GPT-4 Turbo, un modelo GPT-4 más económico, rápido e inteligente. Los desarrolladores obtienen muchas funciones API nuevas a un costo mucho menor.

El nuevo modelo GPT-4 Turbo ahora está disponible como una preview a través de la API OpenAI y directamente en ChatGPT . Según el director ejecutivo de OpenAI, Sam Altman, GPT-4 Turbo es «mucho más rápido» y «más inteligente».

El lanzamiento de Turbo también explica los rumores sobre una fecha de entrenamiento de ChatGPT actualizada, GPT-4 Turbo está actualizado hasta abril de 2023. El ChatGPT original solo tenía conocimiento hasta septiembre de 2021. Altman dijo que OpenAI planea actualizar el modelo con más regularidad. en el futuro.

Probablemente lo más destacado para los desarrolladores es la importante reducción de precio que viene con GPT-4 Turbo, los tokens de entrada (procesamiento de texto) para Turbo son tres veces más baratos y los tokens de salida (generación de texto) son dos veces más baratos.

El nuevo modelo Turbo cuesta $0,01 por 1000 tokens en comparación con $0,03 por GPT-4 para tokens de entrada y $0,03 por tokens de salida en comparación con $0,06 por GPT-4. También es mucho más barato que GPT-4 32K , aunque tiene una ventana de contexto cuatro veces más grande (ver más abajo).

Otro punto destacado para los desarrolladores: OpenAI está ampliando la API GPT-4 Turbo para incluir procesamiento de imágenes, integración DALL-E 3 y conversión de texto a voz. El modelo «gpt-4-vision-preview» puede analizar y generar imágenes y crear voz similar a la humana a partir de texto.

OpenAI también está trabajando en un programa experimental de ajuste de GPT-4 y un programa de modelo personalizado para organizaciones con grandes conjuntos de datos propietarios. El ajuste fino de GPT-3.5 se ampliará al modelo de 16K.

GPT-4 Turbo recibe mucha más atención

Probablemente el cambio técnico más importante es el aumento de la llamada ventana de contexto, es decir, la cantidad de palabras que GPT-4 Turbo puede procesar a la vez y tener en cuenta al generar resultados. Anteriormente, la ventana de contexto tenía un máximo de 32.000 tokens. GPT-4 Turbo tiene 128.000 tokens.

Esto equivale a hasta 100.000 palabras o 300 páginas en un libro estándar, según Altman. También dijo que el modelo 128K-GPT-4 Turbo es «mucho más preciso» en términos de contexto general.

OpenAI también confirma el modelo GPT-4 All, que también está disponible ahora. El modelo All cambia automáticamente entre los diferentes modelos GPT para código de programa (Análisis de datos avanzado) o generación de imágenes (DALL-E 3), según los requisitos del usuario. Anteriormente, los usuarios tenían que seleccionar manualmente el modelo apropiado antes de ingresar datos.

API de asistentes y protección de derechos de autor

OpenAI también presentó la API Assistants para ayudar a los desarrolladores a integrar la funcionalidad de IA de asistencia en sus aplicaciones. La API permite subprocesos persistentes e infinitos, lo que permite a los desarrolladores superar las limitaciones de la ventana contextual.

Los asistentes tienen acceso a nuevas herramientas como Code Interpreter, que escribe y ejecuta código Python en un entorno compartimentado; Retrieval, que enriquece al asistente con conocimientos externos; y Function Call, que permite a los asistentes llamar a funciones personalizadas.

La API de Asistentes se basa en la misma funcionalidad que los productos GPT de OpenAI. Los desarrolladores pueden probar la versión beta de Assistants API en Assistants Playground sin escribir ningún código. La beta ya está disponible.

Según Sam Altman, director ejecutivo de OpenAI, los asistentes son un primer paso hacia agentes de IA completos y agregarán nuevas capacidades en el futuro.

Otro servicio nuevo es el «Copyright Shield», que defiende a los clientes y paga por reclamaciones legales relacionadas con la infracción de derechos de autor del contenido generado con modelos OpenAI. Esta protección se aplica a las funciones disponibles públicamente de ChatGPT Enterprise y la plataforma de desarrollador.

Puedes ver la conferencia completa en el siguiente vídeo.

Botón volver arriba