Sam Altman, director de OpenAI, anuncia GPT-4 Turbo, una versión avanzada de ChatGPT con acceso a información más actualizada y mayor capacidad para seguir instrucciones detalladas.
OpenAI ha anunciado varias novedades para ChatGPT y otras herramientas de inteligencia artificial durante su reciente conferencia para desarrolladores. Entre los anuncios más destacados se encuentra el lanzamiento de una herramienta de creación de chatbots, denominados GPTs (transformadores preentrenados generativos), y un nuevo modelo para ChatGPT, bautizado como GPT-4 Turbo.
Esta no es la primera vez que ChatGPT recibe una actualización de su modelo. A principios de este año, OpenAI renovó el algoritmo de ChatGPT de GPT-3.5 a GPT-4. ¿Te preguntas en qué diferirá la versión GPT-4 Turbo del chatbot cuando se lance más adelante este año? Basándonos en lanzamientos anteriores, es probable que el modelo se estrene primero para los suscriptores de ChatGPT Plus y luego para el público general.
Aunque OpenAI no concedió a WIRED un acceso anticipado al nuevo modelo de ChatGPT, aquí te contamos qué esperamos que cambie con GPT-4 Turbo.
Nuevo Límite de Conocimiento Despídete del constante recordatorio de ChatGPT de que su corte de información está limitado a septiembre de 2021. “Estamos tan molestos como todos ustedes, quizás más, de que el conocimiento de GPT-4 sobre el mundo terminara en 2021”, expresó Sam Altman, CEO de OpenAI, en la conferencia. El nuevo modelo incluye información hasta abril de 2023, lo que le permite responder con un contexto más actual a tus solicitudes.
Entradas Más Largas “GPT-4 Turbo admite hasta 128,000 tokens de contexto”, dijo Altman. Aunque los tokens no son sinónimos de la cantidad de palabras que puedes incluir en una solicitud, Altman comparó el nuevo límite con el número de palabras de unas 300 páginas de libro. Si deseas que el chatbot analice un documento extenso y te proporcione un resumen, ahora puedes introducir más información de una sola vez con GPT-4 Turbo.
Mejor Seguimiento de Instrucciones Según OpenAI, el nuevo modelo será un mejor oyente. “GPT-4 Turbo se desempeña mejor que nuestros modelos anteriores en tareas que requieren seguir cuidadosamente las instrucciones,” se lee en el blog de la compañía. Esto puede ser particularmente útil para personas que escriben código con la ayuda del chatbot.
Precios Más Bajos para Desarrolladores “El nuevo precio es de un centavo por mil tokens de solicitud y tres centavos por mil tokens de respuesta”, dijo Altman. En términos sencillos, esto significa que GPT-4 Turbo podría costar menos para los desarrolladores al introducir información y recibir respuestas.
Varias Herramientas en un Solo Chat Los suscriptores de ChatGPT Plus quizás estén familiarizados con el menú desplegable de GPT-4, donde pueden seleccionar qué herramientas de chatbot desean usar. Ese menú desplegable pronto pasará a la historia del software. “Hemos escuchado sus comentarios. Ese selector de modelo era extremadamente molesto”, dijo Altman. El chatbot actualizado con GPT-4 Turbo elegirá las herramientas adecuadas, así que si solicitas una imagen, por ejemplo, se espera que use automáticamente Dall-E 3 para responder a tu solicitud.
No olvides mantenerte informado en El Independiente MX