
¡Hey! ¿Te enteraste? El mundo de la programación está que arde con las novedades que anunciaron en el DevDay. Prepárate, porque esto va a cambiar el juego para todos los que respiramos código.
El Turbo Cargado y Asequible: GPT-4 Turbo
Para empezar, se lanzó el nuevo modelo GPT-4 Turbo, que no solo es más potente, sino que además viene con precios más bajos y una ventana de contexto de 128K. Esto significa que puede manejar el equivalente a más de 300 páginas de texto en una sola entrada. Y para que lo sepas, este modelo está actualizado con eventos mundiales hasta abril de 2023, ¡así que está fresquito fresquito!
Y ojo, porque el rendimiento también está optimizado. ¿El resultado? Un precio 3 veces más barato para los tokens de entrada y 2 veces más barato para los de salida en comparación con el GPT-4. ¿Que si puedes probarlo ya? Claro que sí, está disponible para todos los desarrolladores que paguen. Simplemente pasando gpt-4-1106-preview en la API lo tendrás entre tus manos.
| Antes | Ahora |
|---|---|
| GPT-4 Turbo Input: $0.03 Output: $0.06 |
GPT-4 8K Input: $0.06 Output: $0.12 |
| GPT-4 32K Input: $0.06 Output: $0.12 |
GPT-4 Turbo 128K Input: $0.01 Output: $0.03 |
| GPT-3.5 Turbo Input: $0.0015 Output: $0.002 |
GPT-3.5 Turbo 4K Input: $0.001 Output: $0.002 |
| GPT-3.5 Turbo 16K Input: $0.003 Output: $0.004 |
GPT-3.5 Turbo 16K Input: $0.001 Output: $0.002 |
| GPT-3.5 Turbo fine-tuning Training: $0.008 Input: $0.012 Output: $0.016 |
GPT-3.5 Turbo 4K and 16K fine-tuning Training: $0.008 Input: $0.003 Output: $0.006 |

¡Haz Que Tus Apps Sean Más Inteligentes Con Assistants API!
Los desarrolladores ahora pueden crear sus propias apps de asistencia AI con una facilidad que antes ni soñábamos, gracias a la nueva Assistants API. Esta joyita permite que las apps tengan objetivos propios y puedan llamar a modelos y herramientas. ¿Y lo mejor? Que ahora puedes llamar a múltiples funciones en un solo mensaje. Imagínate pedirle a tu app que «abra la ventana del coche y apague el A/C» en un solo chasquido.
La Magia Multimodal Ha Llegado
Capacidades multimodales, eso es lo que está en la mesa ahora. Hablamos de visión, creación de imágenes con DALL·E 3, y hasta text-to-speech (TTS). GPT-4 Turbo ahora te deja trabajar con imágenes y mucho más. ¡Es una locura!
Todo Sobre la Precisión y el Control
La nueva función de llamada de funciones viene con una precisión mejorada, o sea, que es más probable que GPT-4 Turbo te devuelva los parámetros correctos del tirón. También se ha mejorado la forma en que sigue instrucciones y tiene un modo JSON para asegurarse de que las respuestas sean JSON válidos.
¿Quieres Más Consistencia? Aquí Tienes Seed Parameter
Con el parámetro seed, puedes obtener salidas reproducibles, lo cual es perfecto para cuando necesitas hacer pruebas o tener un control más firme sobre el comportamiento del modelo. Además, pronto tendremos una función para ver las probabilidades logarítmicas de las salidas más probables.
Asistente Personalizado y Más Herramientas
¿Necesitas algo más personalizado? Pues la API de Asistentes trae herramientas como Code Interpreter y Retrieval. Y no te preocupes por la gestión de los datos, que en OpenAI nos encargamos de mantener tu información privada como debe ser.

Nuevas Modalidades: Visión y TTS
GPT-4 Turbo con visión, esto significa que puedes subir imágenes y el modelo te ayudará a entenderlas y analizarlas. Y para el lado del audio, el text-to-speech es tan bueno que no sabrás si estás escuchando a un humano o a una IA.
Customiza Tu Modelo con GPT-4 Fine Tuning
Si lo que necesitas es personalizar tu modelo más allá de lo básico, ahora puedes participar en un programa de acceso experimental para el ajuste fino de GPT-4. Y para las grandes organizaciones, el programa de Modelos Personalizados será como pedir un traje a medida para sus necesidades de AI.
¿Listo Para Empezar?
Entonces no esperes más. Si quieres jugar con GPT-4 Turbo, simplemente regístrate y usa tu clave API. Y si tienes alguna duda o quieres explorar las posibilidades, nuestro equipo de soporte está listo para ayudarte.
¡A programar se ha dicho!
Fuente:https://openai.com/blog/new-models-and-developer-products-announced-at-devday