
NVIDIA ha presentado la familia de modelos abiertos Nemotron 3, diseñada para aplicaciones de IA agentic. Según la compañía, estos modelos destacan por su eficiencia y precisión en tareas complejas. De acuerdo con el anuncio oficial, incorporan innovaciones que permiten manejar contextos de hasta 1 millón de tokens.
La familia Nemotron 3 incluye tres versiones adaptadas a distintos usos
La fuente explica que Nemotron 3 se divide en tres tamaños: Nano, Super y Ultra. Nemotron 3 Nano cuenta con 30 mil millones de parámetros totales y activa hasta 3 mil millones por token. Esto lo hace ideal para tareas eficientes, según los datos facilitados por NVIDIA.
Por su parte, Nemotron 3 Super maneja unos 100 mil millones de parámetros con hasta 10 mil millones activos por token, enfocado en razonamiento de alta precisión. La versión Ultra llega a 500 mil millones de parámetros, activando 50 mil millones por token para operaciones más demandantes, de acuerdo con la compañía.
Arquitectura híbrida MoE impulsa el rendimiento de los modelos
Según NVIDIA, Nemotron 3 usa una arquitectura híbrida Mamba-Transformer con MoE (Mixture of Experts). Esta combinación permite activar solo los expertos necesarios por tarea, optimizando recursos. La fuente destaca que reduce el consumo de memoria y acelera el procesamiento.
En comparación con Nemotron 2 Nano, el nuevo modelo ofrece hasta 4 veces más throughput de tokens y baja los costes de inferencia hasta un 60%, según los datos proporcionados. Kari Briski, vicepresidenta de software de IA generativa de NVIDIA, mencionó que la arquitectura evita estructuras de atención pesadas.
Ventana de contexto de 1 millón de tokens marca una diferencia clave
De acuerdo con la compañía, la ventana de contexto nativa de 1 millón de tokens permite conversaciones prolongadas sin alucinaciones. Esto facilita procesar repositorios completos de GitHub o múltiples documentos en un solo paso. La fuente indica que mejora la precisión en cadenas de razonamiento largas.
Los modelos también incorporan aprendizaje por refuerzo multi-entorno vía NeMo Gym, lo que adapta habilidades avanzadas. Según NVIDIA, esta capacidad es crucial para agentes autónomos que mantienen historiales extensos y conectan información dispersa.
Nemotron 3 promueve la apertura total en modelos de IA
La compañía libera pesos, datos, herramientas y entrenamiento de Nemotron 3 bajo estándares abiertos. Esto permite personalización sin barreras propietarias, según la fuente. NVIDIA busca fomentar innovación en el ecosistema de IA agentic.
- Nano: Para sistemas multi-agente eficientes a escala.
- Super y Ultra: Con Latent MoE para mayor precisión en hardware NVIDIA Blackwell.
- Entrenados con 1 billón de tokens y NVFP4 de 4 bits.
Estas características hacen que los modelos sean accesibles para desarrolladores, de acuerdo con los detalles facilitados.
Implicaciones prácticas para desarrolladores y empresas
Según NVIDIA, Nemotron 3 Nano logra el mayor número de tokens por segundo en multi-agente. Esto reduce latencia en tareas multistep y baja costes operativos. La fuente enfatiza su utilidad en aplicaciones reales como análisis de código extenso.
El uso de arquitectura NVFP4 en Blackwell acelera el entrenamiento y reduce memoria, según la compañía. Para founders y startups, representa una opción escalable sin licencias caras. Los modelos ya están disponibles en plataformas como Hugging Face.
Fuente: https://hipertextual.com/inteligencia-artificial/nemotron-3-nvidia-ia-1-millon-tokens-moe