{"id":129980,"date":"2025-12-17T21:53:11","date_gmt":"2025-12-17T20:53:11","guid":{"rendered":"https:\/\/quondos.com\/mag\/?p=129980"},"modified":"2025-12-17T21:53:13","modified_gmt":"2025-12-17T20:53:13","slug":"nvidia-lanza-nemotron-3-ia-eficiente-con-1-millon-de-tokens-y-moe-para-agentes-autonomos","status":"publish","type":"post","link":"https:\/\/quondos.com\/mag\/nvidia-lanza-nemotron-3-ia-eficiente-con-1-millon-de-tokens-y-moe-para-agentes-autonomos\/","title":{"rendered":"NVIDIA lanza Nemotron 3: IA eficiente con 1 mill\u00f3n de tokens y MoE para agentes aut\u00f3nomos"},"content":{"rendered":"\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"700\" height=\"393\" src=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/12\/nemotron-3-release_mid.webp\" alt=\"\" class=\"wp-image-129981\" title=\"\" srcset=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/12\/nemotron-3-release_mid.webp 700w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/12\/nemotron-3-release_mid-300x168.webp 300w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><\/figure>\n\n\n\n<p>NVIDIA ha presentado la familia de modelos abiertos <strong>Nemotron 3<\/strong>, dise\u00f1ada para aplicaciones de IA agentic. Seg\u00fan la compa\u00f1\u00eda, estos modelos destacan por su eficiencia y precisi\u00f3n en tareas complejas. De acuerdo con el anuncio oficial, incorporan innovaciones que permiten manejar <strong>contextos de hasta 1 mill\u00f3n de tokens<\/strong>.<\/p> <div id=\"ez-toc-container\" class=\"ez-toc-v2_0_76 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">\u00cdndice de contenidos<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Alternar tabla de contenidos\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/quondos.com\/mag\/nvidia-lanza-nemotron-3-ia-eficiente-con-1-millon-de-tokens-y-moe-para-agentes-autonomos\/#La_familia_Nemotron_3_incluye_tres_versiones_adaptadas_a_distintos_usos\" >La familia Nemotron 3 incluye tres versiones adaptadas a distintos usos<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/quondos.com\/mag\/nvidia-lanza-nemotron-3-ia-eficiente-con-1-millon-de-tokens-y-moe-para-agentes-autonomos\/#Arquitectura_hibrida_MoE_impulsa_el_rendimiento_de_los_modelos\" >Arquitectura h\u00edbrida MoE impulsa el rendimiento de los modelos<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/quondos.com\/mag\/nvidia-lanza-nemotron-3-ia-eficiente-con-1-millon-de-tokens-y-moe-para-agentes-autonomos\/#Ventana_de_contexto_de_1_millon_de_tokens_marca_una_diferencia_clave\" >Ventana de contexto de 1 mill\u00f3n de tokens marca una diferencia clave<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/quondos.com\/mag\/nvidia-lanza-nemotron-3-ia-eficiente-con-1-millon-de-tokens-y-moe-para-agentes-autonomos\/#Nemotron_3_promueve_la_apertura_total_en_modelos_de_IA\" >Nemotron 3 promueve la apertura total en modelos de IA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/quondos.com\/mag\/nvidia-lanza-nemotron-3-ia-eficiente-con-1-millon-de-tokens-y-moe-para-agentes-autonomos\/#Implicaciones_practicas_para_desarrolladores_y_empresas\" >Implicaciones pr\u00e1cticas para desarrolladores y empresas<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"La_familia_Nemotron_3_incluye_tres_versiones_adaptadas_a_distintos_usos\"><\/span>La familia Nemotron 3 incluye tres versiones adaptadas a distintos usos<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>La fuente explica que Nemotron 3 se divide en tres tama\u00f1os: <strong>Nano, Super y Ultra<\/strong>. Nemotron 3 Nano cuenta con 30 mil millones de par\u00e1metros totales y activa hasta 3 mil millones por token. Esto lo hace ideal para tareas eficientes, seg\u00fan los datos facilitados por NVIDIA.<\/p> <p>Por su parte, Nemotron 3 Super maneja unos <strong>100 mil millones de par\u00e1metros<\/strong> con hasta 10 mil millones activos por token, enfocado en razonamiento de alta precisi\u00f3n. La versi\u00f3n Ultra llega a 500 mil millones de par\u00e1metros, activando 50 mil millones por token para operaciones m\u00e1s demandantes, de acuerdo con la compa\u00f1\u00eda.<\/p> <h2><span class=\"ez-toc-section\" id=\"Arquitectura_hibrida_MoE_impulsa_el_rendimiento_de_los_modelos\"><\/span>Arquitectura h\u00edbrida MoE impulsa el rendimiento de los modelos<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>Seg\u00fan NVIDIA, Nemotron 3 usa una <strong>arquitectura h\u00edbrida Mamba-Transformer con MoE<\/strong> (Mixture of Experts). Esta combinaci\u00f3n permite activar solo los expertos necesarios por tarea, optimizando recursos. La fuente destaca que reduce el consumo de memoria y acelera el procesamiento.<\/p> <p>En comparaci\u00f3n con Nemotron 2 Nano, el nuevo modelo ofrece <strong>hasta 4 veces m\u00e1s throughput de tokens<\/strong> y baja los costes de inferencia hasta un 60%, seg\u00fan los datos proporcionados. Kari Briski, vicepresidenta de software de IA generativa de NVIDIA, mencion\u00f3 que la arquitectura evita estructuras de atenci\u00f3n pesadas.<\/p> <h2><span class=\"ez-toc-section\" id=\"Ventana_de_contexto_de_1_millon_de_tokens_marca_una_diferencia_clave\"><\/span>Ventana de contexto de 1 mill\u00f3n de tokens marca una diferencia clave<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>De acuerdo con la compa\u00f1\u00eda, la <strong>ventana de contexto nativa de 1 mill\u00f3n de tokens<\/strong> permite conversaciones prolongadas sin alucinaciones. Esto facilita procesar repositorios completos de GitHub o m\u00faltiples documentos en un solo paso. La fuente indica que mejora la precisi\u00f3n en cadenas de razonamiento largas.<\/p> <p>Los modelos tambi\u00e9n incorporan <strong>aprendizaje por refuerzo multi-entorno v\u00eda NeMo Gym<\/strong>, lo que adapta habilidades avanzadas. Seg\u00fan NVIDIA, esta capacidad es crucial para agentes aut\u00f3nomos que mantienen historiales extensos y conectan informaci\u00f3n dispersa.<\/p> <h2><span class=\"ez-toc-section\" id=\"Nemotron_3_promueve_la_apertura_total_en_modelos_de_IA\"><\/span>Nemotron 3 promueve la apertura total en modelos de IA<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>La compa\u00f1\u00eda libera pesos, datos, herramientas y entrenamiento de <strong>Nemotron 3 bajo est\u00e1ndares abiertos<\/strong>. Esto permite personalizaci\u00f3n sin barreras propietarias, seg\u00fan la fuente. NVIDIA busca fomentar innovaci\u00f3n en el ecosistema de IA agentic.<\/p> <ul> <li><strong>Nano<\/strong>: Para sistemas multi-agente eficientes a escala.<\/li> <li><strong>Super y Ultra<\/strong>: Con Latent MoE para mayor precisi\u00f3n en hardware NVIDIA Blackwell.<\/li> <li>Entrenados con <strong>1 bill\u00f3n de tokens<\/strong> y NVFP4 de 4 bits.<\/li> <\/ul> <p>Estas caracter\u00edsticas hacen que los modelos sean accesibles para desarrolladores, de acuerdo con los detalles facilitados.<\/p> <h2><span class=\"ez-toc-section\" id=\"Implicaciones_practicas_para_desarrolladores_y_empresas\"><\/span>Implicaciones pr\u00e1cticas para desarrolladores y empresas<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>Seg\u00fan NVIDIA, Nemotron 3 Nano logra el mayor n\u00famero de <strong>tokens por segundo en multi-agente<\/strong>. Esto reduce latencia en tareas multistep y baja costes operativos. La fuente enfatiza su utilidad en aplicaciones reales como an\u00e1lisis de c\u00f3digo extenso.<\/p> <p>El uso de <strong>arquitectura NVFP4 en Blackwell<\/strong> acelera el entrenamiento y reduce memoria, seg\u00fan la compa\u00f1\u00eda. Para founders y startups, representa una opci\u00f3n escalable sin licencias caras. Los modelos ya est\u00e1n disponibles en plataformas como Hugging Face.<\/p>\n\n\n\n<p>Fuente: https:\/\/hipertextual.com\/inteligencia-artificial\/nemotron-3-nvidia-ia-1-millon-tokens-moe<\/p>\n","protected":false},"excerpt":{"rendered":"<p>NVIDIA ha presentado la familia de modelos abiertos Nemotron 3, dise\u00f1ada para aplicaciones de IA agentic. Seg\u00fan la compa\u00f1\u00eda, estos &#8230; <\/p>\n<p class=\"read-more-container\"><a title=\"NVIDIA lanza Nemotron 3: IA eficiente con 1 mill\u00f3n de tokens y MoE para agentes aut\u00f3nomos\" class=\"read-more button\" href=\"https:\/\/quondos.com\/mag\/nvidia-lanza-nemotron-3-ia-eficiente-con-1-millon-de-tokens-y-moe-para-agentes-autonomos\/#more-129980\" aria-label=\"Leer m\u00e1s sobre NVIDIA lanza Nemotron 3: IA eficiente con 1 mill\u00f3n de tokens y MoE para agentes aut\u00f3nomos\">Leer m\u00e1s<\/a><\/p>\n","protected":false},"author":850,"featured_media":129981,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1474],"tags":[],"class_list":["post-129980","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50","no-featured-image-padding"],"_links":{"self":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/129980","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/users\/850"}],"replies":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/comments?post=129980"}],"version-history":[{"count":1,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/129980\/revisions"}],"predecessor-version":[{"id":129982,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/129980\/revisions\/129982"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media\/129981"}],"wp:attachment":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media?parent=129980"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/categories?post=129980"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/tags?post=129980"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}