{"id":126670,"date":"2024-04-02T18:20:16","date_gmt":"2024-04-02T16:20:16","guid":{"rendered":"https:\/\/quondos.com\/mag\/?p=126670"},"modified":"2024-04-02T18:20:16","modified_gmt":"2024-04-02T16:20:16","slug":"x-anuncia-grok-1-5-capacidades-mejoradas-y-una-longitud-de-contexto-de-128k-tokens","status":"publish","type":"post","link":"https:\/\/quondos.com\/mag\/x-anuncia-grok-1-5-capacidades-mejoradas-y-una-longitud-de-contexto-de-128k-tokens\/","title":{"rendered":"X anuncia Grok-1.5 capacidades mejoradas y una longitud de contexto de 128k tokens"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"368\" src=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2024\/04\/image-1-1024x368.webp\" alt=\"\" class=\"wp-image-126672\" title=\"\" srcset=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2024\/04\/image-1-1024x368.webp 1024w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2024\/04\/image-1-300x108.webp 300w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2024\/04\/image-1-768x276.webp 768w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2024\/04\/image-1.webp 1105w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n\n<p>\u00bfAlguna vez te has preguntado c\u00f3mo ser\u00e1 el futuro de la tecnolog\u00eda y el razonamiento artificial? Pues bien, <strong>el modelo Grok-1.5<\/strong> est\u00e1 aqu\u00ed para darnos una pista y, seg\u00fan la fuente, este avance promete revolucionar la forma en que entendemos y resolvemos problemas complejos.<\/p>\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_76 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">\u00cdndice de contenidos<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Alternar tabla de contenidos\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/quondos.com\/mag\/x-anuncia-grok-1-5-capacidades-mejoradas-y-una-longitud-de-contexto-de-128k-tokens\/#Grok-15_Un_Gigante_en_el_Mundo_del_Razonamiento_Artificial\" >Grok-1.5: Un Gigante en el Mundo del Razonamiento Artificial<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/quondos.com\/mag\/x-anuncia-grok-1-5-capacidades-mejoradas-y-una-longitud-de-contexto-de-128k-tokens\/#Un_Salto_Cuantitativo_y_Cualitativo\" >Un Salto Cuantitativo y Cualitativo<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/quondos.com\/mag\/x-anuncia-grok-1-5-capacidades-mejoradas-y-una-longitud-de-contexto-de-128k-tokens\/#La_Tecnologia_detras_de_Grok-15\" >La Tecnolog\u00eda detr\u00e1s de Grok-1.5<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/quondos.com\/mag\/x-anuncia-grok-1-5-capacidades-mejoradas-y-una-longitud-de-contexto-de-128k-tokens\/#%C2%BFQue_Sigue_para_Grok-15\" >\u00bfQu\u00e9 Sigue para Grok-1.5?<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"Grok-15_Un_Gigante_en_el_Mundo_del_Razonamiento_Artificial\"><\/span>Grok-1.5: Un Gigante en el Mundo del Razonamiento Artificial<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p><strong>Grok-1.5<\/strong>, el modelo m\u00e1s reciente de xAI, ha sido dise\u00f1ado para <strong>entender contextos largos y realizar razonamientos avanzados<\/strong>. Estar\u00e1 disponible pronto en la plataforma \ud835\udd4f para probadores tempranos y usuarios existentes de Grok, prometiendo una mejora notable en la resoluci\u00f3n de problemas y la generaci\u00f3n de c\u00f3digo.<\/p>\n<p>Bas\u00e1ndose en los progresos hasta noviembre pasado, este modelo muestra una <strong>mejora significativa en su capacidad de razonamiento<\/strong>, lo cual es un gran paso adelante desde la publicaci\u00f3n de los pesos del modelo y la arquitectura de red de Grok-1.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Un_Salto_Cuantitativo_y_Cualitativo\"><\/span>Un Salto Cuantitativo y Cualitativo<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>En pruebas de rendimiento, Grok-1.5 ha alcanzado un <strong>50.6% en el benchmark MATH<\/strong> y un impresionante <strong>90% en GSM8K<\/strong>, evaluando habilidades matem\u00e1ticas a diversos niveles. Adem\u00e1s, obtuvo un 74.1% en HumanEval, centrado en la generaci\u00f3n de c\u00f3digo y soluci\u00f3n de problemas, marcando un hito en su desarrollo.<\/p>\n<p>Una de las novedades m\u00e1s emocionantes es su capacidad para procesar <strong>contextos de hasta 128,000 tokens<\/strong>, lo que incrementa su capacidad de memoria hasta 16 veces en comparaci\u00f3n con versiones anteriores, permiti\u00e9ndole manejar documentos mucho m\u00e1s largos.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"La_Tecnologia_detras_de_Grok-15\"><\/span>La Tecnolog\u00eda detr\u00e1s de Grok-1.5<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>La infraestructura que hace posible a Grok-1.5 incluye un <strong>marco de entrenamiento distribuido<\/strong> basado en JAX, Rust, y Kubernetes, optimizado para la fiabilidad y el m\u00ednimo tiempo de inactividad, incluso frente a fallos. Esto asegura una experiencia de usuario fluida y eficiente.<\/p>\n<p>Adem\u00e1s, el modelo ha demostrado <strong>habilidades excepcionales de recuperaci\u00f3n de informaci\u00f3n<\/strong> en evaluaciones Needle In A Haystack (NIAH) con textos embebidos en contextos de hasta 128K tokens, alcanzando resultados perfectos de recuperaci\u00f3n.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"%C2%BFQue_Sigue_para_Grok-15\"><\/span>\u00bfQu\u00e9 Sigue para Grok-1.5?<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Grok-1.5 estar\u00e1 disponible inicialmente para probadores tempranos, con planes de introducir <strong>nuevas caracter\u00edsticas<\/strong> en los pr\u00f3ximos d\u00edas. Se invita a los interesados en contribuir y trabajar en su innovadora pila de entrenamiento a aplicar al equipo, abriendo la puerta a futuras colaboraciones y desarrollos.<\/p>\n<p>Seg\u00fan la fuente, esta versi\u00f3n representa un avance significativo en capacidades de razonamiento y comprensi\u00f3n de contextos largos, prometiendo mejorar notablemente la resoluci\u00f3n de problemas y la generaci\u00f3n de c\u00f3digo. Es un vistazo emocionante a lo que nos espera en el futuro de la inteligencia artificial.<\/p>\n\n\n\n\n<p>Fuente:https:\/\/x.ai\/blog\/grok-1.5<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00bfAlguna vez te has preguntado c\u00f3mo ser\u00e1 el futuro de la tecnolog\u00eda y el razonamiento artificial? Pues bien, el modelo &#8230; <\/p>\n<p class=\"read-more-container\"><a title=\"X anuncia Grok-1.5 capacidades mejoradas y una longitud de contexto de 128k tokens\" class=\"read-more button\" href=\"https:\/\/quondos.com\/mag\/x-anuncia-grok-1-5-capacidades-mejoradas-y-una-longitud-de-contexto-de-128k-tokens\/#more-126670\" aria-label=\"Leer m\u00e1s sobre X anuncia Grok-1.5 capacidades mejoradas y una longitud de contexto de 128k tokens\">Leer m\u00e1s<\/a><\/p>\n","protected":false},"author":850,"featured_media":126672,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1474],"tags":[],"class_list":["post-126670","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50","no-featured-image-padding"],"_links":{"self":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/126670","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/users\/850"}],"replies":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/comments?post=126670"}],"version-history":[{"count":2,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/126670\/revisions"}],"predecessor-version":[{"id":126673,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/126670\/revisions\/126673"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media\/126672"}],"wp:attachment":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media?parent=126670"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/categories?post=126670"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/tags?post=126670"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}