{"id":126807,"date":"2024-04-24T12:00:33","date_gmt":"2024-04-24T10:00:33","guid":{"rendered":"https:\/\/quondos.com\/mag\/?p=126807"},"modified":"2024-04-24T12:00:34","modified_gmt":"2024-04-24T10:00:34","slug":"el-pequeno-y-eficiente-llm-phi-3-de-microsoft-supera-a-llama-3-de-meta-y-al-chatgpt-gratuito","status":"publish","type":"post","link":"https:\/\/quondos.com\/mag\/el-pequeno-y-eficiente-llm-phi-3-de-microsoft-supera-a-llama-3-de-meta-y-al-chatgpt-gratuito\/","title":{"rendered":"El peque\u00f1o y eficiente LLM Phi-3 de Microsoft supera a Llama 3 de Meta y al ChatGPT gratuito"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2024\/04\/image-7-1024x576.webp\" alt=\"\" class=\"wp-image-126810\" title=\"\" srcset=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2024\/04\/image-7-1024x576.webp 1024w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2024\/04\/image-7-300x169.webp 300w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2024\/04\/image-7-768x432.webp 768w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2024\/04\/image-7-1536x863.webp 1536w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2024\/04\/image-7-2048x1151.webp 2048w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n\n<p>En el mundo de la inteligencia artificial, Microsoft ha lanzado un nuevo modelo llamado Phi-3, que seg\u00fan pruebas internas, est\u00e1 listo para superar a competidores como el Llama 3 de Meta y el ChatGPT gratuito en t\u00e9rminos de eficiencia y rendimiento. <strong>El Phi-3-mini, con solo 3.8 mil millones de par\u00e1metros<\/strong>, ya est\u00e1 disponible y promete revolucionar lo que esperamos de los modelos de lenguaje m\u00e1s peque\u00f1os.<\/p>\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_76 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">\u00cdndice de contenidos<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Alternar tabla de contenidos\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/quondos.com\/mag\/el-pequeno-y-eficiente-llm-phi-3-de-microsoft-supera-a-llama-3-de-meta-y-al-chatgpt-gratuito\/#Presentando_el_Phi-3_de_Microsoft\" >Presentando el Phi-3 de Microsoft<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/quondos.com\/mag\/el-pequeno-y-eficiente-llm-phi-3-de-microsoft-supera-a-llama-3-de-meta-y-al-chatgpt-gratuito\/#Comparacion_de_rendimiento\" >Comparaci\u00f3n de rendimiento<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/quondos.com\/mag\/el-pequeno-y-eficiente-llm-phi-3-de-microsoft-supera-a-llama-3-de-meta-y-al-chatgpt-gratuito\/#Importancia_de_los_datos_de_entrenamiento_de_alta_calidad\" >Importancia de los datos de entrenamiento de alta calidad<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/quondos.com\/mag\/el-pequeno-y-eficiente-llm-phi-3-de-microsoft-supera-a-llama-3-de-meta-y-al-chatgpt-gratuito\/#Rendimiento_de_Phi-3_en_benchmarks\" >Rendimiento de Phi-3 en benchmarks<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/quondos.com\/mag\/el-pequeno-y-eficiente-llm-phi-3-de-microsoft-supera-a-llama-3-de-meta-y-al-chatgpt-gratuito\/#Seguridad_y_accesibilidad\" >Seguridad y accesibilidad<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"Presentando_el_Phi-3_de_Microsoft\"><\/span>Presentando el Phi-3 de Microsoft<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>La familia Phi-3 ha sido dise\u00f1ada para ser extremadamente eficiente en recursos, ideal para escenarios con poder computacional limitado donde se requiere baja latencia o es cr\u00edtico reducir costos. Microsoft destaca que estos modelos son m\u00e1s f\u00e1ciles de ajustar que los modelos de IA m\u00e1s grandes, lo que los hace muy atractivos para desarrolladores y empresas.<\/p>\n<p>Los modelos Phi-3 son optimizados para instrucciones y utilizan el entorno de ejecuci\u00f3n ONNX, con soporte para Windows DirectML y GPUs de NVIDIA. Esto sugiere un enfoque en la calidad de los datos m\u00e1s que en la cantidad, una caracter\u00edstica clave seg\u00fan Microsoft.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Comparacion_de_rendimiento\"><\/span>Comparaci\u00f3n de rendimiento<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>En las pruebas internas, el modelo Phi-3-mini ha logrado un 69% en el benchmark de comprensi\u00f3n del lenguaje MMLU y 8.38 puntos en el MT benchmark. Esto es notable considerando su peque\u00f1o tama\u00f1o, y seg\u00fan Microsoft, <strong>estos modelos pueden funcionar localmente en un smartphone est\u00e1ndar<\/strong> con tan solo 1.8 GB de memoria, alcanzando m\u00e1s de 12 tokens por segundo en un iPhone 14 con chip A16.<\/p>\n<p>Los desarrolladores describen esta capacidad diciendo que es \u00abcomo meter un supercomputador en un tel\u00e9fono plegable, pero en lugar de romper el tel\u00e9fono, solo rompe internet con su potente habilidad ling\u00fc\u00edstica\u00bb. Esta capacidad resalta la innovaci\u00f3n detr\u00e1s de Phi-3.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Importancia_de_los_datos_de_entrenamiento_de_alta_calidad\"><\/span>Importancia de los datos de entrenamiento de alta calidad<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>El secreto del rendimiento de Phi 3, seg\u00fan Microsoft, radica \u00fanicamente en el conjunto de datos de entrenamiento. Este conjunto incluye datos web y sint\u00e9ticos generados por LLM, filtrados intensamente para mejorar la calidad. <strong>Este m\u00e9todo de entrenamiento se basa en los utilizados en sus predecesores<\/strong>, Phi 2 y Phi 1, lo que ha permitido a Microsoft acercarse m\u00e1s al \u00ab\u00f3ptimo de datos\u00bb para un modelo compacto al centrarse en habilidades de conocimiento y razonamiento.<\/p>\n<p>Durante la primera fase del entrenamiento previo, se utiliza principalmente datos web para desarrollar el conocimiento general y la comprensi\u00f3n del lenguaje del modelo. En la segunda fase, los datos web de alta calidad se combinan con datos sint\u00e9ticos seleccionados para optimizar el rendimiento del modelo en \u00e1reas espec\u00edficas como l\u00f3gica y aplicaciones de nicho.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Rendimiento_de_Phi-3_en_benchmarks\"><\/span>Rendimiento de Phi-3 en benchmarks<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Los modelos Phi-3-small y Phi-3-medium, con 7 mil millones y 14 mil millones de par\u00e1metros respectivamente, tambi\u00e9n se han entrenado con 4.8 billones de tokens y muestran rendimientos similares al Phi-3-mini en benchmarks para modelos de su clase. <strong>Estos modelos alcanzan un 75 y un 78 por ciento en el benchmark MMLU<\/strong> y 8.7 y 8.9 puntos en el MT benchmark, lo que los sit\u00faa muy cerca de modelos mucho m\u00e1s grandes como el Llama 3 de Meta con 70 mil millones de par\u00e1metros.<\/p>\n<p>Aunque el rendimiento percibido en aplicaciones y los resultados de benchmarks no siempre coinciden, queda por ver en qu\u00e9 medida el modelo ser\u00e1 adoptado por la comunidad de c\u00f3digo abierto.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Seguridad_y_accesibilidad\"><\/span>Seguridad y accesibilidad<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>En t\u00e9rminos de seguridad, Microsoft afirma haber adoptado un enfoque de m\u00faltiples pasos con entrenamiento de alineaci\u00f3n, equipos de red, pruebas automatizadas y revisiones independientes, lo que ha reducido significativamente el n\u00famero de respuestas potencialmente da\u00f1inas. Adem\u00e1s, el Phi 3 utiliza una estructura de bloques similar y el mismo tokenizador que el modelo Llama de Meta, lo que permite que la comunidad de c\u00f3digo abierto\n\n\n\n<p>Fuente: https:\/\/the-decoder.com\/microsofts-small-and-efficient-llm-phi-3-beats-metas-llama-3-and-free-chatgpt-in-benchmarks\/<\/p>\n","protected":false},"excerpt":{"rendered":"<p>En el mundo de la inteligencia artificial, Microsoft ha lanzado un nuevo modelo llamado Phi-3, que seg\u00fan pruebas internas, est\u00e1 &#8230; <\/p>\n<p class=\"read-more-container\"><a title=\"El peque\u00f1o y eficiente LLM Phi-3 de Microsoft supera a Llama 3 de Meta y al ChatGPT gratuito\" class=\"read-more button\" href=\"https:\/\/quondos.com\/mag\/el-pequeno-y-eficiente-llm-phi-3-de-microsoft-supera-a-llama-3-de-meta-y-al-chatgpt-gratuito\/#more-126807\" aria-label=\"Leer m\u00e1s sobre El peque\u00f1o y eficiente LLM Phi-3 de Microsoft supera a Llama 3 de Meta y al ChatGPT gratuito\">Leer m\u00e1s<\/a><\/p>\n","protected":false},"author":850,"featured_media":126810,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1474],"tags":[],"class_list":["post-126807","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50","no-featured-image-padding"],"_links":{"self":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/126807","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/users\/850"}],"replies":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/comments?post=126807"}],"version-history":[{"count":3,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/126807\/revisions"}],"predecessor-version":[{"id":126811,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/126807\/revisions\/126811"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media\/126810"}],"wp:attachment":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media?parent=126807"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/categories?post=126807"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/tags?post=126807"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}