{"id":127293,"date":"2024-07-22T17:13:35","date_gmt":"2024-07-22T15:13:35","guid":{"rendered":"https:\/\/quondos.com\/mag\/?p=127293"},"modified":"2024-07-22T17:13:36","modified_gmt":"2024-07-22T15:13:36","slug":"gpt-4o-mini-la-nueva-evolucion-de-openai","status":"publish","type":"post","link":"https:\/\/quondos.com\/mag\/gpt-4o-mini-la-nueva-evolucion-de-openai\/","title":{"rendered":"GPT-4o mini: la nueva evoluci\u00f3n de OpenAI"},"content":{"rendered":"\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"900\" height=\"736\" src=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/09\/V-1_OpenAI.jpg\" alt=\"\" class=\"wp-image-125239\" title=\"\" srcset=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/09\/V-1_OpenAI.jpg 900w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/09\/V-1_OpenAI-300x245.jpg 300w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/09\/V-1_OpenAI-768x628.jpg 768w\" sizes=\"auto, (max-width: 900px) 100vw, 900px\" \/><\/figure>\n\n\n\n<p>En un movimiento sorprendente, OpenAI ha presentado su nuevo modelo <strong>GPT-4o mini<\/strong>, dise\u00f1ado para ser el m\u00e1s eficiente en cuanto a costos se refiere. Este anuncio promete hacer la inteligencia artificial m\u00e1s accesible y econ\u00f3mica que nunca.<\/p>\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_76 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">\u00cdndice de contenidos<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Alternar tabla de contenidos\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/quondos.com\/mag\/gpt-4o-mini-la-nueva-evolucion-de-openai\/#GPT-4o_mini_El_modelo_pequeno_mas_eficiente\" >GPT-4o mini: El modelo peque\u00f1o m\u00e1s eficiente<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/quondos.com\/mag\/gpt-4o-mini-la-nueva-evolucion-de-openai\/#Soporte_para_texto_y_vision_con_mas_por_venir\" >Soporte para texto y visi\u00f3n, con m\u00e1s por venir<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/quondos.com\/mag\/gpt-4o-mini-la-nueva-evolucion-de-openai\/#Un_pequeno_modelo_con_inteligencia_textual_superior_y_razonamiento_multimodal\" >Un peque\u00f1o modelo con inteligencia textual superior y razonamiento multimodal<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/quondos.com\/mag\/gpt-4o-mini-la-nueva-evolucion-de-openai\/#Medidas_de_seguridad_integradas\" >Medidas de seguridad integradas<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/quondos.com\/mag\/gpt-4o-mini-la-nueva-evolucion-de-openai\/#Disponibilidad_y_precios\" >Disponibilidad y precios<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/quondos.com\/mag\/gpt-4o-mini-la-nueva-evolucion-de-openai\/#%C2%BFQue_sigue\" >\u00bfQu\u00e9 sigue?<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"GPT-4o_mini_El_modelo_pequeno_mas_eficiente\"><\/span>GPT-4o mini: El modelo peque\u00f1o m\u00e1s eficiente<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>OpenAI ha lanzado el <strong>GPT-4o mini<\/strong>, un modelo que promete expandir significativamente las aplicaciones construidas con inteligencia artificial al hacerlo mucho m\u00e1s asequible. Seg\u00fan la fuente, GPT-4o mini tiene un costo de 15 centavos por mill\u00f3n de tokens de entrada y 60 centavos por mill\u00f3n de tokens de salida, siendo m\u00e1s de un 60% m\u00e1s barato que su predecesor GPT-3.5 Turbo.<\/p>\n\n<p>Este modelo se destaca por su capacidad de realizar una amplia gama de tareas gracias a su bajo costo y latencia, como aplicaciones que encadenan o paralelizan m\u00faltiples llamadas a modelos, pasan un gran volumen de contexto al modelo, o interact\u00faan con clientes a trav\u00e9s de respuestas de texto en tiempo real.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Soporte_para_texto_y_vision_con_mas_por_venir\"><\/span>Soporte para texto y visi\u00f3n, con m\u00e1s por venir<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>Actualmente, GPT-4o mini admite texto y visi\u00f3n en la API, y se espera que en el futuro soporte entradas y salidas de texto, imagen, video y audio. El modelo cuenta con una ventana de contexto de 128K tokens, soporta hasta 16K tokens de salida por solicitud y posee conocimientos hasta octubre de 2023.<\/p>\n\n<p>Gracias al mejor tokenizador compartido con GPT-4o, el manejo de textos en otros idiomas es ahora m\u00e1s eficiente en cuanto a costos.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Un_pequeno_modelo_con_inteligencia_textual_superior_y_razonamiento_multimodal\"><\/span>Un peque\u00f1o modelo con inteligencia textual superior y razonamiento multimodal<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>GPT-4o mini supera a GPT-3.5 Turbo y otros modelos peque\u00f1os en benchmarks acad\u00e9micos, tanto en inteligencia textual como en razonamiento multimodal. Adem\u00e1s, demuestra un fuerte desempe\u00f1o en llamadas a funciones, lo que permite a los desarrolladores construir aplicaciones que obtienen datos o toman acciones con sistemas externos.<\/p>\n\n<p>Seg\u00fan la fuente, GPT-4o mini ha sido evaluado en varias pruebas clave, mostrando resultados superiores en tareas de razonamiento, matem\u00e1ticas y codificaci\u00f3n. En MGSM, una prueba de razonamiento matem\u00e1tico, GPT-4o mini obtuvo un 87.0%, superando a Gemini Flash y Claude Haiku.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Medidas_de_seguridad_integradas\"><\/span>Medidas de seguridad integradas<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>La seguridad es una prioridad en el desarrollo de GPT-4o mini. Seg\u00fan OpenAI, se han implementado mitigaciones de seguridad similares a las de GPT-4o, evaluadas tanto por m\u00e9todos automatizados como humanos.<\/p>\n\n<p>M\u00e1s de 70 expertos externos han probado el modelo para identificar posibles riesgos, y los detalles se compartir\u00e1n en el pr\u00f3ximo sistema de tarjetas GPT-4o y el informe de preparaci\u00f3n. Estas evaluaciones han ayudado a mejorar la seguridad de ambos modelos, GPT-4o y GPT-4o mini.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Disponibilidad_y_precios\"><\/span>Disponibilidad y precios<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>GPT-4o mini ya est\u00e1 disponible como modelo de texto y visi\u00f3n en las API de Assistants, Chat Completions y Batch. Los desarrolladores pagar\u00e1n 15 centavos por mill\u00f3n de tokens de entrada y 60 centavos por mill\u00f3n de tokens de salida, aproximadamente el equivalente a 2500 p\u00e1ginas en un libro est\u00e1ndar.<\/p>\n\n<p>En ChatGPT, los usuarios Free, Plus y Team podr\u00e1n acceder a GPT-4o mini a partir de hoy, reemplazando a GPT-3.5. Los usuarios Enterprise tambi\u00e9n tendr\u00e1n acceso la pr\u00f3xima semana, aline\u00e1ndose con la misi\u00f3n de OpenAI de hacer que los beneficios de la IA sean accesibles para todos.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"%C2%BFQue_sigue\"><\/span>\u00bfQu\u00e9 sigue?<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>OpenAI ha sido testigo de avances notables en la inteligencia artificial, acompa\u00f1ados de reducciones sustanciales en los costos. Seg\u00fan la fuente, el costo por token de GPT-4o mini ha disminuido en un 99% desde el lanzamiento de text-davinci-003 en 2022.<\/p>\n\n<p>La visi\u00f3n de OpenAI es un futuro donde los modelos de IA est\u00e9n integrados en cada aplicaci\u00f3n y sitio web. GPT-4o mini est\u00e1 allanando el camino para que los desarrolladores construyan y escalen aplicaciones de IA poderosas de manera m\u00e1s eficiente y econ\u00f3mica. El futuro de la IA se est\u00e1 volviendo m\u00e1s accesible, confiable e integrado en nuestras experiencias digitales diarias.<\/p>\n\n\n\n\n<p>Fuente: https:\/\/openai.com\/index\/gpt-4o-mini-advancing-cost-efficient-intelligence\/<\/p>\n","protected":false},"excerpt":{"rendered":"<p>En un movimiento sorprendente, OpenAI ha presentado su nuevo modelo GPT-4o mini, dise\u00f1ado para ser el m\u00e1s eficiente en cuanto &#8230; <\/p>\n<p class=\"read-more-container\"><a title=\"GPT-4o mini: la nueva evoluci\u00f3n de OpenAI\" class=\"read-more button\" href=\"https:\/\/quondos.com\/mag\/gpt-4o-mini-la-nueva-evolucion-de-openai\/#more-127293\" aria-label=\"Leer m\u00e1s sobre GPT-4o mini: la nueva evoluci\u00f3n de OpenAI\">Leer m\u00e1s<\/a><\/p>\n","protected":false},"author":850,"featured_media":125239,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1474],"tags":[],"class_list":["post-127293","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50","no-featured-image-padding"],"_links":{"self":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/127293","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/users\/850"}],"replies":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/comments?post=127293"}],"version-history":[{"count":2,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/127293\/revisions"}],"predecessor-version":[{"id":127295,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/127293\/revisions\/127295"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media\/125239"}],"wp:attachment":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media?parent=127293"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/categories?post=127293"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/tags?post=127293"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}