{"id":126928,"date":"2024-05-15T23:25:58","date_gmt":"2024-05-15T21:25:58","guid":{"rendered":"https:\/\/quondos.com\/mag\/?p=126928"},"modified":"2024-05-15T23:25:59","modified_gmt":"2024-05-15T21:25:59","slug":"openai-anuncia-gpt-4o-dando-un-paso-de-gigante-en-potencia-y-rapidez","status":"publish","type":"post","link":"https:\/\/quondos.com\/mag\/openai-anuncia-gpt-4o-dando-un-paso-de-gigante-en-potencia-y-rapidez\/","title":{"rendered":"OpenAI anuncia GPT-4o dando un paso de gigante en potencia y rapidez"},"content":{"rendered":"\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"900\" height=\"736\" src=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/09\/V-1_OpenAI.jpg\" alt=\"\" class=\"wp-image-125239\" title=\"\" srcset=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/09\/V-1_OpenAI.jpg 900w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/09\/V-1_OpenAI-300x245.jpg 300w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/09\/V-1_OpenAI-768x628.jpg 768w\" sizes=\"auto, (max-width: 900px) 100vw, 900px\" \/><\/figure>\n\n\n\n\n<p>OpenAI ha dado un importante salto este lunes con la presentaci\u00f3n de GPT-4o, su modelo de inteligencia artificial m\u00e1s potente hasta la fecha. Seg\u00fan la fuente, esta nueva versi\u00f3n de su IA cuenta con <strong>\u00abinteligencia al nivel de GPT-4\u00bb<\/strong>, pero con capacidades mucho m\u00e1s altas a la hora de interpretar audio e im\u00e1genes.<\/p>\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_76 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">\u00cdndice de contenidos<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Alternar tabla de contenidos\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/quondos.com\/mag\/openai-anuncia-gpt-4o-dando-un-paso-de-gigante-en-potencia-y-rapidez\/#GPT-4o_disponible_para_todos_los_usuarios_de_ChatGPT\" >GPT-4o disponible para todos los usuarios de ChatGPT<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/quondos.com\/mag\/openai-anuncia-gpt-4o-dando-un-paso-de-gigante-en-potencia-y-rapidez\/#Interacciones_mas_conversacionales_con_GPT-4o\" >Interacciones m\u00e1s conversacionales con GPT-4o<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/quondos.com\/mag\/openai-anuncia-gpt-4o-dando-un-paso-de-gigante-en-potencia-y-rapidez\/#Despliegue_iterativo_de_GPT-4o_en_todas_las_versiones_de_ChatGPT\" >Despliegue iterativo de GPT-4o en todas las versiones de ChatGPT<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/quondos.com\/mag\/openai-anuncia-gpt-4o-dando-un-paso-de-gigante-en-potencia-y-rapidez\/#Una_IA_mas_rapida_y_economica\" >Una IA m\u00e1s r\u00e1pida y econ\u00f3mica<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/quondos.com\/mag\/openai-anuncia-gpt-4o-dando-un-paso-de-gigante-en-potencia-y-rapidez\/#%C2%BFPor_que_GPT-4o\" >\u00bfPor qu\u00e9 GPT-4o?<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/quondos.com\/mag\/openai-anuncia-gpt-4o-dando-un-paso-de-gigante-en-potencia-y-rapidez\/#Un_modelo_de_IA_de_extremo_a_extremo\" >Un modelo de IA de extremo a extremo<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/quondos.com\/mag\/openai-anuncia-gpt-4o-dando-un-paso-de-gigante-en-potencia-y-rapidez\/#Mejoras_significativas_en_varios_idiomas\" >Mejoras significativas en varios idiomas<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-8\" href=\"https:\/\/quondos.com\/mag\/openai-anuncia-gpt-4o-dando-un-paso-de-gigante-en-potencia-y-rapidez\/#Precauciones_de_seguridad\" >Precauciones de seguridad<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"GPT-4o_disponible_para_todos_los_usuarios_de_ChatGPT\"><\/span>GPT-4o disponible para todos los usuarios de ChatGPT<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>Durante la presentaci\u00f3n de GPT-4o, Mira Murati, jefa tecnol\u00f3gica de la startup, explic\u00f3 que el nuevo modelo estar\u00e1 disponible para todos los usuarios de ChatGPT. Esto significa que el chatbot no solo implementar\u00e1 esta tecnolog\u00eda en las versiones de pago, sino tambi\u00e9n en su variante gratuita.<\/p>\n\n<p>Uno de los grandes beneficios de GPT-4o es que realiza el procesamiento de <strong>audio e im\u00e1genes<\/strong> de forma nativa. Esto ha permitido que la compa\u00f1\u00eda realice varias demostraciones en directo, incluyendo algunas con prompts proporcionados por seguidores de X (Twitter).<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Interacciones_mas_conversacionales_con_GPT-4o\"><\/span>Interacciones m\u00e1s conversacionales con GPT-4o<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>Lo m\u00e1s destacado de GPT-4o es que permite interactuar de un modo m\u00e1s <strong>conversacional<\/strong> con ChatGPT al usar la voz. As\u00ed, los usuarios pueden interrumpir al modelo de lenguaje en mitad de una respuesta para solicitarle un cambio sobre el prompt original, sin que haya demoras ni problemas de latencia.<\/p>\n\n<p>Los ingenieros de OpenAI tambi\u00e9n demostraron la capacidad de GPT-4o de interpretar en tiempo real lo que capturaba a trav\u00e9s de la c\u00e1mara de un smartphone. De este modo, fue posible que ChatGPT ayudara a resolver una ecuaci\u00f3n lineal y a que detectara las <strong>emociones<\/strong> de una persona al ver su rostro.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Despliegue_iterativo_de_GPT-4o_en_todas_las_versiones_de_ChatGPT\"><\/span>Despliegue iterativo de GPT-4o en todas las versiones de ChatGPT<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>Desde OpenAI indicaron que el despliegue de GPT-4o se dar\u00e1 de forma iterativa. En lo que respecta a ChatGPT, las capacidades de texto e im\u00e1genes de la nueva inteligencia artificial estar\u00e1n disponibles a partir de hoy. Como ya indicamos, estar\u00e1 al alcance de los usuarios de la versi\u00f3n gratuita y de las variantes de pago como ChatGPT Plus. Eso s\u00ed, quienes accedan a la versi\u00f3n bajo suscripci\u00f3n tendr\u00e1n <strong>l\u00edmites de mensajes<\/strong> cinco veces m\u00e1s altos.<\/p>\n\n<p>En lo que respecta al Modo Voz (Voice Mode) de GPT-4o, llegar\u00e1 en versi\u00f3n alpha a los suscriptores de ChatGPT Plus en pr\u00f3ximas semanas. Vale remarcar que el acceso a esta tecnolog\u00eda no se limitar\u00e1 al chatbot de OpenAI. El modelo de lenguaje tambi\u00e9n estar\u00e1 disponible a trav\u00e9s de la <strong>API<\/strong> de la compa\u00f1\u00eda.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Una_IA_mas_rapida_y_economica\"><\/span>Una IA m\u00e1s r\u00e1pida y econ\u00f3mica<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>Sam Altman public\u00f3 en X (Twitter) durante la presentaci\u00f3n que GPT-4o costar\u00e1 la mitad, ser\u00e1 el <strong>doble m\u00e1s r\u00e1pido<\/strong> y tendr\u00e1 l\u00edmites 5 veces m\u00e1s altos que GPT-4 Turbo a trav\u00e9s de la API.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"%C2%BFPor_que_GPT-4o\"><\/span>\u00bfPor qu\u00e9 GPT-4o?<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>Seg\u00fan explica OpenAI, la \u00abo\u00bb corresponde a \u00abomni\u00bb. De hecho, durante la presentaci\u00f3n se hizo referencia a esta inteligencia artificial como un omnimodel, u omnimodelo, debido a su capacidad de interactuar, combinar, comprender y ofrecer respuestas tanto en texto, como en <strong>audio y v\u00eddeo<\/strong>.<\/p>\n\n<p>Los desarrolladores indican que GPT-4o puede responder a pedidos con la voz con una latencia que apenas 232 milisegundos, aunque el promedio es de 320 milisegundos. Esto es una evoluci\u00f3n brutal en comparaci\u00f3n con GPT-4, donde el promedio de respuesta del Modo Voz de ChatGPT rondaba los 5,4 segundos.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Un_modelo_de_IA_de_extremo_a_extremo\"><\/span>Un modelo de IA de extremo a extremo<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>\u00abCon GPT-4o, entrenamos un \u00fanico modelo nuevo de extremo a extremo en texto, visi\u00f3n y audio, lo que significa que todas las entradas y salidas son procesadas por la misma red neuronal. Debido a que GPT-4o es nuestro primer modelo que combina todas estas modalidades, todav\u00eda estamos apenas rascando la superficie para explorar lo que el modelo puede hacer y sus limitaciones\u00bb.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Mejoras_significativas_en_varios_idiomas\"><\/span>Mejoras significativas en varios idiomas<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>GPT-4o iguala el rendimiento de GPT-4 Turbo al lidiar con c\u00f3digo y con texto en ingl\u00e9s. Sin embargo, tambi\u00e9n introduce <strong>\u00abmejoras significativas\u00bb<\/strong> al trabajar con otros idiomas como m\u00e9todo de entrada. Durante la presentaci\u00f3n se pudo observar c\u00f3mo la IA traduc\u00eda una conversaci\u00f3n en tiempo real entre ingl\u00e9s e italiano.<\/p>\n\n<h2><span class=\"ez-toc-section\" id=\"Precauciones_de_seguridad\"><\/span>Precauciones de seguridad<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p>En materia de seguridad, OpenAI dice estar al tanto de que las nuevas capacidades de GPT-4o pueden presentar nuevos riesgos. Es por ello que su liberaci\u00f3n al p\u00fablico general se dar\u00e1 de forma paulatina. Como indicamos previamente, a partir de hoy los usuarios de ChatGPT podr\u00e1n comenzar a utilizar esta IA con <strong>texto e im\u00e1genes<\/strong> como m\u00e9todo de entrada, pero solo con texto como m\u00e9todo de salida. Las respuestas con audio llegar\u00e1n m\u00e1s adelante y se limitar\u00e1n, en principio, a un cat\u00e1logo de voces preseleccionadas.<\/p>\n\n<p>La startup dirigida por Sam Altman tambi\u00e9n ha publicado un v\u00eddeo mostrando las limitaciones del Modo Voz de GPT-4o. Entre los principales problemas se observa la falta de comprensi\u00f3n a ciertos prompts en idiomas diferentes al ingl\u00e9s, o hasta mezclando lenguajes en sus respuestas.<\/p>\n\n<p>Recibe cada ma\u00f1ana nuestra newsletter. Una gu\u00eda para entender las noticias m\u00e1s relevantes del mundo de la tecnolog\u00eda.<\/p>\n\n\n\n\n<p>Fuente: https:\/\/www.xataka.com\/robotica-e-ia\/openai-quiere-volver-a-revolucionar-ia-presenta-nuevo-modelo-multimodal-que-trabaja-voz-imagenes-video<\/p>\n","protected":false},"excerpt":{"rendered":"<p>OpenAI ha dado un importante salto este lunes con la presentaci\u00f3n de GPT-4o, su modelo de inteligencia artificial m\u00e1s potente &#8230; <\/p>\n<p class=\"read-more-container\"><a title=\"OpenAI anuncia GPT-4o dando un paso de gigante en potencia y rapidez\" class=\"read-more button\" href=\"https:\/\/quondos.com\/mag\/openai-anuncia-gpt-4o-dando-un-paso-de-gigante-en-potencia-y-rapidez\/#more-126928\" aria-label=\"Leer m\u00e1s sobre OpenAI anuncia GPT-4o dando un paso de gigante en potencia y rapidez\">Leer m\u00e1s<\/a><\/p>\n","protected":false},"author":850,"featured_media":125239,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1474],"tags":[],"class_list":["post-126928","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50","no-featured-image-padding"],"_links":{"self":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/126928","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/users\/850"}],"replies":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/comments?post=126928"}],"version-history":[{"count":3,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/126928\/revisions"}],"predecessor-version":[{"id":126931,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/126928\/revisions\/126931"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media\/125239"}],"wp:attachment":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media?parent=126928"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/categories?post=126928"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/tags?post=126928"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}