{"id":130147,"date":"2026-01-27T17:48:30","date_gmt":"2026-01-27T16:48:30","guid":{"rendered":"https:\/\/quondos.com\/mag\/?p=130147"},"modified":"2026-01-27T17:48:31","modified_gmt":"2026-01-27T16:48:31","slug":"google-presenta-nuevo-metodo-para-extraer-intencion-del-usuario-en-dispositivos-moviles","status":"publish","type":"post","link":"https:\/\/quondos.com\/mag\/google-presenta-nuevo-metodo-para-extraer-intencion-del-usuario-en-dispositivos-moviles\/","title":{"rendered":"Google presenta nuevo m\u00e9todo para extraer intenci\u00f3n del usuario en dispositivos m\u00f3viles"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/10\/google-assistant-2311421-1024x576.webp\" alt=\"\" class=\"wp-image-125556\" title=\"\" srcset=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/10\/google-assistant-2311421-1024x576.webp 1024w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/10\/google-assistant-2311421-300x169.webp 300w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/10\/google-assistant-2311421-768x432.webp 768w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2023\/10\/google-assistant-2311421.webp 1200w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>Google ha publicado un nuevo <strong>paper de investigaci\u00f3n<\/strong> sobre un m\u00e9todo innovador para extraer la intenci\u00f3n del usuario a partir de sus interacciones en dispositivos m\u00f3viles y navegadores. Seg\u00fan la fuente, este enfoque utiliza modelos peque\u00f1os que procesan todo en el dispositivo, protegiendo as\u00ed la privacidad del usuario al no enviar datos a servidores externos. De esta manera, se busca mejorar la comprensi\u00f3n de lo que los usuarios intentan hacer en sus apps y webs.<\/p> <div id=\"ez-toc-container\" class=\"ez-toc-v2_0_76 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">\u00cdndice de contenidos<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Alternar tabla de contenidos\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/quondos.com\/mag\/google-presenta-nuevo-metodo-para-extraer-intencion-del-usuario-en-dispositivos-moviles\/#El_enfoque_de_dos_etapas_en_detalle\" >El enfoque de dos etapas en detalle<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/quondos.com\/mag\/google-presenta-nuevo-metodo-para-extraer-intencion-del-usuario-en-dispositivos-moviles\/#Como_se_extrae_la_intencion_de_las_interacciones\" >C\u00f3mo se extrae la intenci\u00f3n de las interacciones<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/quondos.com\/mag\/google-presenta-nuevo-metodo-para-extraer-intencion-del-usuario-en-dispositivos-moviles\/#La_primera_etapa_resume_las_capturas_de_pantalla\" >La primera etapa resume las capturas de pantalla<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/quondos.com\/mag\/google-presenta-nuevo-metodo-para-extraer-intencion-del-usuario-en-dispositivos-moviles\/#La_segunda_etapa_genera_la_intencion_global\" >La segunda etapa genera la intenci\u00f3n global<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/quondos.com\/mag\/google-presenta-nuevo-metodo-para-extraer-intencion-del-usuario-en-dispositivos-moviles\/#Consideraciones_eticas_y_limitaciones_del_estudio\" >Consideraciones \u00e9ticas y limitaciones del estudio<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/quondos.com\/mag\/google-presenta-nuevo-metodo-para-extraer-intencion-del-usuario-en-dispositivos-moviles\/#Aplicaciones_practicas_para_el_futuro\" >Aplicaciones pr\u00e1cticas para el futuro<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/quondos.com\/mag\/google-presenta-nuevo-metodo-para-extraer-intencion-del-usuario-en-dispositivos-moviles\/#Por_que_importa_esta_investigacion_ahora\" >Por qu\u00e9 importa esta investigaci\u00f3n ahora<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"El_enfoque_de_dos_etapas_en_detalle\"><\/span>El enfoque de dos etapas en detalle<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>De acuerdo con los investigadores de Google, el m\u00e9todo divide el proceso en <strong>dos etapas principales<\/strong> para analizar las interacciones del usuario. En la primera, un modelo resume cada acci\u00f3n, como clics o texto introducido, junto con capturas de pantalla. Esto permite capturar la trayectoria del usuario sin necesidad de modelos grandes en la nube.<\/p> <p>La segunda etapa toma esos res\u00famenes y genera una descripci\u00f3n general de la intenci\u00f3n, seg\u00fan la nota de prensa. Los expertos destacan que este sistema supera el rendimiento de modelos multimodales grandes, incluso con datos ruidosos, lo que lo hace m\u00e1s eficiente y pr\u00e1ctico para dispositivos cotidianos.<\/p> <h2><span class=\"ez-toc-section\" id=\"Como_se_extrae_la_intencion_de_las_interacciones\"><\/span>C\u00f3mo se extrae la intenci\u00f3n de las interacciones<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>Seg\u00fan la fuente, la extracci\u00f3n se basa en \u00abtrayectorias\u00bb de usuario, que son secuencias de observaciones visuales y acciones espec\u00edficas. Cada paso incluye una <strong>captura de pantalla<\/strong> como observaci\u00f3n y la acci\u00f3n realizada, como pulsar un bot\u00f3n. El objetivo es obtener intenciones fieles, completas y relevantes.<\/p> <p>Los investigadores explican que evaluar estas intenciones es complejo por su subjetividad, con coincidencias humanas del 80% en webs y 76% en m\u00f3viles, de acuerdo con datos previos citados. Esto a\u00f1ade relevancia al m\u00e9todo, ya que resuelve ambig\u00fcedades comunes en el an\u00e1lisis de comportamientos.<\/p> <h2><span class=\"ez-toc-section\" id=\"La_primera_etapa_resume_las_capturas_de_pantalla\"><\/span>La primera etapa resume las capturas de pantalla<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>En la primera fase, el modelo genera res\u00famenes divididos en descripci\u00f3n de pantalla, acci\u00f3n del usuario y una intenci\u00f3n especulativa que luego se descarta, seg\u00fan la compa\u00f1\u00eda. Esta estrategia, probada entre varias opciones, mejora la calidad al eliminar especulaciones innecesarias. <strong>Es un proceso basado en prompts<\/strong>, sin datos de entrenamiento espec\u00edficos disponibles.<\/p> <p>De acuerdo con el paper, permitir especulaci\u00f3n temporal y luego removerla lleva a resultados superiores. Esto emula razonamientos complejos como Chain of Thought, pero adaptado a modelos peque\u00f1os en dispositivos, lo que lo hace accesible para m\u00f3viles comunes.<\/p> <h2><span class=\"ez-toc-section\" id=\"La_segunda_etapa_genera_la_intencion_global\"><\/span>La segunda etapa genera la intenci\u00f3n global<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>Para la segunda parte, se entrena un modelo con res\u00famenes de trayectorias y intenciones reales, refinando los objetivos para evitar alucinaciones, seg\u00fan los datos facilitados. El modelo aprende a inferir solo de los inputs disponibles, resolviendo problemas de incompletitud. <strong>Se compararon cuatro enfoques<\/strong>, y este fue el m\u00e1s efectivo.<\/p> <p>La fuente indica que este fine-tuning asegura descripciones precisas, ideales para agentes aut\u00f3nomos. As\u00ed, el sistema maneja datos imperfectos mejor que m\u00e9todos tradicionales, abriendo puertas a asistencias proactivas en el d\u00eda a d\u00eda.<\/p> <h2><span class=\"ez-toc-section\" id=\"Consideraciones_eticas_y_limitaciones_del_estudio\"><\/span>Consideraciones \u00e9ticas y limitaciones del estudio<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>Los autores advierten sobre riesgos \u00e9ticos, como agentes que act\u00faen contra el inter\u00e9s del usuario, y llaman a implementar guardrails adecuados, de acuerdo con la nota. Tambi\u00e9n reconocen limitaciones, como pruebas solo en Android y web, en ingl\u00e9s y con usuarios de EE.UU. <strong>No garantizan generalizaci\u00f3n<\/strong> a otros entornos.<\/p> <p>Seg\u00fan la fuente, no hay indicios de implementaci\u00f3n actual; se presenta como base para futuras funciones en m\u00f3viles. Esto subraya la direcci\u00f3n de Google hacia modelos locales que entiendan intenciones sin comprometer privacidad.<\/p> <h2><span class=\"ez-toc-section\" id=\"Aplicaciones_practicas_para_el_futuro\"><\/span>Aplicaciones pr\u00e1cticas para el futuro<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>El paper menciona usos como <strong>asistencia proactiva<\/strong> para personalizaci\u00f3n y eficiencia laboral, y memoria personalizada que recuerda actividades pasadas. Seg\u00fan los investigadores, con mejoras en hardware m\u00f3vil, esto podr\u00eda integrarse en features cotidianas.<\/p> <ul> <li>Asistencia que observa y ayuda en tiempo real sin enviar datos.<\/li> <li>Memoria de intenciones para retomar tareas pendientes.<\/li> <li>Mejora en eficiencia para usuarios habituales de apps y navegadores.<\/li> <\/ul> <p>De acuerdo con la compa\u00f1\u00eda, el enfoque beneficia a agentes aut\u00f3nomos en dispositivos, no directamente a b\u00fasquedas tradicionales. Esto posiciona a Google en la vanguardia de IA local, relevante para desarrolladores y usuarios preocupados por la privacidad en 2026.<\/p> <h2><span class=\"ez-toc-section\" id=\"Por_que_importa_esta_investigacion_ahora\"><\/span>Por qu\u00e9 importa esta investigaci\u00f3n ahora<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>En un contexto donde la <strong>privacidad de datos<\/strong> es clave, este m\u00e9todo local evita env\u00edos a la nube, seg\u00fan la fuente. Llega en momento oportuno con el auge de IA en m\u00f3viles, ofreciendo eficiencia superior a modelos grandes.<\/p> <p>Los expertos de Google lo ven como bloque constructivo para asistencias futuras, de acuerdo con el blog post. Para el p\u00fablico general, significa apps m\u00e1s inteligentes que entienden mejor nuestras acciones diarias sin invadir privacidad, un avance pr\u00e1ctico y accesible.<\/p>\n\n\n\n<p>Fuente: https:\/\/www.searchenginejournal.com\/googles-new-user-intent-extraction-method\/565840\/<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Google ha publicado un nuevo paper de investigaci\u00f3n sobre un m\u00e9todo innovador para extraer la intenci\u00f3n del usuario a partir &#8230; <\/p>\n<p class=\"read-more-container\"><a title=\"Google presenta nuevo m\u00e9todo para extraer intenci\u00f3n del usuario en dispositivos m\u00f3viles\" class=\"read-more button\" href=\"https:\/\/quondos.com\/mag\/google-presenta-nuevo-metodo-para-extraer-intencion-del-usuario-en-dispositivos-moviles\/#more-130147\" aria-label=\"Leer m\u00e1s sobre Google presenta nuevo m\u00e9todo para extraer intenci\u00f3n del usuario en dispositivos m\u00f3viles\">Leer m\u00e1s<\/a><\/p>\n","protected":false},"author":850,"featured_media":125556,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[483],"tags":[],"class_list":["post-130147","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-otros","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50","no-featured-image-padding"],"_links":{"self":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/130147","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/users\/850"}],"replies":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/comments?post=130147"}],"version-history":[{"count":1,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/130147\/revisions"}],"predecessor-version":[{"id":130148,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/130147\/revisions\/130148"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media\/125556"}],"wp:attachment":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media?parent=130147"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/categories?post=130147"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/tags?post=130147"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}