{"id":129794,"date":"2025-11-02T22:54:34","date_gmt":"2025-11-02T21:54:34","guid":{"rendered":"https:\/\/quondos.com\/mag\/?p=129794"},"modified":"2025-11-02T22:54:36","modified_gmt":"2025-11-02T21:54:36","slug":"anthropic-revela-como-los-llm-perciben-el-texto-nuevos-hallazgos-sobre-la-estructura-interna-de-los-modelos-de-lenguaje","status":"publish","type":"post","link":"https:\/\/quondos.com\/mag\/anthropic-revela-como-los-llm-perciben-el-texto-nuevos-hallazgos-sobre-la-estructura-interna-de-los-modelos-de-lenguaje\/","title":{"rendered":"Anthropic revela c\u00f3mo los LLM \u201cperciben\u201d el texto: nuevos hallazgos sobre la estructura interna de los modelos de lenguaje"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/05\/image-1024x576.webp\" alt=\"\" class=\"wp-image-128882\" title=\"\" srcset=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/05\/image-1024x576.webp 1024w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/05\/image-300x169.webp 300w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/05\/image-768x432.webp 768w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/05\/image-1536x864.webp 1536w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/05\/image-2048x1152.webp 2048w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p> Los investigadores de Anthropic han publicado nuevos datos sobre el funcionamiento interno de los modelos de lenguaje, en concreto Claude 3.5 Haiku, revelando que son capaces de seguir patrones internos que recuerdan a la <strong>percepci\u00f3n espacial humana<\/strong>. El estudio, seg\u00fan la fuente, explora c\u00f3mo estos sistemas deciden d\u00f3nde romper una l\u00ednea de texto dentro de un ancho fijo, una tarea que requiere un control preciso de la posici\u00f3n seg\u00fan el texto que generan. <\/p> <div id=\"ez-toc-container\" class=\"ez-toc-v2_0_76 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">\u00cdndice de contenidos<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Alternar tabla de contenidos\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/quondos.com\/mag\/anthropic-revela-como-los-llm-perciben-el-texto-nuevos-hallazgos-sobre-la-estructura-interna-de-los-modelos-de-lenguaje\/#Los_desafios_del_salto_de_linea_y_la_representacion_interna\" >Los desaf\u00edos del salto de l\u00ednea y la representaci\u00f3n interna<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/quondos.com\/mag\/anthropic-revela-como-los-llm-perciben-el-texto-nuevos-hallazgos-sobre-la-estructura-interna-de-los-modelos-de-lenguaje\/#Detectores_especializados_y_atencion_en_los_limites\" >Detectores especializados y atenci\u00f3n en los l\u00edmites<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/quondos.com\/mag\/anthropic-revela-como-los-llm-perciben-el-texto-nuevos-hallazgos-sobre-la-estructura-interna-de-los-modelos-de-lenguaje\/#Implicaciones_de_los_%E2%80%9Cerrores%E2%80%9D_visuales_y_el_paralelismo_con_la_percepcion_humana\" >Implicaciones de los \u201cerrores\u201d visuales y el paralelismo con la percepci\u00f3n humana<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/quondos.com\/mag\/anthropic-revela-como-los-llm-perciben-el-texto-nuevos-hallazgos-sobre-la-estructura-interna-de-los-modelos-de-lenguaje\/#%C2%BFLos_modelos_de_lenguaje_%E2%80%9Cven%E2%80%9D_el_texto_Analogias_y_nuevas_hipotesis\" >\u00bfLos modelos de lenguaje \u201cven\u201d el texto? Analog\u00edas y nuevas hip\u00f3tesis<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/quondos.com\/mag\/anthropic-revela-como-los-llm-perciben-el-texto-nuevos-hallazgos-sobre-la-estructura-interna-de-los-modelos-de-lenguaje\/#Contexto_para_SEO_edicion_digital_y_futuro_de_la_investigacion\" >Contexto para SEO, edici\u00f3n digital y futuro de la investigaci\u00f3n<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"Los_desafios_del_salto_de_linea_y_la_representacion_interna\"><\/span>Los desaf\u00edos del salto de l\u00ednea y la representaci\u00f3n interna<span class=\"ez-toc-section-end\"><\/span><\/h2> <p> El experimento propuesto por Anthropic se centr\u00f3 en generar texto respetando un l\u00edmite de ancho de l\u00ednea, un problema habitual en la maquetaci\u00f3n digital y la edici\u00f3n. De acuerdo con la compa\u00f1\u00eda, el modelo debe decidir si una palabra cabe en la l\u00ednea o si corresponde saltar a la siguiente, lo que implica <strong>razonamiento, memoria y planificaci\u00f3n<\/strong> en tiempo real. <\/p> <p> Seg\u00fan los datos facilitados, se observ\u00f3 que Claude 3.5 Haiku no lleva la cuenta car\u00e1cter por car\u00e1cter, sino que usa una <strong>estructura geom\u00e9trica para representar el conteo continuo<\/strong>. Esto le permite seguir la posici\u00f3n dentro del texto de manera din\u00e1mica y eficiente, sin necesidad de procesos discretos paso a paso como har\u00eda un humano. <\/p> <ul> <li><strong>Supervisi\u00f3n no expl\u00edcita:<\/strong> Los patrones surgen sin programaci\u00f3n directa.<\/li> <li>El modelo maneja reglas como el ancho m\u00e1ximo igual que lo har\u00eda una persona editando texto.<\/li> <\/ul> <h2><span class=\"ez-toc-section\" id=\"Detectores_especializados_y_atencion_en_los_limites\"><\/span>Detectores especializados y atenci\u00f3n en los l\u00edmites<span class=\"ez-toc-section-end\"><\/span><\/h2> <p> Un hallazgo relevante tiene que ver con los denominados <strong>\u201cboundary heads\u201d<\/strong>: unidades internas dedicadas a identificar cu\u00e1ndo la l\u00ednea est\u00e1 cerca de terminar. Seg\u00fan explican los investigadores, estos mecanismos rotan y alinean se\u00f1ales internas para anticipar el salto de l\u00ednea justo cuando la palabra siguiente superar\u00eda el l\u00edmite. <\/p> <p> La fuente precisa que estas cabezas de atenci\u00f3n coordinan sus c\u00e1lculos usando mapas geom\u00e9tricos internos, y al detectar la cercan\u00eda entre la posici\u00f3n actual y el ancho permitido <strong>aumentan la probabilidad de un salto de l\u00ednea<\/strong>. Por el contrario, si la palabra cabe, activan se\u00f1ales que refuerzan la continuidad. <\/p> <blockquote> \u201cPara detectar un l\u00edmite inminente, el modelo compara el conteo actual del texto con el ancho estimado de la l\u00ednea. Varias cabezas con diferentes ajustes colaboran para afinar el c\u00e1lculo\u201d, seg\u00fan detalla la fuente. <\/blockquote> <h2><span class=\"ez-toc-section\" id=\"Implicaciones_de_los_%E2%80%9Cerrores%E2%80%9D_visuales_y_el_paralelismo_con_la_percepcion_humana\"><\/span>Implicaciones de los \u201cerrores\u201d visuales y el paralelismo con la percepci\u00f3n humana<span class=\"ez-toc-section-end\"><\/span><\/h2> <p> Uno de los experimentos m\u00e1s curiosos consisti\u00f3 en introducir secuencias artificiales, como el token \u201c@@\u201d, para analizar si el modelo pod\u00eda confundir su propia organizaci\u00f3n interna, igual que los humanos se ven afectados por ilusiones \u00f3pticas. De acuerdo con la investigaci\u00f3n, esto gener\u00f3 <strong>distorsiones perceptivas en el modelo<\/strong>, desplazando su sentido de los l\u00edmites textuales. <\/p> <p> La prueba revel\u00f3 que no cualquier secuencia alteraba el resultado, sino que solo algunos caracteres \u2014especialmente relacionados con c\u00f3digo\u2014 lograban \u00abdespistar\u00bb los detectores internos. Esto sugiere que los LLM, aunque no ven, s\u00ed \u201cperciben\u201d la estructura textual mediante mapas y patrones contextuales, con paralelos a c\u00f3mo los cerebros humanos gestionan la percepci\u00f3n visual. <\/p> <ul> <li>La mayor\u00eda de las secuencias no alteran el c\u00e1lculo del salto de l\u00ednea.<\/li> <li>Solo ciertos tokens, seg\u00fan la fuente, distraen las cabezas de atenci\u00f3n relevantes.<\/li> <\/ul> <h2><span class=\"ez-toc-section\" id=\"%C2%BFLos_modelos_de_lenguaje_%E2%80%9Cven%E2%80%9D_el_texto_Analogias_y_nuevas_hipotesis\"><\/span>\u00bfLos modelos de lenguaje \u201cven\u201d el texto? Analog\u00edas y nuevas hip\u00f3tesis<span class=\"ez-toc-section-end\"><\/span><\/h2> <p> La fuente sostiene que las capas iniciales de los modelos de lenguaje act\u00faan de forma similar a los procesos de \u201cpercepci\u00f3n\u201d en modelos visuales, dedic\u00e1ndose en primer t\u00e9rmino a \u201cver\u201d e interpretar el texto antes de cualquier procesamiento m\u00e1s profundo. Esto supone una relectura de c\u00f3mo funcionan los LLM, que no solo trabajan con s\u00edmbolos sino que construyen <strong>mapas internos de percepci\u00f3n<\/strong>. <\/p> <p> La comparaci\u00f3n con sistemas neurales biol\u00f3gicos resulta llamativa: seg\u00fan la fuente, los mecanismos observados se parecen a la dilataci\u00f3n y agrupaci\u00f3n de cifras en el cerebro humano, revelando una convergencia conceptual entre inteligencia artificial y neurocognici\u00f3n. Los investigadores invitan a profundizar en la colaboraci\u00f3n entre ambas disciplinas para avanzar en el entendimiento de los modelos. <\/p> <blockquote> \u201cLa organizaci\u00f3n de las caracter\u00edsticas en una variedad de baja dimensi\u00f3n es un motivo com\u00fan en la cognici\u00f3n biol\u00f3gica\u201d, seg\u00fan los autores del estudio. <\/blockquote> <h2><span class=\"ez-toc-section\" id=\"Contexto_para_SEO_edicion_digital_y_futuro_de_la_investigacion\"><\/span>Contexto para SEO, edici\u00f3n digital y futuro de la investigaci\u00f3n<span class=\"ez-toc-section-end\"><\/span><\/h2> <p> Aunque la utilidad concreta de esta investigaci\u00f3n para profesionales SEO pueda parecer limitada a primera vista, la fuente remarca que comprender la \u201cpercepci\u00f3n\u201d de los LLM ayuda a desmitificar su funcionamiento y puede orientar mejores estrategias de estructuraci\u00f3n de contenidos. Entender c\u00f3mo los modelos interpretan l\u00edmites y saltos de l\u00ednea, aseguran, permite organizar la informaci\u00f3n de forma m\u00e1s eficiente para estos sistemas. <\/p> <p> La compa\u00f1\u00eda sostiene que avanzar en la interpretabilidad de los modelos contribuye a que la tecnolog\u00eda sea m\u00e1s accesible y menos \u201cm\u00e1gica\u201d para usuarios y editores. Los hallazgos presentados por Anthropic refuerzan la idea de que los LLM desarrollan capacidades que antes se consideraban exclusivamente humanas, como la percepci\u00f3n espacial, y abren un campo f\u00e9rtil para nuevas investigaciones interdisciplinarias. <\/p> <ul> <li><strong>Los modelos de lenguaje aprenden patrones estructurales de forma emergente.<\/strong><\/li> <li>Sus mecanismos internos se asemejan, por analog\u00eda, a la percepci\u00f3n biol\u00f3gica humana.<\/li> <li>Los resultados impulsan la colaboraci\u00f3n entre neurociencia y tecnolog\u00eda AI.<\/li> <\/ul> <p> Este estudio, de acuerdo con la compa\u00f1\u00eda, marca un paso relevante hacia una mayor comprensi\u00f3n de la inteligencia artificial en procesos de edici\u00f3n y estructuraci\u00f3n de contenido, impactando tanto en la investigaci\u00f3n acad\u00e9mica como en las herramientas digitales que usamos cada d\u00eda. <\/p>\n\n\n\n<p>Fuente: https:\/\/www.searchenginejournal.com\/anthropic-research-shows-how-llms-perceive-text\/559636\/<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Los investigadores de Anthropic han publicado nuevos datos sobre el funcionamiento interno de los modelos de lenguaje, en concreto Claude &#8230; <\/p>\n<p class=\"read-more-container\"><a title=\"Anthropic revela c\u00f3mo los LLM \u201cperciben\u201d el texto: nuevos hallazgos sobre la estructura interna de los modelos de lenguaje\" class=\"read-more button\" href=\"https:\/\/quondos.com\/mag\/anthropic-revela-como-los-llm-perciben-el-texto-nuevos-hallazgos-sobre-la-estructura-interna-de-los-modelos-de-lenguaje\/#more-129794\" aria-label=\"Leer m\u00e1s sobre Anthropic revela c\u00f3mo los LLM \u201cperciben\u201d el texto: nuevos hallazgos sobre la estructura interna de los modelos de lenguaje\">Leer m\u00e1s<\/a><\/p>\n","protected":false},"author":850,"featured_media":128882,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[236],"tags":[],"class_list":["post-129794","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-seo","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50","no-featured-image-padding"],"_links":{"self":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/129794","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/users\/850"}],"replies":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/comments?post=129794"}],"version-history":[{"count":1,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/129794\/revisions"}],"predecessor-version":[{"id":129795,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/129794\/revisions\/129795"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media\/128882"}],"wp:attachment":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media?parent=129794"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/categories?post=129794"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/tags?post=129794"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}