
Google ha respondido a las dudas de los expertos en SEO sobre cómo posicionar contenido en búsquedas impulsadas por inteligencia artificial, desaconsejando fragmentar los textos en trozos pequeños. Según Danny Sullivan y John Mueller, de Google, en su podcast Search Off The Record, lo ideal es crear contenido para humanos y no optimizar específicamente para LLMs. Esta postura llega en un momento en que los profesionales del marketing digital buscan estrategias para la nueva generación de búsquedas.
Google aconseja escribir para lectores humanos
De acuerdo con Danny Sullivan, en el podcast, fragmentar el contenido en «chunks» bite-sized no es recomendable porque los sistemas de Google ya acceden a las páginas como lo hacen las personas. Los ingenieros de la compañía han confirmado que no quieren que los creadores produzcan versiones especiales para IA o para búsqueda tradicional. La clave está en objetivos fundacionales a largo plazo, según Sullivan.
John Mueller y Sullivan enfatizan que optimizar para máquinas específicas puede dejar de funcionar cuando los sistemas mejoran. El enfoque debe ser en contenido de calidad para usuarios reales, evadiendo trucos temporales. Esto responde a consejos populares en la comunidad SEO que promueven estructuras simplificadas para LLMs.
La evolución hacia búsquedas basadas en entidades
Según la nota de Search Engine Journal, Google pasó de coincidencias por palabras clave a un modelo de «strings to things» con el Knowledge Graph en 2012. Esto representa la siguiente generación de búsqueda, que entiende el mundo como las personas, integrando inteligencia colectiva de la web. Hoy, las respuestas son largas y abordan múltiples preguntas derivadas de la consulta inicial.
De acuerdo con los expertos citados, el paradigma SEO tradicional se rompe por el «query fan-out», donde una búsqueda genera respuestas para varias consultas relacionadas. Esto afecta el tráfico referral a sitios web, ya que Google cita pocas páginas para muchos términos. Los publishers deben adaptarse a este formato de respuestas extensas.
Críticas por resultados de búsqueda AI deficientes
La fuente destaca que Google evita hablar del impacto real en el tráfico, centrándose en consejos generales. Los SERPs generados por AI a menudo muestran contenido de baja calidad, como blogs abandonados de Medium de 2018 o artículos en LinkedIn no especializados. En un ejemplo sobre cómo estilizar un sweatshirt, predominan sitios sin autoridad, según el análisis.
Google oculta publicaciones expertas en pestañas como «More > News», obligando clics extra para acceder a GQ o New York Times. Esta práctica reduce oportunidades para sitios de alta calidad, que pierden visibilidad y tráfico. La fuente cuestiona si GEO o SEO importan ante estos resultados «basura».
Ejemplos concretos de problemas en SERPs AI
En la búsqueda analizada, Google AI Mode cita un blog Medium inactivo con imágenes rotas, un post de LinkedIn sobre networking y un artículo de un retailer de sneakers, ninguno experto en moda. Estos no son sitios autorizados para consejos de estilo, según la fuente. Esto ilustra un patrón preocupante en resultados automáticos.
- Un blog abandonado de 2018 con solo dos posts y errores técnicos.
- Un artículo en LinkedIn, plataforma de negocios, no de moda.
- Contenido de un tienda de zapatillas, irrelevante para sweatshirts.
En contraste, contenido experto queda relegado. La fuente propone resetear el algoritmo para priorizar calidad y devolver la alegría de descubrimiento en búsquedas.
Implicaciones para SEOs y publishers
Según Sullivan, sistemas que premian contenido humano eventualmente descartarán optimizaciones machine-specific. Los veteranos en SEO reconocen que lo fundacional perdura, más allá de tendencias como chunking o GEO. Google insiste en no crear dos versiones de contenido.
La discusión ignora, de acuerdo con la fuente, cómo el fan-out de consultas reduce referrals a expertos. Sitios de materia experta se marchitan sin tráfico, mientras SERPs priorizan lo mediocre. Para publishers, el reto es visibilidad en un ecosistema donde AI domina respuestas largas.
„No queremos que fragmentéis vuestro contenido en trozos pequeños para LLMs“, advierte Danny Sullivan, citando a ingenieros de Google.
Este podcast, disponible en Search Off The Record, ofrece guía pero genera debate. La comunidad SEO busca claridad sobre tráfico futuro en era AI, donde calidad humana choca con resultados automáticos cuestionables.
Fuente: https://www.searchenginejournal.com/google-downplays-geo-but-lets-talk-about-garbage-ai-serps/564901/