
La última oleada de cambios en Google está moviendo el tablero del SEO y encendiendo de nuevo el debate sobre la calidad de la información generada por IA, especialmente en temas de salud. Según la fuente, el core update de diciembre habría dado un empujón a los proyectos muy enfocados en un nicho, mientras que, en paralelo, organizaciones sanitarias ponen la lupa en los errores de las AI Overviews y varias voces del sector tech intentan rebajar el ruido en torno al concepto de AI slop o “paja” generada por sistemas automáticos.
El core update de diciembre premia a los especialistas
De acuerdo con los datos recopilados por la fuente, el core update de Google desplegado entre el 11 y el 29 de diciembre habría favorecido a sitios con una especialización clara en categorías concretas, frente a portales generalistas que cubren muchos temas. Según este análisis, proyectos centrados en un tipo de producto, un sector específico o una audiencia muy acotada estarían ganando visibilidad en consultas de tipo “best of” y búsquedas de producto en fase media del embudo, donde antes solían dominar comparadores amplios y webs de reseñas generalistas.
La fuente cita el trabajo de la consultora Aleyda Solís, que habría detectado cómo páginas con fuerza muy marcada en una categoría compiten mejor ahora en términos comerciales, sobre todo en ecommerce y SaaS. Según la información publicada, algunos medios y portales generalistas habrían perdido presencia en búsquedas más amplias de la parte alta del embudo, mientras que marcas con expertise directo en una línea de producto ganan terreno frente a agregadores de afiliación que hace unos meses acaparaban resultados.
Este cambio encaja, siempre según la fuente, con una tendencia de los últimos años: Google insiste en que prioriza la relevancia y la intención de búsqueda por encima de señales más superficiales. De acuerdo con las explicaciones de la compañía, los efectos de las mejoras pueden tardar semanas o meses en consolidarse, porque sus sistemas necesitan tiempo para confirmar si los ajustes funcionan. En este contexto, la aparente preferencia por profundidad temática frente a cobertura amplia se percibe como un paso más hacia resultados donde “especializarse” puede compensar no abarcar tantos temas.
Para los responsables de contenido y SEO, esta lectura tiene consecuencias prácticas. Según las opiniones recogidas por la fuente, los sitios que cubren demasiados verticales sin una autoridad clara en cada uno podrían ver más competencia por parte de webs muy centradas en un solo problema, un solo tipo de comprador o una categoría concreta. En palabras de profesionales citados, esta actualización se interpreta como el inicio de una transición hacia un algoritmo que valora más la profundidad que el tamaño global de un dominio, algo que obliga a replantear estrategias basadas solo en la fuerza de marca o el volumen de URLs.
La IA de Google en salud, bajo la lupa
Mientras se asimilan los efectos del core update, otro frente se ha abierto en torno a las AI Overviews de Google en consultas médicas, un formato que aparece en la parte alta de los resultados con resúmenes generados por IA. Según una investigación publicada por el diario The Guardian y citada por la fuente, varias organizaciones sanitarias y expertos revisaron ejemplos de estas respuestas y detectaron inexactitudes potencialmente problemáticas para la salud de los usuarios. La preocupación crece porque estos resúmenes se muestran antes incluso de los enlaces a webs especializadas.
Según la información recogida, The Guardian probó distintas búsquedas de salud y compartió las respuestas de las AI Overviews con entidades médicas para su evaluación. De acuerdo con la compañía, muchos de los ejemplos publicados serían “capturas incompletas” que no mostrarían el contexto completo del resultado. Google sostiene, según señala la fuente, que la gran mayoría de estas vistas previas son factuales y útiles, y recuerda que el sistema enlaza a fuentes reputadas, a la vez que anima a los usuarios a consultar siempre con profesionales sanitarios antes de tomar decisiones importantes.
La investigación también pone el foco en un problema práctico: la consistencia. Según un testimonio citado por la fuente, un responsable de una organización benéfica relató que, al repetir la misma búsqueda, el resumen de IA cambiaba, tirando de fuentes distintas y ofreciendo indicaciones diferentes. Ese comportamiento hace más difícil verificar la información, ya que los usuarios pueden ver un mensaje hoy y otro mañana para la misma consulta. En un entorno tan sensible como el sanitario, esta variabilidad de respuestas incrementa la inquietud de expertos y asociaciones de pacientes.
Portales y medios especializados en salud llevan años invirtiendo en revisiones médicas, comités científicos y políticas editoriales estrictas para alinearse con las expectativas de Google sobre contenidos YMYL (Your Money or Your Life). Según la fuente, la investigación de The Guardian traslada ahora ese listón de exigencia a las propias herramientas de la empresa, cuestionando si las AI Overviews están cumpliendo el mismo estándar de precisión. Para muchos actores del sector, este debate refuerza la necesidad de mecanismos de supervisión más claros cuando la IA entra en terrenos de alto riesgo.
Los grandes nombres de la tecnología responden a la crítica
En paralelo a estos debates, figuras destacadas de la industria tecnológica han lanzado mensajes que intentan reencuadrar la discusión sobre la calidad de la IA. Según la fuente, el CEO de Microsoft, Satya Nadella, publicó recientemente un post en el que invitaba al sector a ir “más allá de la discusión entre slop y sofisticación”, y describía las herramientas de IA como “cognitive amplifier tools”, una especie de amplificadores cognitivos que requieren un nuevo equilibrio entre humanos y máquinas. En la misma semana, la ingeniera principal de Google Jaana Dogan compartió en X que la gente solo se vuelve “anti nueva tecnología” cuando está quemada de probar demasiadas cosas nuevas.
De acuerdo con el resumen que ofrece la fuente, el mensaje de Nadella pretende desplazar la conversación desde la calidad de la salida de la IA hacia cómo se usa y cómo se integran estas herramientas en el día a día. En su texto, el directivo aboga por construir un marco en el que se asuma que estas tecnologías forman parte natural del trabajo, más como una infraestructura de apoyo que como productos aislados. Por su parte, Dogan sugiere que parte del rechazo actual responde a fatiga tecnológica, más que a un rechazo profundo de la IA en sí.
Las reacciones recogidas por la fuente muestran, sin embargo, un choque entre este discurso optimista y la realidad que perciben muchos usuarios y profesionales. Algunos periodistas y editores, como Jez Corden o Tom Warren, describieron el enfoque de Nadella como excesivamente utópico o desconectado de problemas cotidianos como las integraciones forzadas, los costes, la privacidad o la sensación de que ciertas herramientas de IA hacen más frágiles flujos de trabajo que antes eran estables. Para estos críticos, hablar de 2026 como un año “pivotal” para la IA puede sonar a narrativa de marketing si no va acompañada de mejoras tangibles.
Según la fuente, también hubo quien señaló que insistir en “superar” el debate sobre el AI slop termina, paradójicamente, dándole más visibilidad al término. Las respuestas en redes sociales apuntan a un malestar de fondo con productos que se perciben como menos fiables que las herramientas clásicas, pero que aun así se integran de forma agresiva en sistemas operativos, suites de productividad o buscadores. Esta tensión entre el relato de la alta dirección y la experiencia diaria con la IA genera una brecha de confianza que medios y comunidad SEO siguen muy de cerca.
Un mismo hilo conductor: estándares en disputa
Según la lectura global que plantea la fuente, las historias de esta semana comparten un tema común: hay un desajuste entre los estándares que se exigen a los publishers y los que se aplican a los sistemas de IA de las grandes plataformas. El core update de diciembre, tal y como se ha analizado, exige más especialización y profundidad a los sitios que aspiran a posicionar bien en búsquedas competitivas. Al mismo tiempo, las dudas sobre las AI Overviews de salud y el giro discursivo de grandes ejecutivos muestran que las compañías tecnológicas siguen defendiendo sus productos incluso cuando la comunidad señala errores concretos.
Para quienes trabajan en SEO, contenido o estrategia digital, este contexto implica moverse en un entorno donde la vara de medir puede parecer desigual. De acuerdo con la fuente, mientras los sitios deben demostrar expertise, autoridad y fiabilidad con procesos editoriales robustos, las plataformas piden paciencia con sus resúmenes de IA y argumentan que la mayoría de casos son correctos, aunque se evidencien fallos llamativos. Esta dualidad alimenta la sensación de que la conversación sobre calidad, precisión y responsabilidad en la IA está aún lejos de cerrarse.
En la práctica, la fuente sugiere que la respuesta más prudente para medios, marcas y creadores de contenido pasa por reforzar aún más su propuesta de valor propia. Esto significa apostar por la experiencia de nicho, por voces expertas y por procesos transparentes de revisión, especialmente en verticales sensibles como salud, finanzas o legal. Frente a un escenario en el que los buscadores experimentan con capas de IA en sus resultados, los proyectos que logren demostrar una autoridad especializada y contrastable tendrán más opciones de mantener su relevancia, incluso si el debate sobre el AI slop y los estándares de las plataformas sigue muy vivo en los próximos meses.
Fuente: https://www.searchenginejournal.com/seo-pulse-core-update-favors-niche-expertise-aio-health-inaccuracies-ai-slop/564702/