
Google ha dado un nuevo paso en su estrategia de seguridad con el lanzamiento de ALF, un modelo de inteligencia artificial diseñado para detectar fraude en Google Ads, según la información recogida en un reciente trabajo de investigación publicado a finales de 2025. De acuerdo con esta fuente, el sistema ya está desplegado en producción y estaría consiguiendo una mejora notable en la precisión y el control de los anunciantes sospechosos dentro del ecosistema publicitario de la compañía.
Un nuevo modelo de IA centrado en entender a los anunciantes
Según los datos facilitados, ALF responde a las siglas de Advertiser Large Foundation Model y se describe como un modelo fundacional multimodal capaz de analizar textos, imágenes y vídeos junto con datos estructurados de las cuentas de publicidad. De acuerdo con la fuente, el objetivo principal no es solo revisar anuncios sueltos, sino comprender de forma holística el comportamiento e intención de cada anunciante dentro de Google Ads.
La investigación explica que este enfoque resulta clave en un contexto en el que los anuncios conviven con intentos de fraude y violaciones de políticas, algo que impacta tanto en usuarios como en marcas legítimas. Según se detalla, ALF incorpora señales como la antigüedad de la cuenta, los métodos de pago o el historial de rendimiento para dibujar un perfil más completo y detectar patrones combinados que puedan indicar actividad sospechosa. De acuerdo con la compañía, estos elementos vistos en conjunto ofrecen una imagen mucho más fiable que si se analizan de forma aislada.
Por qué los modelos anteriores se quedaban cortos
La fuente señala que Google se enfrentaba a tres grandes retos con los sistemas previos: datos heterogéneos, grandes volúmenes de creatividades y la necesidad de mantener la fiabilidad en situaciones reales. Según el documento, los modelos tradicionales sufrían al gestionar información de muchos tipos distintos, desde datos de cuenta hasta imágenes o vídeos, algo que complica la representación matemática de cada anunciante. De acuerdo con la investigación, esta complejidad reducía la eficacia de los modelos convencionales.
Otro problema descrito es la capacidad de algunos actores maliciosos para esconder creatividades problemáticas entre miles de anuncios aparentemente normales, lo que dificultaba su detección automatizada. De acuerdo con la fuente, los antiguos sistemas podían verse desbordados ante campañas con grandes catálogos de anuncios, lo que dejaba huecos para el fraude. Por eso, según el estudio, ALF se ha diseñado para manejar conjuntos de creatividades prácticamente ilimitados y seguir identificando aquellos elementos que no encajan con un comportamiento legítimo.
Cómo analiza señales para detectar fraude en Google Ads
El funcionamiento de ALF se apoya en la combinación de múltiples tipos de datos, tanto estructurados como no estructurados, para construir una visión global de cada anunciante, según la explicación técnica compartida. De acuerdo con la fuente, el modelo es capaz de juntar información como el contenido de los anuncios, las páginas de destino o los detalles de facturación, y a partir de ahí inferir si existe un riesgo de que la cuenta esté vulnerando las políticas de Google Ads. Este enfoque busca anticiparse a las tácticas de los estafadores antes de que causen daño.
Un ejemplo citado en el documento ilustra un caso donde una cuenta nueva, con anuncios de una marca conocida y un pago con tarjeta rechazado, podría no parecer problemática si cada hecho se mira por separado. Sin embargo, según el estudio, la combinación de estas señales dispara las alarmas del modelo, que interpreta el conjunto como un posible intento de suplantación o fraude. De acuerdo con los investigadores, este tipo de análisis contextual resulta clave para distinguir entre errores legítimos y operaciones organizadas.
La técnica de Inter-Sample Attention y el análisis de grandes lotes
Uno de los elementos destacados por la investigación es el uso de una técnica denominada Inter-Sample Attention, pensada para que el modelo compare el comportamiento de muchos anunciantes al mismo tiempo. Según la fuente, en lugar de evaluar cada cuenta en aislamiento, ALF analiza grandes lotes de anunciantes y estudia sus interacciones dentro del sistema. Este enfoque permite identificar con más precisión qué se considera actividad normal en el conjunto y qué patrones se salen de la norma.
De acuerdo con el documento, esta atención entre muestras ayuda a que el modelo aprenda mejor qué características son realmente representativas de un fraude frente a las acciones habituales de empresas legítimas. Según los investigadores, ALF consigue así mejorar la detección de “outliers” o comportamientos atípicos, reduciendo los falsos positivos y centrando los avisos en los casos con mayor probabilidad de incumplir las políticas. Esta capacidad resulta especialmente relevante en un entorno tan masivo como Google Ads.
Resultados en producción y mejoras en precisión
Los autores del trabajo aseguran que ALF ya se ha probado frente a un sistema de referencia muy optimizado que Google utilizaba hasta ahora en producción. Según la fuente, los experimentos internos muestran que ALF supera claramente a ese baseline en tareas clave de detección de riesgo, tanto en pruebas controladas como en entornos reales. De acuerdo con los datos publicados, el modelo logra “ganancias sustanciales y simultáneas en precisión y recall” en políticas críticas.
En particular, la investigación afirma que ALF aumenta el recall más de 40 puntos porcentuales en una política importante y alcanza una precisión del 99,8% en otra, lo que supondría un salto significativo en la capacidad de bloquear anunciantes problemáticos sin castigar a quienes cumplen las normas. Según el documento, este rendimiento se obtiene ya en plena producción, sirviendo millones de peticiones diarias dentro del sistema de seguridad de Google Ads.
El equilibrio entre latencia y seguridad en Google Ads
Uno de los aspectos delicados en este tipo de modelos es la latencia, es decir, el tiempo que tarda el sistema en generar una respuesta tras recibir una solicitud. La fuente reconoce que, por su tamaño, ALF introduce una latencia mayor que el modelo anterior, algo habitual en arquitecturas más complejas. Sin embargo, según el estudio, ese aumento se mantiene dentro de los márgenes aceptables para el entorno de producción de Google.
De acuerdo con los investigadores, este coste en tiempo de respuesta se compensa con la mejora lograda en la detección de riesgos, ya que el modelo aprovecha mejor las representaciones de contenido que los sistemas más simples no podían explotar igual. Según la fuente, la compañía considera justificado este intercambio entre velocidad y seguridad, especialmente porque la latencia puede optimizarse aún más mediante aceleradores de hardware. En la práctica, el sistema estaría operando a gran escala sin comprometer la experiencia general.
Privacidad, seguridad de datos y límites de uso
El estudio también dedica espacio a explicar cómo se maneja la privacidad de los usuarios y anunciantes dentro de este nuevo sistema. Según la fuente, antes de que ALF procese cualquier información, se eliminan los datos de carácter personal identificable, de modo que el modelo trabaje sobre patrones de comportamiento y no sobre identidades concretas. Este enfoque intenta equilibrar la seguridad del ecosistema con el respeto a la privacidad.
De acuerdo con el documento, el despliegue actual de ALF se limita al sistema de seguridad de Google Ads para identificar anunciantes que vulneran las políticas de la plataforma. La fuente señala que no hay indicios de que se esté utilizando en otras áreas como la Búsqueda o los perfiles de Google Business. Sin embargo, según el trabajo, los autores apuntan a posibles usos futuros en áreas como el audience modeling o la optimización creativa, así como en el análisis de patrones temporales para seguir la evolución del fraude.
Por qué este avance importa para el ecosistema publicitario
Según la fuente, el despliegue de ALF supone un paso importante en la protección del ecosistema publicitario, donde conviven pequeños negocios, grandes marcas y actores maliciosos que buscan aprovechar cualquier resquicio. Al mejorar la detección de fraude y violaciones de políticas, Google aspira a ofrecer un entorno más seguro tanto para usuarios como para anunciantes legítimos. Esto resulta clave para mantener la confianza en la publicidad online, especialmente en una plataforma tan masiva como Google Ads.
Aunque el trabajo se centra en detalles técnicos y resultados de pruebas, la lectura general apunta a una tendencia clara: el uso de modelos de IA más potentes y multimodales para filtrar mejor qué anuncios pueden mostrarse. De acuerdo con la investigación, el caso de ALF demuestra que este tipo de modelos ya no son solo experimentos de laboratorio, sino herramientas activas que están tomando decisiones a gran escala sobre qué anuncios llegan a los usuarios y cuáles se quedan fuera por incumplir las normas.
Fuente: https://www.searchenginejournal.com/google-alf-advertiser-large-foundation-model/564510/