
Google ha dado un nuevo paso en la lucha contra la desinformación al incorporar a su app Gemini una función para verificar si un vídeo ha sido creado o editado con inteligencia artificial de Google, según la información difundida por la compañía el 18 de diciembre de 2025 . En un contexto marcado por el auge del contenido sintético y los deepfakes, la empresa presenta esta novedad como una forma de aportar más transparencia sobre el origen de los vídeos que circulan por internet, especialmente en publicidad y redes sociales .
La nueva función de verificación de vídeos en Gemini
De acuerdo con la compañía, la app Gemini permite ahora que cualquier usuario suba un vídeo y pregunte directamente si ese contenido ha sido generado usando Google AI, abriendo así una puerta sencilla a la comprobación de autenticidad . La herramienta analiza el archivo y devuelve una respuesta que puede incluir detalles sobre en qué partes concretas del vídeo hay elementos generados por IA, ofreciendo información más granular que un simple “sí” o “no” .
Según los datos facilitados, el sistema funciona con vídeos de hasta 100 MB de tamaño y 90 segundos de duración, límites que marcan claramente su foco en formatos cortos habituales en redes sociales . La función se encuentra disponible en todos los idiomas y países donde opera Gemini, lo que, según la fuente, permite que usuarios de todo el mundo puedan comprobar si un clip incluye contenido sintético creado con las herramientas de Google .
La compañía explica que el usuario solo tiene que subir el vídeo a Gemini y lanzar preguntas del tipo “¿Este vídeo fue generado con Google AI?”, sin necesidad de pasos técnicos complejos . A partir de ahí, la app puede responder con mensajes como que se ha detectado SynthID en el audio entre ciertos segundos pero no en la imagen, dando pistas muy concretas sobre qué fragmentos del contenido son sintéticos y cuáles no .
Cómo funciona SynthID, la marca de agua invisible de Google
El corazón técnico de esta verificación es SynthID, la tecnología de marca de agua desarrollada por Google, que se incrusta de forma imperceptible tanto en el audio como en el vídeo cuando el contenido se genera con sus modelos de IA . Según la compañía, estas marcas no son visibles para las personas, pero sí pueden ser detectadas por los sistemas de análisis durante el proceso de verificación, incluso después de ciertas ediciones del archivo .
La fuente destaca que SynthID funciona de manera diferente a las marcas de agua tradicionales o a los metadatos, ya que no se limita a un logo superpuesto ni a información que pueda borrarse fácilmente al reexportar un vídeo . En su lugar, se integra en el propio contenido, con el objetivo de que la marca persista aunque el archivo se recorte, se comprima o se reformatee, algo especialmente relevante en plataformas donde los vídeos pasan por varios procesos técnicos .
Según el anuncio, Gemini combina la lectura de SynthID con lo que la compañía describe como su propia “capacidad de razonamiento” para analizar patrones visuales y de audio que puedan indicar generación por IA . Esta aproximación dual pretende que el sistema pueda detectar contenido sintético incluso cuando la marca de agua esté degradada o no sea suficiente por sí sola, aunque la nota no ofrece cifras concretas sobre tasas de acierto o error .
Impacto en publicidad digital y estándares de autenticidad
La llegada de esta función se produce en un momento en que anunciantes, plataformas y reguladores intentan fijar reglas claras para el uso de contenido generado por IA, especialmente en campañas políticas y comerciales . Según la fuente, la verificación de vídeos se suma a otras medidas previas de Google, como la obligación de etiquetar imágenes generadas por IA en anuncios y resultados de búsqueda durante 2025 .
En el ámbito publicitario, la autenticidad se ha vuelto un tema sensible, sobre todo después de que la Comisión Federal de Comercio de Estados Unidos intensificara en 2024 su vigilancia sobre prácticas engañosas, incluyendo testimonios falsos o endorsements sintéticos . La compañía plantea que herramientas como esta podrían ayudar a demostrar que un anuncio cumple con las nuevas exigencias de transparencia cuando se ha creado con las soluciones de Google AI, aunque siempre dentro del ecosistema de la propia empresa .
Según el comunicado, la verificación de Gemini solo puede detectar marcas SynthID en contenido generado con los modelos de Google, lo que limita su uso práctico cuando una campaña combina herramientas de distintos proveedores . Esto deja abiertas preguntas sobre la necesidad de estándares más interoperables que permitan comprobar el origen de un vídeo independientemente de la plataforma de IA utilizada, un debate que ya está presente en organismos y alianzas del sector .
Limitaciones técnicas y dudas sobre privacidad y precisión
La propia compañía reconoce, de forma implícita en las características anunciadas, que el límite de 90 segundos y 100 MB acota el uso de la herramienta principalmente a vídeos cortos, como los habituales en redes sociales y formatos de anuncios breves . Esto deja fuera muchas producciones de larga duración o alta resolución, donde las piezas para televisión, demostraciones de producto extensas o contenidos para cine suelen superar con creces esos parámetros .
Otro punto sensible es la privacidad: según la nota, el proceso requiere que los usuarios suban los vídeos a los servidores de Google para su análisis, un aspecto clave para quienes trabajan con material confidencial o de clientes . La compañía no detalla en el anuncio qué ocurre con esos archivos tras la verificación ni si podrían usarse para entrenar modelos, algo que, de acuerdo con expertos citados por la fuente, podría condicionar la adopción en entornos profesionales .
En cuanto a precisión, el comunicado no aporta métricas sobre tasas de falsos positivos o falsos negativos en la detección de contenido generado por IA . Según la fuente, esta ausencia de datos hace que los equipos que quieran basar decisiones críticas en estos resultados necesiten prudencia, ya que un error podría llevar a etiquetar como sintético un vídeo real o, al contrario, dejar pasar como auténtico un contenido manipulado .
Contexto regulatorio, sectorial y próximos pasos
La noticia se enmarca en un contexto regulatorio exigente, en el que normas como la AI Act de la Unión Europea incorporan obligaciones de transparencia para contenido generado por IA . Según la información difundida, estas exigencias se suman a iniciativas previas como las etiquetas obligatorias en anuncios políticos durante 2025 y las políticas propias de Google para contenido alterado digitalmente en publicidad .
En paralelo, iniciativas como la Coalición para la Proveniencia y Autenticidad de Contenido (C2PA) trabajan en estándares para incrustar información de origen en imágenes, audio y vídeo, aunque la adopción sigue siendo desigual entre plataformas . De acuerdo con la nota, el enfoque de Google con SynthID se suma a estos esfuerzos, pero mantiene por ahora un alcance centrado en su propio ecosistema de IA y en una integración directa dentro de la app Gemini .
La fuente subraya que Google presenta esta función como una ampliación de su estrategia de transparencia en contenido digital, después de haber incorporado antes la verificación de imágenes generadas por IA . De cara a los próximos meses, la compañía sugiere que la verificación de vídeo es solo un paso dentro de una hoja de ruta más amplia sobre autenticidad y procedencia, aunque sin concretar futuras ampliaciones o compatibilidad con herramientas de terceros .
Fuente: https://blog.google/technology/ai/verify-google-ai-videos-gemini-app/