YouTube amplía su detección de deepfakes con IA para proteger a políticos, funcionarios y periodistas

YouTube amplía su detección de deepfakes con IA para proteger a políticos, funcionarios y periodistas 2

YouTube ha decidido reforzar su lucha contra los deepfakes generados con inteligencia artificial ampliando el acceso a su herramienta de detección de suplantaciones. Según la información publicada por TechCrunch, la plataforma permitirá ahora que políticos, funcionarios públicos y periodistas puedan identificar vídeos creados con IA que imiten su rostro y solicitar su retirada si vulneran las normas de la plataforma. El movimiento llega en un contexto en el que la proliferación de contenidos falsificados mediante inteligencia artificial se ha convertido en una preocupación creciente para gobiernos, medios y plataformas tecnológicas.

YouTube amplía su sistema de detección de deepfakes a figuras públicas

De acuerdo con la compañía, el sistema conocido como “likeness detection” o detección de similitud se pondrá a disposición de un grupo piloto formado por candidatos políticos, funcionarios del gobierno y periodistas. Según los datos facilitados por la empresa, la herramienta permite detectar vídeos que utilizan la imagen de una persona generada por inteligencia artificial y revisar si el contenido vulnera las políticas de privacidad de la plataforma.

La herramienta funciona de manera similar al conocido sistema Content ID de YouTube, que identifica material protegido por derechos de autor. En este caso, según explica la compañía, el sistema analiza los vídeos subidos a la plataforma para buscar rostros generados o manipulados mediante IA que imiten a una persona real. Si detecta coincidencias, el usuario inscrito en el programa puede revisar el contenido y solicitar su eliminación.

Un proyecto que ya se había probado con creadores de contenido

Según la información difundida por la empresa, esta tecnología no es completamente nueva. YouTube ya lanzó el sistema de detección de deepfakes en 2025 para aproximadamente cuatro millones de creadores inscritos en el YouTube Partner Program. Ese primer despliegue sirvió como fase de pruebas para entender cómo se utiliza la herramienta y qué volumen de solicitudes de retirada podría generarse.

De acuerdo con la compañía, las solicitudes de eliminación registradas hasta ahora han sido relativamente pocas. Según explicó la empresa durante una sesión informativa con periodistas, gran parte del contenido detectado resultó ser material benigno, parodias o usos que no vulneraban las políticas de la plataforma. Aun así, la empresa considera que el riesgo es mayor cuando las víctimas potenciales son figuras públicas vinculadas al debate político.

El objetivo es proteger el debate público frente a la suplantación digital

Según responsables de la compañía citados en la presentación del programa, la ampliación de esta herramienta busca proteger la integridad del debate público. De acuerdo con la plataforma, los deepfakes pueden utilizarse para hacer que una persona parezca decir o hacer algo que nunca ocurrió, lo que abre la puerta a campañas de desinformación o manipulación política.

La empresa señala que los riesgos de suplantación mediante inteligencia artificial son especialmente altos en el ámbito cívico. En este contexto, permitir que políticos, funcionarios y periodistas puedan rastrear contenidos falsificados sobre ellos mismos se plantea como una medida preventiva frente a posibles campañas de desinformación que puedan viralizarse rápidamente.

Cómo funciona el sistema para identificar vídeos manipulados

Para utilizar la herramienta, los participantes del programa piloto deben verificar primero su identidad. Según la compañía, el proceso incluye subir un selfie y un documento de identidad oficial. Una vez verificados, pueden crear un perfil que les permitirá revisar coincidencias detectadas por el sistema.

Cuando el sistema encuentra un vídeo que podría utilizar su imagen mediante inteligencia artificial, el participante puede analizar el contenido y solicitar su retirada. Sin embargo, según aclara la empresa, no todas las solicitudes serán aprobadas automáticamente. Cada caso será revisado conforme a las políticas de privacidad y libertad de expresión de la plataforma.

  • Detección automática de rostros generados con IA
  • Revisión manual del contenido por parte del afectado
  • Solicitud de retirada si el vídeo infringe las políticas
  • Evaluación por parte de YouTube antes de eliminarlo

No todos los deepfakes se eliminarán automáticamente

Según explica la plataforma, algunos vídeos detectados podrían permanecer publicados si se consideran contenidos legítimos. De acuerdo con la política de YouTube, las parodias, sátiras o críticas políticas pueden estar protegidas por las normas de libertad de expresión, siempre que no vulneren la privacidad ni engañen deliberadamente al público.

En otras palabras, según la empresa, el objetivo no es eliminar cualquier contenido generado con IA, sino evitar el uso malicioso de la imagen de una persona. Este equilibrio entre moderación de contenidos y libertad de expresión se ha convertido en uno de los principales retos para las plataformas que intentan gestionar el auge de los deepfakes.

El futuro del sistema: prevención y nuevas formas de control

De acuerdo con los planes adelantados por la compañía, la tecnología podría evolucionar en el futuro para bloquear vídeos antes de que se publiquen si se detecta que utilizan la imagen de una persona sin autorización. También se estudia la posibilidad de que los afectados puedan monetizar determinados usos de su imagen, de forma similar a lo que ya ocurre con Content ID en el ámbito del copyright.

Además, según la empresa, los vídeos generados con inteligencia artificial seguirán llevando etiquetas que indiquen que el contenido ha sido creado con IA. Estas advertencias pueden aparecer en la descripción del vídeo o directamente sobre el contenido en temas sensibles. Según la plataforma, el objetivo es ayudar a los usuarios a distinguir mejor entre contenido real y material generado artificialmente.

La iniciativa se suma a otros esfuerzos del sector tecnológico y de los reguladores para limitar el impacto de los deepfakes en la información pública. Según la compañía, el objetivo final es ampliar el acceso a esta tecnología con el tiempo, permitiendo que cada vez más personas puedan detectar y gestionar el uso no autorizado de su imagen en vídeos generados con IA.

Fuente: https://techcrunch.com/2026/03/10/youtube-expands-ai-deepfake-detection-to-politicians-government-officials-and-journalists


También podría ser de tu interés:

Deja un comentario