La plataforma de video de Google lanzó un programa piloto que permitirá a figuras públicas detectar y solicitar la eliminación de videos creados con inteligencia artificial que utilicen su rostro sin autorización. La medida busca frenar la desinformación en un momento de expansión de los deepfakes.
La proliferación de contenidos generados con inteligencia artificial está obligando a las grandes plataformas tecnológicas a desarrollar nuevas herramientas de control. En ese contexto, YouTube anunció que ampliará su sistema de detección de deepfakes para incluir a un nuevo grupo de usuarios: funcionarios gubernamentales, candidatos políticos y periodistas.
La compañía informó que estas figuras públicas podrán acceder a una herramienta que identifica videos creados con inteligencia artificial que simulan su rostro o identidad. Si consideran que ese contenido viola las políticas de la plataforma, tendrán la posibilidad de solicitar su eliminación.
La iniciativa forma parte de un programa piloto anunciado en marzo y se suma a las capacidades de detección de deepfakes que la empresa ya venía probando desde el año pasado.
De los creadores de contenido a la esfera política
La tecnología de detección de similitud visual de YouTube se lanzó inicialmente en 2025 para los creadores que forman parte del YouTube Partner Program, un ecosistema que reúne aproximadamente 4 millones de creadores.
El sistema funciona de manera similar a Content ID, la herramienta que la plataforma utiliza desde hace años para detectar material protegido por derechos de autor en los videos que suben los usuarios.
En lugar de buscar música o fragmentos de video, esta nueva tecnología analiza rostros generados o manipulados mediante herramientas de inteligencia artificial, con el objetivo de detectar deepfakes que simulan la identidad de figuras públicas.
Este tipo de contenidos se ha convertido en una de las principales preocupaciones de gobiernos, periodistas y empresas tecnológicas, ya que los videos manipulados pueden mostrar a políticos o funcionarios diciendo o haciendo cosas que nunca ocurrieron.
Un intento por proteger la conversación pública
Desde la compañía explican que el objetivo del programa es proteger el debate público sin limitar la libertad de expresión.
“Esta expansión tiene que ver realmente con la integridad de la conversación pública”, afirmó Leslie Miller, vicepresidenta de Asuntos Gubernamentales y Políticas Públicas de YouTube.
Durante una presentación previa al lanzamiento, Miller explicó que el riesgo de suplantación mediante inteligencia artificial es especialmente alto para las personas que participan en el ámbito cívico.
“Sabemos que los riesgos de la suplantación mediante IA son particularmente altos para quienes están en el espacio cívico. Pero mientras ofrecemos este nuevo escudo, también somos cuidadosos sobre cómo lo usamos”, señaló.
La empresa aclaró que no todos los contenidos detectados serán eliminados automáticamente. Cada caso será evaluado bajo las políticas de privacidad de la plataforma para determinar si se trata de parodia, sátira o crítica política, formatos protegidos dentro del marco de la libertad de expresión.
Cómo funcionará la herramienta
Para acceder a la nueva tecnología, los participantes del programa piloto deberán primero verificar su identidad.
El proceso incluye subir una selfie y un documento oficial, lo que permite crear un perfil que luego será utilizado por el sistema para buscar coincidencias en los videos publicados en la plataforma.
Cuando el sistema detecte un contenido que simula su rostro mediante inteligencia artificial, el usuario podrá revisar ese video y decidir si solicita su eliminación.
YouTube también está evaluando otras posibilidades para el futuro, como permitir que los usuarios bloqueen la publicación de contenidos que violen sus derechos antes de que se hagan públicos o incluso monetizar videos que utilicen su imagen, de manera similar al funcionamiento de Content ID.
Por el momento, la empresa no confirmó qué políticos, funcionarios o periodistas participarán en las primeras pruebas del sistema.
Etiquetas para contenido generado con IA
Además de la detección automática, YouTube está reforzando su sistema de etiquetado de contenidos generados con inteligencia artificial.
Los videos creados con estas herramientas incluirán una advertencia que indique que fueron generados o modificados con IA. Sin embargo, la ubicación de la etiqueta dependerá del tipo de contenido.
En algunos casos aparecerá en la descripción del video, mientras que en temas considerados más sensibles se mostrará directamente sobre el video.
“Hay mucho contenido producido con IA, pero esa distinción no siempre es material para el contenido en sí”, explicó Amjad Hanif, vicepresidente de Productos para Creadores de YouTube.
Según Hanif, un video puede estar generado con IA sin que eso cambie significativamente su naturaleza. “Podría ser simplemente un dibujo animado creado con IA. Por eso evaluamos cuándo es necesario incluir un aviso más visible”, indicó.
El debate regulatorio
El avance de los deepfakes también está impulsando cambios regulatorios. YouTube anunció que apoya en Washington D.C. la propuesta legislativa conocida como NO FAKES Act, que busca regular el uso de inteligencia artificial para recrear la voz o la apariencia de una persona sin su consentimiento.
Por ahora, la empresa no reveló cuántos contenidos falsificados fueron eliminados gracias a esta tecnología. Sin embargo, indicó que el volumen de solicitudes de retiro entre los creadores ha sido “muy pequeño”.
“Para muchos creadores, lo más importante ha sido simplemente saber qué contenido se está creando con su imagen”, explicó Hanif. “El volumen real de solicitudes de eliminación es muy bajo porque gran parte del contenido resulta bastante benigno o incluso beneficioso para su negocio”.
Sin embargo, el panorama podría ser diferente cuando se trata de políticos, funcionarios y periodistas, donde los deepfakes pueden convertirse rápidamente en herramientas de desinformación o manipulación política.
En ese contexto, la expansión de estas herramientas marca un nuevo paso en la estrategia de las plataformas para enfrentar uno de los desafíos más complejos de la era de la inteligencia artificial: distinguir entre lo real y lo sintético en la conversación pública global.

