En los últimos años el problema de los deepfakes ha pasado de ser una curiosidad tecnológica a convertirse en una preocupación real para el debate público. Las herramientas de inteligencia artificial generativa permiten crear vídeos cada vez más convincentes, capaces de imitar rostros, voces y gestos con una precisión que hace unos años parecía ciencia ficción. En ese contexto, YouTube ha anunciado la ampliación de una herramienta pensada precisamente para afrontar ese desafío: su sistema de detección de uso indebido de imagen generado por IA.
La plataforma ha confirmado que está expandiendo likeness detection, una tecnología diseñada para identificar contenido generado mediante inteligencia artificial que utiliza la imagen o identidad de una persona sin autorización. El sistema se lanzó en 2024 para creadores que forman parte del programa de socios de YouTube, pero ahora la compañía lo está extendiendo a un nuevo grupo formado por responsables gubernamentales, periodistas y candidatos políticos, perfiles especialmente expuestos a este tipo de suplantaciones digitales.
El funcionamiento de esta herramienta recuerda al conocido sistema Content ID que YouTube utiliza desde hace años para detectar material protegido por derechos de autor. En este caso, en lugar de buscar coincidencias de audio o vídeo, el sistema analiza el contenido generado con IA para identificar si incluye la imagen o el rostro de una persona concreta. Si se detecta una coincidencia —por ejemplo, un deepfake en el que aparece el rostro de un político o un periodista— la persona afectada puede revisar el vídeo y solicitar su retirada si considera que vulnera las políticas de privacidad de la plataforma.
Eso sí, detectar un contenido no significa automáticamente que vaya a eliminarse. YouTube subraya que evaluará cada caso de forma individual para mantener el equilibrio entre protección de la identidad y libertad de expresión. La compañía recuerda que existen excepciones para contenidos de interés público, así como para formatos como la parodia o la sátira política, que forman parte del debate democrático y de la cultura digital.
Para evitar abusos del sistema, YouTube exige que los participantes verifiquen su identidad antes de poder utilizar la herramienta. Los datos proporcionados durante ese proceso se emplean únicamente para confirmar la identidad del usuario y activar el sistema de protección, y la compañía asegura que no se utilizarán para entrenar los modelos de inteligencia artificial de Google.
La expansión de esta tecnología llega en un momento en el que las plataformas digitales están bajo creciente presión para abordar el impacto de la inteligencia artificial generativa en la información pública. Los deepfakes capaces de imitar rostros, voces o gestos con gran realismo se han convertido en una preocupación creciente, especialmente cuando afectan a figuras públicas o al debate político.
En su comunicado, YouTube menciona iniciativas legislativas como la NO FAKES Act en Estados Unidos, que busca reforzar la protección legal frente a la suplantación mediante inteligencia artificial. Sin embargo, el debate sobre este tipo de contenidos es global. En Europa también se están desarrollando marcos regulatorios destinados a aumentar la transparencia de los contenidos generados por IA y limitar los usos más problemáticos de estas tecnologías.
La ampliación de herramientas como likeness detection refleja hasta qué punto las plataformas están intentando adaptarse a esta nueva realidad. La inteligencia artificial abre enormes posibilidades para la creatividad digital, pero también plantea riesgos evidentes para la reputación de las personas y la calidad del debate público, lo que está obligando a empresas tecnológicas y reguladores a replantear cómo proteger la identidad en Internet.
Más información
La entrada YouTube amplía su sistema para detectar deepfakes se publicó primero en MuyComputer.

