Los deepfakes han dejado de ser una anécdota tecnológica para convertirse en un problema político, social y regulatorio de primer nivel. India ha decidido dar un paso contundente al imponer nuevas obligaciones a las grandes plataformas digitales para que identifiquen, etiqueten y retiren con mucha mayor rapidez los contenidos sintéticos generados por inteligencia artificial. La medida no solo afecta a su enorme mercado interno, sino que actúa como banco de pruebas global para sistemas de detección que, a día de hoy, siguen siendo claramente insuficientes.
Las nuevas reglas, que modifican la normativa tecnológica del país, obligan a redes como Instagram, Facebook, YouTube o Twitter a desplegar “medidas técnicas razonables y apropiadas” para impedir la difusión de contenidos audiovisuales sintéticos ilegales. Además, cualquier material generado por IA que no sea bloqueado deberá incorporar metadatos permanentes u otros mecanismos técnicos de procedencia que permitan identificar claramente su naturaleza artificial. El plazo para empezar a cumplir es extremadamente ajustado, con el 20 de febrero como fecha tope, lo que añade presión a unas herramientas que aún están en desarrollo.
Uno de los sistemas más citados en este ámbito es C2PA (Content Credentials), impulsado por compañías como Adobe, Microsoft y Google, así como por Meta. Este estándar permite adjuntar metadatos a imágenes, vídeos o audios para detallar cómo han sido creados o modificados. Sobre el papel, es una solución prometedora. En la práctica, su interoperabilidad es limitada, los metadatos pueden eliminarse con relativa facilidad y muchos contenidos generados con modelos de código abierto ni siquiera incorporan esa información desde el origen.
El desafío técnico se agrava con otra exigencia india: reducir el plazo de retirada de contenidos ilegales a apenas tres horas desde su detección o denuncia, frente a las 36 horas anteriores. Organizaciones como la Internet Freedom Foundation han advertido del riesgo de convertir a las plataformas en “censores automáticos”, forzadas a eliminar de forma preventiva y masiva cualquier contenido sospechoso ante la imposibilidad de realizar revisiones humanas en tiempos tan reducidos. El equilibrio entre protección frente a la desinformación y respeto a la libertad de expresión vuelve a situarse en el centro del debate.
El contexto internacional no ayuda a rebajar la tensión. En paralelo a estas nuevas obligaciones regulatorias, crece la presión sobre xAI por la gestión de contenidos generados por su modelo Grok, integrado en Twitter. Diversas polémicas recientes han puesto de relieve lo difícil que resulta controlar en tiempo real respuestas generadas por IA que pueden derivar en desinformación, manipulación o incluso contenido ofensivo. El debate ya no se limita a los deepfakes audiovisuales: alcanza también a los sistemas conversacionales capaces de amplificar rumores o fabricar narrativas convincentes.
En este escenario, la regulación india puede interpretarse como un aviso a navegantes. Con más de 500 millones de usuarios en redes sociales, el país es un mercado demasiado relevante como para ignorar sus exigencias. Si las plataformas logran implementar sistemas efectivos de etiquetado y trazabilidad, podrían exportarlos a otros territorios. Si fracasan, quedará en evidencia que la industria aún no dispone de herramientas maduras para cumplir con las expectativas regulatorias.
En Europa, donde el Reglamento de Servicios Digitales (DSA) y el Reglamento de Inteligencia Artificial ya marcan un rumbo más estricto en materia de responsabilidad y transparencia, es razonable anticipar una presión creciente sobre los deepfakes y el contenido sintético. España no será ajena a esa tendencia. Cada vez más gobiernos consideran que la desinformación impulsada por IA no es solo un problema tecnológico, sino un riesgo para la estabilidad democrática.
El cerco, en definitiva, se está estrechando. La cuestión ya no es si las redes sociales deberán etiquetar y controlar los deepfakes, sino si disponen de la tecnología (y la voluntad, claro) adecuada para hacerlo sin sacrificar derechos fundamentales ni convertir sus sistemas en filtros automáticos desproporcionados. India ha lanzado el desafío. Ahora toca comprobar si la industria está realmente preparada para superarlo.
Más información
La entrada Se estrecha el cerco a los deepfakes en redes sociales se publicó primero en MuyComputer.

