Meta vuelve a situarse, y como siempre para mal, en el centro del debate sobre privacidad tras activar una herramienta que accede a nuestras fotos no compartidas para aplicarles IA. Un nuevo capítulo de esa historia suya que siempre parece repetirse: un episodio donde la ambición tecnológica se impone a la prudencia, y donde los usuarios quedamos reducidos a un recurso más, a un flujo de datos sin derecho al resguardo, con la sensación de que cada gesto digital tiene un precio oculto.
Hace unos días se reveló que Facebook está solicitando acceso al carrete fotográfico del usuario cuando este crea una nueva historia. Al aceptar, se autoriza a Meta a procesar en la nube todas las imágenes, incluso aquellas que no se han compartido, para generar collages, estilos artísticos, resúmenes o versiones temáticas. La herramienta analiza rostros, fechas, localizaciones y objetos como materia prima para sus modelos de IA, mientras promete que estas sugerencias son visibles solo para el usuario si no decide publicarlas. Sin embargo, esa promesa se enmarca en un contexto donde Meta ha demostrado, una y otra vez, que sus términos de servicio pueden cambiar con discreción y que sus intenciones reales suelen ampliarse en cuanto la regulación lo permite.
Meta asegura que no utiliza estas fotos para publicidad, pero aceptar esta función significa adherirse a los Términos de Servicio de su IA, que permiten el análisis de rasgos faciales, la retención de información personal y, según su letra pequeña, la revisión humana de las interacciones con su inteligencia artificial. Aunque la compañía afirma que no entrena modelos con estas imágenes durante esta fase de prueba, el riesgo de que esa promesa se transforme mañana en una cláusula más amplia siempre está presente. Su trayectoria de redefinir usos sin aviso real refuerza la desconfianza sobre su visión de la privacidad como un derecho secundario frente a su estrategia de producto.
En el pasado, Meta ya protagonizó episodios similares con sus plataformas. Ha utilizado contenido público para entrenar sus modelos sin consentimiento explícito, dificultando además los procesos de oposición mediante formularios ambiguos y enlaces escondidos en configuraciones opacas. También empleó diseños destinados a confundir, las llamados dark patterns, para conducir al usuario a la cesión de sus datos, convirtiendo decisiones que parecían libres en elecciones donde todo camino llevaba al mismo destino: el refuerzo de su negocio basado en datos.
Imagen generada con IA
Esta nueva función de procesamiento automático de fotos no publicadas representa un paso más allá. Facebook permite desactivarla en los ajustes de la aplicación, dentro de la sección de Sugerencias de carrete, donde existen dos interruptores: uno para mostrar fotos como sugerencias cuando se navega por la app, y otro que habilita o desactiva el “procesamiento en la nube”. Sin embargo, llegar hasta esos controles exige navegar por menús poco intuitivos y aceptar explicaciones legales que no aportan claridad real, repitiendo el patrón de entorpecer cualquier oposición para maximizar la adopción de sus funciones.
Un portavoz de Meta justificó esta medida como una simple prueba para “facilitar la publicación de contenido” y recalcó que las sugerencias solo se muestran al usuario, sin entrenar modelos con las fotos durante el test. Pero en el contexto de su historial, esa declaración suena más a contención preventiva que a un compromiso genuino. Meta no oculta su ambición de IA, y cada nuevo acceso autorizado a datos privados es un peldaño más hacia su objetivo de construir modelos cada vez más potentes y personalizados, con los usuarios como fuente constante de entrenamiento y expansión de sus capacidades.
No es exagerado sospechar que Meta emplea estos métodos como canal encubierto para acumular datos inéditos. Cuando ya empleó contenido público sin permiso, lo hizo bajo tácticas de confusión informativa; ahora amplía su alcance a un territorio más íntimo: las imágenes privadas de nuestro carrete, tomadas y guardadas en un espacio que debería ser inviolable. Su técnica no cambia, solo el volumen y la intimidad de la información capturada, y con cada paso normaliza la idea de que todo lo personal puede transformarse en materia prima para la inteligencia artificial.
Veo con preocupación cómo Meta ha convertido un gesto tan banal como crear una story en una puerta abierta al acceso masivo y constante sobre lo más privado de nuestras vidas. En su carrera por la inteligencia artificial, parece haber olvidado que la confianza no se sube a un carro tras un aviso cifrado en letra minúscula. Cada foto no publicada que tomamos es un fragmento de nuestra memoria, y sin embargo hoy puede acabar alimentando algoritmos sin garantías ni explicaciones. Otra vez Meta antepone su IA a nuestra privacidad. Y otra vez me pregunto: ¿hasta dónde permitiremos que la ambición tecnológica decida qué queda de nuestra vida fuera de su nube?
Más información
La entrada Otra vez Meta, otra vez la IA, otra vez la privacidad se publicó primero en MuyComputer.
FacebookInteligencia artificialMetaNoticiasPrivacidadTECHNOLOGY