Meta lo ha vuelto a hacer. Apenas han pasado unos días desde que supimos de la técnica que había estado empleando Meta para vulnerar la privacidad de los usuarios de Android, una nueva polémica ha surgido, esta vez con el asistente Meta AI integrado en Instagram. Aunque no se trata de un fallo técnico, la situación ha generado preocupación por lo que muchos consideran un error grave de experiencia de usuario: la publicación involuntaria de conversaciones privadas en un espacio público sin la advertencia clara ni los mecanismos adecuados para evitarlo.
Todo comenzó con la implementación de Meta AI en la aplicación de Instagram, donde los usuarios pueden interactuar con el asistente para resolver dudas, pedir sugerencias o generar contenido. El problema surge cuando, tras generar una consulta, la plataforma ofrece la opción de “compartir”. Este botón, aparentemente inocuo, conduce a una vista previa que al aceptarse convierte automáticamente el intercambio en una publicación visible para otros usuarios, sin que haya un aviso claro sobre las implicaciones de esa acción.
El contenido compartido aparece en la sección Discover, un feed donde Meta muestra las interacciones destacadas con su IA. Aunque esta característica podría entenderse como una forma de fomentar la visibilidad del asistente, en la práctica ha funcionado como una trampa para muchos usuarios que no eran conscientes de estar haciendo públicas sus preguntas ni sus respuestas. Peor aún: la publicación se produce sin notificaciones posteriores ni un control sencillo para eliminar el contenido.
Las consecuencias no se han hecho esperar. Varios usuarios han detectado cómo aparecían conversaciones propias en el feed Discover, incluyendo temas extremadamente sensibles: desde problemas médicos o legales hasta datos personales y preguntas íntimas. Casos que deberían haberse mantenido bajo el amparo de la privacidad han acabado expuestos públicamente, alimentando la preocupación de que Meta no ha aprendido lo suficiente de sus anteriores errores en este ámbito.
Aunque técnicamente no se ha producido ninguna filtración de datos, los expertos coinciden en que el diseño de esta funcionalidad es, como mínimo, engañoso. No existe ninguna advertencia clara que indique que la conversación será pública, y el lenguaje empleado en el botón “compartir” no refleja con precisión la acción que ejecuta. En entornos donde la inteligencia artificial empieza a convertirse en un interlocutor habitual, este tipo de ambigüedades pueden tener consecuencias serias para los usuarios.
Especialistas en ciberseguridad como Rachel Tobac han señalado el carácter problemático de este tipo de decisiones de diseño, al considerar que se trata de un patrón recurrente en Meta: interfaces que priorizan la participación o la visibilidad del producto en detrimento de la claridad para el usuario. Organizaciones como EPIC y Mozilla han exigido una revisión urgente de este comportamiento, pidiendo incluso la suspensión temporal del feed Discover hasta que se implementen garantías robustas.
Meta, por su parte, no ha emitido un comunicado específico sobre el incidente, aunque algunas fuentes apuntan a que se están revisando los flujos de interacción del asistente. Sin embargo, el hecho de que la situación haya persistido durante semanas sin rectificación aparente refuerza la idea de que la compañía sigue dando prioridad a sus intereses de producto sobre las necesidades y derechos de los usuarios.
Este episodio no es aislado. Como ya sabes, Meta arrastra un historial lleno de decisiones controvertidas en materia de privacidad: desde los escándalos de Cambridge Analytica hasta la implementación confusa de políticas de seguimiento en sus apps. En todos estos casos, la falta de transparencia y la complejidad de sus configuraciones han jugado en contra del usuario, y la situación actual con Meta AI no hace más que confirmar que el problema no era circunstancial, sino estructural.
En un momento en el que la inteligencia artificial empieza a integrarse en las plataformas de uso diario, el diseño de la interacción adquiere un peso crítico. No basta con proteger los datos a nivel técnico si luego la interfaz induce al error y al malentendido. Meta ha vuelto a fallar en esa frontera invisible entre lo público y lo privado, y lo ha hecho justo donde debería haber sido más escrupulosa. Una conversación con una IA puede parecer inocua, hasta que se publica sin querer. Y ahí, la confianza del usuario vuelve a quedar en entredicho.
Más información
La entrada ¿Has usado la IA de Meta? Pues ten mucho cuidado se publicó primero en MuyComputer.