Hay días en los que uno se pregunta si algunas de las grandes plataformas tecnológicas han renunciado del todo a aquello que en algún momento llamamos responsabilidad. No por omisión o por saturación, sino por pura conveniencia. Meta, que durante años ha afirmado luchar contra la desinformación, parece empeñada en demostrar que, en su universo, la verdad es apenas un estorbo logístico. Porque permitir que un vídeo deliberadamente manipulado permanezca en línea, incluso después de confirmar su falsedad, no es un fallo del sistema: es una postura. Y una muy cuestionable.
El caso no es menor. Hace unas semanas, en Facebook comenzó a circular un vídeo con imágenes de una protesta real en Serbia, reeditadas con subtítulos y audio falsos para simular que se trataba de una manifestación en apoyo al expresidente filipino Rodrigo Duterte en los Países Bajos. La alteración era evidente, pero eso no impidió que alcanzara a más de 100.000 usuarios antes de ser objeto de cualquier acción moderadora. La detección, como ya es habitual, llegó a través de los sistemas automatizados de Meta, que limitaron su alcance fuera de Estados Unidos. Nadie del equipo humano de moderación lo revisó, al menos antes de que el asunto escalara al Consejo de Supervisión.
La Oversight Board, el organismo independiente que revisa las decisiones de moderación de Meta, evaluó el caso con detalle. Su conclusión fue clara: aunque el contenido no violaba de forma literal las políticas actuales de la compañía, sí debía haber sido etiquetado como contenido de “alto riesgo” y marcado como manipulado. Es decir, lo que falló no fue la existencia de una norma, sino su aplicación. Meta, al amparo de una ambigüedad normativa cuidadosamente diseñada, optó por dejar el vídeo online, sin medidas proporcionales al grado de distorsión que representaba.
No fue una omisión inocente. El Consejo recomendó una serie de acciones concretas: mejorar las etiquetas que alertan sobre contenidos manipulados, establecer un protocolo específico para casos con alta carga de desinformación, y reforzar los mecanismos que identifican y escalan este tipo de publicaciones antes de que se viralicen. Ninguna de estas medidas fue adoptada de forma inmediata. El vídeo sigue disponible. Meta no corrigió su posición. Al final, la recomendación queda como tantas otras: como gesto simbólico, no como cambio operativo.
Este episodio no retrata tanto un fallo puntual como una política sostenida. Meta no combate activamente la desinformación; convive con ella. Mientras los algoritmos mantengan el equilibrio entre engagement y escándalo, mientras los límites se mantengan dentro de una niebla legal de baja resolución, la manipulación no es un problema: es parte del negocio. Al tolerar estos contenidos bajo el paraguas de interpretaciones laxas, la compañía institucionaliza una forma de desinformación blanda, sistémica, que se propaga sin disparar alarmas.
Todo esto sería menos grave si la postura de Meta no afectara directamente al espacio público digital. En un entorno donde cada vez más personas se informan, debaten y forman opinión a través de estas plataformas, lo que se tolera dice tanto como lo que se censura. La política actual, reactiva y opaca, convierte las decisiones de moderación en un ejercicio retórico más que en una defensa de la verdad. La empresa no parece interesada en impedir la difusión de lo falso, sino en poder justificar su permanencia con tecnicismos a posteriori.
Y así seguimos, esperando que alguna vez las plataformas sean algo más que intermediarios autocomplacientes. Porque no se trata solo de un vídeo manipulado sobre un político extranjero, ni de un descuido más en una red social colapsada de ruido. Se trata de qué tipo de realidad digital estamos dispuestos a aceptar. Y Meta, con sus decisiones, parece tenerlo muy claro: la verdad, si no estorba, mejor. Pero si molesta, siempre puede negociarse.
Más información
La entrada Así de poco le importa la manipulación a Meta se publicó primero en MuyComputer.

