Empezaré diciendo que, como en otras ocasiones al hablar de Meta, esta noticia tiene parte de información e, inevitablemente, una parte importante de opinión. A estas alturas, sorprenderse con Meta resulta ingenuo. Una y otra vez, la compañía que controla Facebook, Instagram y WhatsApp ha cruzado líneas éticas que en otros sectores serían impensables. Lo ha hecho manipulando información, exprimiendo los datos personales de sus usuarios o promoviendo modelos de negocio cuya prioridad no es el bienestar, sino la retención adictiva. Y ahora, otra capa más de esa opacidad estructural queda al descubierto: Meta sabía, desde hace años, que sus plataformas dañaban la salud mental de los jóvenes. No solo lo sabía, sino que lo documentó internamente… y lo ocultó.
Esto no es nuevo, ya lo habíamos contado anteriormente, pero ahora la noticia no surge de una filtración o de un reportaje periodístico aislado. Esta vez, son documentos judiciales los que apuntan directamente al corazón del escándalo. Diversos estados de EE.UU. han presentado pruebas en un proceso abierto contra la compañía que demuestran que Meta no solo era consciente de los efectos adversos de Facebook e Instagram sobre la salud mental, sino que llegó a desarrollar estudios internos —como el llamado “Project Mercury”— que confirmaban una relación causal entre el uso intensivo de sus redes y el aumento de la ansiedad, la depresión o la insatisfacción corporal, especialmente entre menores.
Entre las evidencias aportadas al tribunal se menciona que, tras semanas sin acceder a Instagram o Facebook, muchos usuarios reportaban mejoras en su salud mental. Pero Meta descartó la publicación de estos datos, alegando que no cumplían con sus estándares científicos. Una defensa que, en este contexto, suena más a excusa que a rigor. La gravedad de estos hallazgos es tal que, según los fiscales, Meta estaría incurriendo en una estrategia sistemática de ocultamiento, comparable —y no es la primera vez que se dice— a la que siguió durante décadas la industria del tabaco.
Meta, por supuesto, se ha defendido. En declaraciones a los medios, la empresa ha cuestionado la metodología de los documentos y ha reiterado que se preocupa profundamente por la seguridad de los jóvenes. Sin embargo, cuesta creer en esa preocupación cuando cada paso de la compañía parece orientado a aumentar el tiempo de exposición, la dependencia de sus plataformas y la explotación emocional del usuario. Las herramientas de bienestar digital que dice ofrecer no son más que parches cosméticos en un sistema que funciona exactamente como fue diseñado: para generar adicción.
Este nuevo episodio reabre el debate sobre la necesidad de regular con firmeza el funcionamiento de las grandes plataformas tecnológicas. Porque no se trata solo de algoritmos, sino de responsabilidad. Si una empresa es consciente de que su producto puede perjudicar la salud mental de millones de personas —especialmente de los más vulnerables— y aún así decide mirar hacia otro lado, estamos ante una negligencia de dimensiones éticas y sociales inaceptables.
Como usuarios, las opciones son limitadas, pero no inexistentes. Informarse, limitar el uso de estas redes, proteger a los menores y presionar —como ciudadanos— para exigir transparencia son pequeñas formas de resistencia ante un modelo que ha demostrado demasiadas veces que no se regula a sí mismo. Las instituciones, por su parte, tienen el deber de actuar, no solo con multas simbólicas, sino con marcos legales que impidan que los gigantes tecnológicos operen al margen de cualquier control.
Quizás algún día, mirar atrás y ver cómo se toleró durante tanto tiempo el modus operandi de Meta nos provoque la misma vergüenza que sentimos hoy al revisar los anuncios de cigarrillos en televisión con médicos sonrientes. Lo preocupante es que, a diferencia de aquellos tiempos, ahora ya lo sabemos todo. Y Meta también.
Más información
La entrada Meta vuelve a mentir: documentos internos prueban que conocía los daños de sus redes se publicó primero en MuyComputer.

