Por motivos que no vienen al caso, y que evidentemente no se relacionan con lo que vamos a abordar en este artículo, empleo Telegram de manera diaria. Y no, no es excusatio non petita, es que creo pertinente empezar aclarando que soy usuario convencido de este servicio, y que reconozco que tiene bastantes puntos que lo hacen recomendable… aunque no es menos cierto que, de un tiempo a esta parte, también hemos sabido que, al menos parte de su prestigio, quizá no es tan merecido como pensábamos, y que tiene más de opaco y menos de privado de lo que pensábamos.
Digo esto porque, como vamos a ver a continuación, Telegram se ha convertido en el refugio perfecto para una cantidad considerable de miserables malnacidos, de despojos infrahumanos, de escoria que no merece ni el aire que respira (y créeme cuando te digo que solo estar escribiendo aquí, y no en un blog personal, me impide emplear palabras muchísimo más gruesas), que crean, recopilan, distribuyen e incluso monetizan el abuso digital contra mujeres y niñas. Sí, también menores.
Esto, de manera genérica, no debería sorprender a nadie, pues es un secreto a voces. Lo verdaderamente interesante es que, por fin, podemos cuantificarlo, y además con información específica sobre España, gracias al excepcional trabajo llevado a cabo por AI Forensics, que acaban de publicar un estudio en el que revelan todo lo que han averiguado tras una investigación que no puede dejar indiferente a cualquier persona con dos dedos de frente y un mínimo de decencia.
Tras la intuición —o más bien la sospecha— de que Telegram se ha convertido en un nodo central para este tipo de prácticas, el equipo de AI Forensics decidió comprobar hasta qué punto esa percepción respondía a la realidad. Para ello llevó a cabo un análisis sistemático de comunidades dedicadas a la difusión de material íntimo sin consentimiento y otras formas de violencia digital contra mujeres. El resultado es un estudio exhaustivo que permite observar con bastante precisión cómo funcionan estas redes, qué volumen de actividad generan y de qué manera Telegram actúa como infraestructura que facilita su organización, expansión y, en muchos casos, también su monetización.
Un ecosistema de abuso a gran escala
El estudio de AI Forensics permite poner cifras concretas a un fenómeno que hasta ahora se intuía, pero que rara vez se había analizado con este nivel de detalle. Durante seis semanas, los investigadores examinaron la actividad de 16 comunidades de Telegram —ocho italianas y ocho españolas— dedicadas a la difusión de material íntimo sin consentimiento y otras formas de violencia digital. En ese breve periodo de tiempo recopilaron 2.788.751 mensajes, identificaron 24.671 usuarios activos y contabilizaron 82.723 archivos multimedia compartidos, entre imágenes, vídeos y otros contenidos.
Las cifras son suficientemente elocuentes por sí solas. Algunos de los grupos analizados alcanzaban decenas de miles de miembros, con comunidades que superaban los 25.000 usuarios en España y los 27.000 en Italia. Aunque no todos los participantes publicaban contenido activamente —una parte importante se limita a consumirlo—, el volumen de actividad registrado deja claro que no se trata de pequeños círculos marginales. Lo que aparece aquí es una red extensa de comunidades interconectadas, capaces de generar y redistribuir material de manera constante.
Además, el estudio muestra que el intercambio de contenido no responde únicamente a dinámicas caóticas o espontáneas. En muchos de estos grupos existe una estructura de participación bastante definida: usuarios que aportan material, otros que lo solicitan, administradores que organizan los canales y moderan la actividad, y una gran masa de participantes pasivos que observan sin intervenir. Este patrón sugiere que estamos ante entornos sociales relativamente estables, donde la circulación de contenido se convierte en una forma de interacción entre los miembros de la comunidad.
Todo ello configura un ecosistema de gran escala en el que la difusión de material íntimo sin consentimiento convive con otras formas de violencia digital, desde el acoso coordinado hasta el uso de herramientas para manipular imágenes o difundir datos personales de las víctimas. El resultado es un entorno donde el abuso no aparece como un hecho aislado, sino como una práctica normalizada dentro de determinadas comunidades online, capaces de mantener una actividad constante y de atraer nuevos participantes con relativa facilidad.
Telegram como infraestructura del sistema
Una de las principales conclusiones del estudio es que Telegram no aparece simplemente como el lugar donde se comparte este tipo de material, sino como la infraestructura que permite organizar y sostener este ecosistema. La propia arquitectura de la plataforma facilita la creación de comunidades muy amplias y difíciles de supervisar. Telegram permite grupos de hasta 200.000 miembros y canales con audiencias potencialmente ilimitadas, lo que convierte al servicio en un entorno especialmente adecuado para la difusión masiva de contenido dentro de redes relativamente cerradas.
A estas capacidades se suma la posibilidad de operar mediante identidades pseudónimas y con un nivel de privacidad elevado, algo que, aunque responde al objetivo legítimo de proteger la comunicación de los usuarios, también genera un entorno en el que resulta más sencillo participar en actividades ilícitas con una sensación de anonimato e impunidad. En la práctica, muchos de los grupos analizados funcionan como auténticos nodos de distribución, desde los que se comparten archivos, enlaces a otras comunidades o invitaciones a nuevos canales donde continúa la circulación del material.
El estudio también destaca que algunos de estos canales operan principalmente como centros de redistribución, donde un administrador publica contenido de manera continua para miles de suscriptores. En lugar de conversaciones extensas entre los participantes, estos espacios funcionan más bien como repositorios y escaparates desde los que se difunden imágenes y vídeos que luego se propagan hacia otros grupos o hacia conversaciones privadas entre usuarios. De este modo, Telegram actúa como una capa organizativa que facilita la circulación constante de material dentro de una red mucho más amplia.
Esta dinámica es precisamente la que lleva a los autores del informe a hablar de Telegram como una infraestructura del abuso digital. No se trata únicamente de que el contenido se publique en la plataforma, sino de que sus características técnicas —la facilidad para crear comunidades masivas, la rapidez para compartir archivos y la estructura de grupos y canales interconectados— permiten que estas redes se organicen, se expandan y se mantengan activas incluso cuando algunos de sus nodos desaparecen o son cerrados.
Un fenómeno que nace fuera de Telegram
Aunque Telegram aparece en el estudio como el epicentro de estas redes, los investigadores subrayan que gran parte del material que circula por ellas no se origina dentro de la plataforma. En muchos casos procede de otros servicios digitales, especialmente redes sociales donde las víctimas publican fotografías o vídeos que posteriormente son capturados, manipulados o redistribuidos sin su consentimiento. El análisis de los mensajes revela que Telegram actúa, en gran medida, como un archivo y centro de redistribución de contenido que ha sido obtenido previamente en otros espacios de Internet.
Entre las plataformas más citadas dentro de las conversaciones analizadas destaca especialmente TikTok, mencionada más de 19.600 veces en el conjunto del dataset. Instagram también aparece con frecuencia —más de 2.100 menciones—, a menudo acompañada de enlaces directos a perfiles personales o capturas de conversaciones privadas. En menor medida, los investigadores detectaron referencias a otras aplicaciones como Snapchat u OnlyFans, cuyos contenidos son igualmente recopilados y redistribuidos dentro de estos grupos.
Esta dinámica revela un ecosistema claramente multiplataforma. Las redes sociales funcionan como espacios donde los agresores identifican posibles objetivos y obtienen material, mientras que Telegram se convierte en el lugar donde ese contenido se organiza, se almacena y se difunde a gran escala. El estudio también señala el papel de otras plataformas, como Reddit, donde se comparten enlaces de invitación que sirven para atraer nuevos participantes hacia estas comunidades. De este modo, diferentes servicios digitales acaban conectados dentro de una cadena de circulación del contenido que permite que el material se desplace rápidamente entre múltiples entornos online.
El resultado es un sistema en el que la frontera entre plataformas se difumina. Un vídeo publicado inicialmente en una red social puede terminar siendo redistribuido, manipulado o comentado en grupos de Telegram que reúnen a miles de usuarios. Este flujo constante de contenido entre servicios distintos explica por qué los investigadores insisten en que el problema no puede entenderse únicamente como una cuestión de moderación en una plataforma concreta, sino como parte de un ecosistema digital más amplio donde diferentes herramientas y servicios interactúan entre sí.
Bots, inteligencia artificial y automatización
Otro de los aspectos que más llama la atención en el estudio es el papel creciente que juegan las herramientas automatizadas dentro de estas comunidades. En los casi tres millones de mensajes analizados, la palabra “bot” aparece más de 16.000 veces, una cifra que da una idea bastante clara del peso que tienen estos sistemas dentro del funcionamiento cotidiano de los grupos. Los bots no solo facilitan la gestión de las comunidades, sino que también permiten automatizar muchas de las actividades relacionadas con la difusión y producción de contenido abusivo.
En algunos casos, estos bots se utilizan para tareas aparentemente administrativas, como generar enlaces de invitación, difundir mensajes a nuevos miembros o moderar la actividad dentro de los grupos. Sin embargo, el estudio también identifica herramientas mucho más problemáticas, diseñadas específicamente para facilitar prácticas de abuso digital. Entre ellas se encuentran bots capaces de generar imágenes sexuales a partir de fotografías normales —las conocidas herramientas de “nudificación”—, servicios para crear deepfakes sexuales o aplicaciones que prometen acceder a datos personales, cuentas o dispositivos de las víctimas.
El uso de este tipo de herramientas tiene una consecuencia evidente: reduce enormemente la barrera técnica para participar en estas prácticas. Lo que hace unos años requería conocimientos específicos o herramientas relativamente complejas puede hoy realizarse con unos pocos comandos dentro de un chat. Esta automatización permite que la producción y distribución de contenido abusivo se realice a mayor escala y con mayor rapidez, multiplicando el volumen de material que circula dentro de estas redes.
Además, los investigadores señalan que estas herramientas tecnológicas no solo amplifican el fenómeno, sino que contribuyen a su normalización dentro de determinados entornos online. Cuando el acceso a bots, archivos o herramientas de manipulación se integra en la dinámica cotidiana de los grupos, el abuso digital deja de presentarse como un comportamiento excepcional y pasa a formar parte del funcionamiento habitual de la comunidad. De este modo, la tecnología no solo facilita la expansión del problema, sino que también ayuda a consolidar las prácticas que lo sostienen.
España dentro de este ecosistema
El análisis específico del contexto español muestra algunas dinámicas particulares dentro de este ecosistema. Los grupos identificados por los investigadores tienden a ser algo más pequeños que los italianos —aunque uno de ellos llegó a reunir alrededor de 25.000 usuarios—, pero presentan niveles de actividad notablemente elevados. En total, el estudio registró 19.102 mensajes en los grupos españoles durante el periodo de observación, junto con aproximadamente 10.000 archivos multimedia compartidos, una cifra que da una idea bastante clara del ritmo al que circula este tipo de contenido.
De hecho, en varios de los grupos analizados —algunos con apenas entre 800 y 1.000 miembros— los investigadores observaron que se compartían decenas de imágenes abusivas cada hora, generando un flujo prácticamente constante de material acompañado de peticiones de más contenido. Este ritmo de publicación convierte los propios chats en espacios donde el intercambio se produce de manera abierta y continua, muy lejos de la idea de pequeños círculos cerrados que ocasionalmente comparten contenido.
Uno de los rasgos más llamativos detectados en estos grupos españoles es la existencia de reglas internas que regulan la forma en que los usuarios deben participar. En varios casos se prohíbe explícitamente trasladar el intercambio de material a conversaciones privadas: los miembros deben compartirlo directamente dentro del grupo para que todos puedan verlo. Los usuarios que no contribuyen con contenido o que intentan mover las conversaciones a mensajes privados pueden recibir advertencias o incluso ser expulsados, lo que convierte la aportación constante de material en una especie de requisito implícito para formar parte de la comunidad.
La monetización del abuso
Uno de los aspectos más inquietantes que revela el estudio es que estas comunidades no se limitan a compartir material de forma informal. En muchos casos, el intercambio de contenido íntimo sin consentimiento ha evolucionado hacia una economía informal organizada, donde determinados usuarios obtienen beneficios económicos a partir de la explotación de ese material. Lo que en apariencia puede parecer una red caótica de grupos y chats funciona, en realidad, como un sistema donde archivos, herramientas y accesos a determinadas comunidades se ofrecen a cambio de dinero.
Según documenta el informe, una práctica habitual consiste en vender acceso a archivos privados que recopilan grandes colecciones de imágenes y vídeos íntimos obtenidos sin consentimiento. Estos archivos suelen ofrecerse mediante pagos únicos que, en muchos casos, oscilan entre los 20 y los 50 euros por acceso permanente. En otros casos, el modelo se basa en suscripciones periódicas: algunos canales privados cobran cuotas mensuales —a partir de unos cinco euros al mes— para acceder de manera continuada a nuevos contenidos o a repositorios que se actualizan regularmente.
Los pagos, además, se organizan mediante sistemas relativamente sencillos y ampliamente disponibles, desde PayPal hasta criptomonedas o servicios de pago móvil como Bizum, lo que facilita que estas transacciones se realicen con rapidez y con un cierto grado de anonimato. El resultado es la aparición de un auténtico mercado del abuso de mujeres, donde algunos usuarios no solo consumen o comparten contenido abusivo, sino que también actúan como intermediarios o proveedores de material dentro de estas redes.
Todo ello refuerza una de las conclusiones centrales del informe: el abuso digital que circula en estas comunidades no es simplemente el resultado de comportamientos individuales aislados, sino que en muchos casos se articula alrededor de infraestructuras, herramientas automatizadas y dinámicas económicas que permiten escalarlo y mantenerlo activo en el tiempo.
Mucho más que un problema de moderación… pero también un problema de moderación
A lo largo de este análisis queda claro que lo que ocurre en estas comunidades va mucho más allá de unos cuantos usuarios compartiendo contenido de forma aislada. Lo que aparece al observar estos grupos con cierta perspectiva es un ecosistema relativamente estructurado, donde distintas piezas —bots, archivos, canales, herramientas de inteligencia artificial y sistemas de pago— se combinan para sostener y amplificar distintas formas de violencia digital contra mujeres y niñas.
En ese sistema, Telegram ocupa un papel especialmente relevante. No necesariamente como origen del contenido, pero sí como infraestructura que permite organizarlo, redistribuirlo y mantenerlo accesible dentro de redes de miles de usuarios. Su arquitectura —capaz de alojar comunidades masivas, facilitar la circulación de archivos y conectar grupos, canales y bots— crea un entorno donde estas dinámicas pueden desarrollarse y mantenerse activas con relativa facilidad.
El propio estudio deja claro que el fenómeno no puede entenderse únicamente como un problema de una sola plataforma. El material se origina en redes sociales, se captura o manipula con herramientas externas, se redistribuye en distintos servicios y acaba concentrándose en espacios donde resulta más sencillo almacenarlo, organizarlo y compartirlo a gran escala. Es, en definitiva, un ecosistema multiplataforma.
Pero reconocer esa realidad no debería servir como excusa para diluir responsabilidades. Cuando una plataforma se convierte, de facto, en el nodo central donde miles de usuarios pueden organizar comunidades dedicadas a recopilar, manipular, redistribuir e incluso vender material íntimo sin consentimiento, la cuestión deja de ser únicamente el comportamiento de determinados individuos. Pasa a ser también una cuestión de infraestructura digital y de responsabilidad de la propia plataforma.
Telegram, como cualquier otro servicio digital, no puede controlar todo lo que ocurre dentro de su red. Pero sí puede decidir hasta qué punto está dispuesto a tolerar que su infraestructura se utilice de forma sistemática para sostener redes de abuso como las que describe este informe. Llegados a este punto, la plataforma tiene dos opciones: abordar el problema con medidas contundentes y sostenidas en el tiempo, o aceptar que está formando parte de él.
La entrada Telegram: infraestructura y epicentro del abuso digital se publicó primero en MuyComputer.


