Logotipo de la Universidad Politécnica de Madrid

Multilingual Detection and Analysis of Toxic Narratives on Telegram integrating Pre-trained language models and Network Analysis

Autor: TRETIAKOV, Arsenii

Título: Multilingual Detection and Analysis of Toxic Narratives on Telegram integrating Pre-trained language models and Network Analysis

Fecha: 2026

Materia: ---

Escuela: E.T.S.I. DE SISTEMAS INFORMÁTICOS

Departamento: SISTEMAS INFORMATICOS

Acceso electrónico: https://oa.upm.es/94673/

Director/a(s):

  • Director/a: MARTÍN GARCÍA, Alejandro
  • Director/a: D´ANTONIO MACEIRAS, Sergio

Resumen: The rapid development of online social networks and alternative media platforms has transformed the way information circulates and reshaped the dynamics of public discourse. Alongside new opportunities for participation, these environments have amplified the scale and speed of toxic communication and false information. Toxic discourse, expressed through insults, threats, coded language, and dehumanizing rhetoric, has become a central concern for academia, journalism, authorities, and technology companies. In parallel, the dissemination of false information has challenged the resilience of democratic institutions and media ecosystems. In this context, the fast-growing instant messenger Telegram has become a preferred alternative and mainstream platform for political propaganda and conspiracy theories. The objective of this study is to build and validate a comprehensive framework for analyzing toxic narratives on Telegram through the integration of a multilingual toxicity classification model, topic modeling, and network analysis. Specific aims include the creation of a multilingual corpus with metadata, the development and evaluation of a transformer-based toxicity classifier across eight languages, including under-represented ones, and the adaptation of a topic modeling method for a large-scale and cross-lingual corpus with a focus on contexts such as the Russian and Ukrainian conflict and far-right movements. At the same time, validating a method for Spanish-language misinformation detection was also one of the key objectives of this study. The methodological contribution lies in the customization and further application of pre-trained language models and network science to capture how toxic narratives emerge, evolve, and spread across linguistic, national, and thematic boundaries. The findings demonstrate that toxic discourse on Telegram is event-driven, with peaks occurring around geopolitical conflicts and global crises. A fine-tuned XLM-RoBERTa model significantly outperformed baseline approaches in detecting multiple forms of toxic speech, enabling more accurate downstream analyses. Topic modelling with BERTopic and incremental learning identified salient topics such as military propaganda, pandemic discourse, and extremist narratives, showing how their prevalence shifts over time. As a result, the recognition accuracy for the key toxicity metric reached 94\%, and the topic coherence measure is 0.679. Network analysis revealed the central role of cohesive communities and cross-lingual bridges in amplifying toxic content and confirmed that diffusion patterns differ markedly across country clusters. Engagement analysis further indicated that toxic content is disproportionately likely to go viral, although this relationship varies by context. In addition, the Spanish misinformation detection pipeline proved effective in distinguishing between reliable and false news across diverse content types, highlighting the frameworks adaptability to different languages and domains. RESUMEN El rápido desarrollo de las redes sociales en línea y de las plataformas de medios alternativos ha transformado la manera en que circula la información y ha reconfigurado las dinámicas del discurso público. Junto con nuevas oportunidades de participación, estos entornos han amplificado la escala y la velocidad de la comunicación tóxica y de la desinformación. El discurso tóxico, expresado a través de insultos, amenazas, lenguaje codificado y retórica deshumanizadora, se ha convertido en una preocupación central para la academia, el periodismo, las autoridades y las empresas tecnológicas. Paralelamente, la difusión de información falsa ha puesto a prueba la resiliencia de las instituciones democráticas y de los ecosistemas mediáticos. En este contexto, el servicio de mensajería instantánea Telegram, en rápido crecimiento, se ha consolidado como una plataforma alternativa y a la vez de uso generalizado para la propaganda política y las teorías de la conspiración. El objetivo de este estudio es construir y validar un marco integral para el análisis de narrativas tóxicas en Telegram mediante la integración de un modelo multilingüe de clasificación de toxicidad, el modelado de temas y el análisis de redes. Entre los objetivos específicos destacan la creación de un corpus multilingüe con metadatos, el desarrollo y la evaluación de un clasificador de toxicidad basado en transformadores en ocho lenguas incluidas aquellas infrarepresentadas, así como la adaptación de un método de modelado de temas para grandes corpus multilingües con especial atención a contextos como el conflicto ruso-ucraniano y los movimientos de extrema derecha. Al mismo tiempo, la validación de un método para la detección de desinformación en español constituye también uno de los objetivos clave de este trabajo. La aportación metodológica reside en la personalización y posterior aplicación de modelos lingüísticos preentrenados y de la ciencia de redes con el fin de captar cómo surgen, evolucionan y se difunden las narrativas tóxicas a través de fronteras lingüísticas, nacionales y temáticas. Los resultados demuestran que el discurso tóxico en Telegram está impulsado por los acontecimientos, con picos coincidentes con conflictos geopolíticos y crisis globales. Un modelo XLM-RoBERTa ajustado superó de forma significativa a los enfoques de referencia en la detección de múltiples formas de lenguaje tóxico, lo que permitió análisis posteriores más precisos. El modelado de temas con BERTopic y aprendizaje incremental identificó tópicos relevantes como la propaganda bélica, los discursos en torno a la pandemia y las narrativas extremistas, mostrando cómo su prevalencia varía con el tiempo. Como resultado, la precisión de reconocimiento para la métrica clave de toxicidad alcanzó el 94\% y la medida de coherencia temática fue de 0,679. El análisis de redes reveló el papel central de las comunidades cohesionadas y de los puentes interlingüísticos en la amplificación de contenidos tóxicos, y confirmó que los patrones de difusión difieren de manera notable entre clústeres de países. El análisis del grado de interacción indicó además que el contenido tóxico tiende de manera desproporcionada a viralizarse, si bien esta relación varía según el contexto. Por último, la cadena de detección de desinformación en español resultó eficaz a la hora de distinguir entre noticias fiables y falsas en distintos tipos de contenido, lo que pone de relieve la capacidad de adaptación del marco propuesto a diferentes lenguas y dominios.