AccueilRechercheProgrammes et productions scientifiquesThèsesThèses soutenuesThèses soutenues - 2024
-
Partager cette page
- Recherche,
FOUCHER Marine
Appréhender les campagnes de désinformation : une approche fondée sur une mesure de leur complexité
Publié le 25 mars 2025 – Mis à jour le 26 mars 2025
Thèse en Sciences de Gestion, soutenue le 21 novembre 2024.
Résumé :
Le cyberespace est confronté à des campagnes de désinformation qui emploient une variété de tactiques, techniques et procédures (TTPs) pour atteindre leurs objectifs. Elles présentent différents niveaux de sophistication qui les rendent distinctes. Leur industrialisation est de plus en plus évoluée avec l'avènement de nouvelles technologies telles que les intelligences artificielles génératives. La recherche scientifique actuelle repose principalement sur l'analyse du narratif par traitement automatique de la langue, la modélisation des cascades de propagation, la détection de communautés et la détection de bots. La recherche des acteurs et de leur organisation n'est pas directement recherchée. Ces campagnes sont souvent mal définies ou mal classées, ce qui rend leur analyse complexe. L'objectif principal de cette étude est de définir les stratégies clés de la désinformation pour les détecter rapidement et y répondre de manière efficace. Comme toutes les stratégies, celles-ci sont mises en ?uvre au sein d'une organisation physique, ce qui soulève la question de savoir comment les déceler. Dans un contexte d'économie de l'attention et d'usage intensif des réseaux sociaux, les acteurs légitimes et malveillants partagent le trafic internet. La viralité est amplifiée par les mécanismes de l'attention, avec un plébiscite de contenu émotionnel sans prise de recul ni vérification. Cela favorise la propagation de théories du complot et de réalités alternatives, que les acteurs de la désinformation exploitent. Ces acteurs ne se révèlent pas directement, mais laissent des empreintes sur Internet, notamment dans la partie visible (cognitive), mais aussi logique et physique. Ces empreintes peuvent fournir une indication précieuse sur les organisations qui sont derrière les campagnes de désinformation. Cette recherche exploite les empreintes laissées dans le cadre de trois campagnes de désinformation. Leur analyse par traitement automatique de la langue, apprentissage machine et étude des graphes, permet d'approfondir la compréhension de leurs organisations. Cette thèse nous a permis de découvrir qu'en veillant et en analysant systématiquement le triptyque narratif-avatar-réseaux des trois études de cas, nous avons pu identifier et étudier, de manière approfondie, les différents aspects des organisations virtuelles impliquées dans la propagation de la désinformation. Les résultats de cette recherche permettent de faire le lien entre les signaux faibles, traces et indices et leur interprétation en termes de TTPs. Ils nous ont également permis de constater que la quantité de TTPs utilisés dans une campagne de désinformation ne reflète pas nécessairement sa complexité. Le résultat théorique est que la complexité de l'analyse ne peut pas être déterminée par la taille uniquement du dataset ou de la campagne de désinformation, mais par la succession de traitements algorithmiques et mathématiques à appliquer pour mieux l'appréhender. Adopter un cadre de classification basé sur la complexité d'analyse des opérations de désinformation permet d'optimiser les recherches sur les campagnes les plus complexes. Systématiser l'interprétation des analyses en termes de TTPs identifiés dans le framework DISARM en les réorganisant en seulement trois groupes offre une approche plus pratique et rapide à utiliser. Cette systématisation d'attribution à un mode opératoire, accompagnée d’une organisation fondée sur le partage d'un socle commun de connaissances permet de faire face, en conscience de situation, à ce fléau mondialement mena?ant.
Mots-clés : Campagne de désinformation ; Manipulation ; Organisation ; Réseaux sociaux ; Propagation ; Complexité ; Conscience de situation
Abstract:
The cyberspace is facing disinformation campaigns that employ a range of tactics, techniques, and procedures (TTPs) to achieve their objectives. They present varying levels of sophistication, making them distinct. Their industrialization is increasingly advanced with the emergence of new technologies such as generative artificial intelligence. Current scientific research primarily focuses on narrative analysis through automatic language processing, modeling of propagation cascades, community detection, and bot detection. However, the research on the actors and their organization is not directly addressed. These campaigns are often poorly defined or misclassified, making their analysis complex. The main objective of this study is to define the key strategies of disinformation to detect them quickly and respond effectively. As with all strategies, these are implemented within a physical organization, which raises the question of how to uncover them. In the context of an attention economy and intensive use of social networks, legitimate and malicious actors share internet traffic. Virality is amplified by attention mechanisms, with a preference for emotional content without critical thinking or verification. This favors the spread of conspiracy theories and alternative realities, which disinformation actors exploit. These actors do not reveal themselves directly, but leave traces on the internet, including in the visible (cognitive), logical, and physical aspects. These traces can provide valuable insights into the organizations behind the disinformation campaigns. This research exploits the traces left in the context of three disinformation campaigns. Their analysis through automatic language processing, machine learning, and graph study allows for a deeper understanding of their organizations. This thesis has enabled us to discover that by systematically analyzing the narrative-avatar-network triad of the three case studies, we were able to identify and study, in-depth, the different aspects of virtual organizations involved in disinformation propagation. The results of this research allow for linking weak signals, traces, and indices to their interpretation in terms of TTPs. They also enabled us to observe that the number of TTPs used in a disinformation campaign does not necessarily reflect its complexity. The theoretical result is that the complexity of the analysis cannot be determined by the size of the dataset or the disinformation campaign alone, but by the succession of algorithmic and mathematical treatments to be applied to better understand it. Adopting a classification framework based on the complexity of disinformation operation analysis allows for optimizing research on the most complex campaigns. Systematizing the interpretation of analyses in terms of identified TTPs, reorganized into only three groups, offers a more practical and rapid approach to use. This systematization of attribution to a modus operandi, accompanied by an organization based on the sharing of a common knowledge base, enables us to counter this globally threatening scourge, with situational awareness.
Keywords: Disinformation campaign; Manipulation; Virtual organizations; Social networks; Spreading; Complexity; Situation awareness
Directeur de thèse : M. Jean-Fabrice LEBRATY
Membres du jury :
Présidente du jury : Mme Marie-Christine CHALUS-SAUVANNET
Le cyberespace est confronté à des campagnes de désinformation qui emploient une variété de tactiques, techniques et procédures (TTPs) pour atteindre leurs objectifs. Elles présentent différents niveaux de sophistication qui les rendent distinctes. Leur industrialisation est de plus en plus évoluée avec l'avènement de nouvelles technologies telles que les intelligences artificielles génératives. La recherche scientifique actuelle repose principalement sur l'analyse du narratif par traitement automatique de la langue, la modélisation des cascades de propagation, la détection de communautés et la détection de bots. La recherche des acteurs et de leur organisation n'est pas directement recherchée. Ces campagnes sont souvent mal définies ou mal classées, ce qui rend leur analyse complexe. L'objectif principal de cette étude est de définir les stratégies clés de la désinformation pour les détecter rapidement et y répondre de manière efficace. Comme toutes les stratégies, celles-ci sont mises en ?uvre au sein d'une organisation physique, ce qui soulève la question de savoir comment les déceler. Dans un contexte d'économie de l'attention et d'usage intensif des réseaux sociaux, les acteurs légitimes et malveillants partagent le trafic internet. La viralité est amplifiée par les mécanismes de l'attention, avec un plébiscite de contenu émotionnel sans prise de recul ni vérification. Cela favorise la propagation de théories du complot et de réalités alternatives, que les acteurs de la désinformation exploitent. Ces acteurs ne se révèlent pas directement, mais laissent des empreintes sur Internet, notamment dans la partie visible (cognitive), mais aussi logique et physique. Ces empreintes peuvent fournir une indication précieuse sur les organisations qui sont derrière les campagnes de désinformation. Cette recherche exploite les empreintes laissées dans le cadre de trois campagnes de désinformation. Leur analyse par traitement automatique de la langue, apprentissage machine et étude des graphes, permet d'approfondir la compréhension de leurs organisations. Cette thèse nous a permis de découvrir qu'en veillant et en analysant systématiquement le triptyque narratif-avatar-réseaux des trois études de cas, nous avons pu identifier et étudier, de manière approfondie, les différents aspects des organisations virtuelles impliquées dans la propagation de la désinformation. Les résultats de cette recherche permettent de faire le lien entre les signaux faibles, traces et indices et leur interprétation en termes de TTPs. Ils nous ont également permis de constater que la quantité de TTPs utilisés dans une campagne de désinformation ne reflète pas nécessairement sa complexité. Le résultat théorique est que la complexité de l'analyse ne peut pas être déterminée par la taille uniquement du dataset ou de la campagne de désinformation, mais par la succession de traitements algorithmiques et mathématiques à appliquer pour mieux l'appréhender. Adopter un cadre de classification basé sur la complexité d'analyse des opérations de désinformation permet d'optimiser les recherches sur les campagnes les plus complexes. Systématiser l'interprétation des analyses en termes de TTPs identifiés dans le framework DISARM en les réorganisant en seulement trois groupes offre une approche plus pratique et rapide à utiliser. Cette systématisation d'attribution à un mode opératoire, accompagnée d’une organisation fondée sur le partage d'un socle commun de connaissances permet de faire face, en conscience de situation, à ce fléau mondialement mena?ant.
Mots-clés : Campagne de désinformation ; Manipulation ; Organisation ; Réseaux sociaux ; Propagation ; Complexité ; Conscience de situation
Abstract:
The cyberspace is facing disinformation campaigns that employ a range of tactics, techniques, and procedures (TTPs) to achieve their objectives. They present varying levels of sophistication, making them distinct. Their industrialization is increasingly advanced with the emergence of new technologies such as generative artificial intelligence. Current scientific research primarily focuses on narrative analysis through automatic language processing, modeling of propagation cascades, community detection, and bot detection. However, the research on the actors and their organization is not directly addressed. These campaigns are often poorly defined or misclassified, making their analysis complex. The main objective of this study is to define the key strategies of disinformation to detect them quickly and respond effectively. As with all strategies, these are implemented within a physical organization, which raises the question of how to uncover them. In the context of an attention economy and intensive use of social networks, legitimate and malicious actors share internet traffic. Virality is amplified by attention mechanisms, with a preference for emotional content without critical thinking or verification. This favors the spread of conspiracy theories and alternative realities, which disinformation actors exploit. These actors do not reveal themselves directly, but leave traces on the internet, including in the visible (cognitive), logical, and physical aspects. These traces can provide valuable insights into the organizations behind the disinformation campaigns. This research exploits the traces left in the context of three disinformation campaigns. Their analysis through automatic language processing, machine learning, and graph study allows for a deeper understanding of their organizations. This thesis has enabled us to discover that by systematically analyzing the narrative-avatar-network triad of the three case studies, we were able to identify and study, in-depth, the different aspects of virtual organizations involved in disinformation propagation. The results of this research allow for linking weak signals, traces, and indices to their interpretation in terms of TTPs. They also enabled us to observe that the number of TTPs used in a disinformation campaign does not necessarily reflect its complexity. The theoretical result is that the complexity of the analysis cannot be determined by the size of the dataset or the disinformation campaign alone, but by the succession of algorithmic and mathematical treatments to be applied to better understand it. Adopting a classification framework based on the complexity of disinformation operation analysis allows for optimizing research on the most complex campaigns. Systematizing the interpretation of analyses in terms of identified TTPs, reorganized into only three groups, offers a more practical and rapid approach to use. This systematization of attribution to a modus operandi, accompanied by an organization based on the sharing of a common knowledge base, enables us to counter this globally threatening scourge, with situational awareness.
Keywords: Disinformation campaign; Manipulation; Virtual organizations; Social networks; Spreading; Complexity; Situation awareness
Directeur de thèse : M. Jean-Fabrice LEBRATY
Membres du jury :
- M. Jean-Fabrice LEBRATY, Professeur des universités, Université Jean Moulin Lyon 3 - Directeur de thèse
- M. Ivan PASTORELLI, Ma?tre de conférences habilité à diriger des recherches, Université C?te d'Azur - Rapporteur
- Mme Cécile GOD?, Professeure habilitée à diriger des recherches, Centre d’?tudes et de Recherche en Gestion Université Aix-Marseille AMU - Rapporteure
- Mme Guilaine TALENS, Ma?tresse de conférences habilitée à diriger des recherches, Systèmes d’Information Laboratoire Magellan Université Jean Moulin Lyon 3 - Examinatrice
- M. Bertrand BOYER, Colonel dans l'armée de terre, Ministère des Armées, Paris - Examinateur
- Mme Marie-Christine CHALUS-SAUVANNET, Professeur des universités, iaelyon School of Management, Université Jean Moulin Lyon 3 - Présidente de jury
Présidente du jury : Mme Marie-Christine CHALUS-SAUVANNET
Documentation
Mise à jour : 26 mars 2025