La Russie et la Chine, dans une logique de compétition agressive, déploient à grande échelle des stratégies hybrides et profitent de la numérisation généralisée pour fragiliser nos sociétés en manipulant l’information. Si le danger des Ingérences numériques étrangères (INE) a longtemps été sous-estimé par la France, l’organisation interministérielle désormais en place permet de parer les coups. Le niveau de menace nécessite cependant de commencer au plus tôt des réponses de temps long coordonnées par une stratégie nationale d’influence qui encadrera notamment la contre-offensive informationnelle et par une stratégie de lutte contre la désinformation afin de définir la posture défensive des différents ministères.
Face à l’ingérence numérique étrangère, une réponse désormais opérationnelle mais deux stratégies à formaliser
« Flood the zone with shit. » Steeve Banon (Interview par le journaliste Michael Lewis, 2018)
L’environnement stratégique global se caractérise par le retour du rapport de force comme mode de fonctionnement normal des relations internationales dans une logique de contestation des règles communément admises. Dans ce contexte, les limites entre guerre et paix sont de plus en plus floues et ont été progressivement remplacées par l’intrication des états de compétition, de contestation et d’affrontement. Les stratégies hybrides conduites par la Russie et la Chine visent à créer de l’ambiguïté, en particulier par des actions dans le champ informationnel qui permettent d’atteindre directement les esprits de la population des démocraties libérales.
Profitant de la révolution numérique, nos adversaires diffusent massivement et délibérément des contenus manifestement inexacts ou trompeurs pour engendrer de la confusion entre le vrai et le faux, exploiter les tensions et fragmentations internes aux sociétés occidentales et saper la confiance dans les institutions. Le caractère dissimulé et polarisant de ces Ingérences numériques étrangères (INE) « les distingue nettement des stratégies d’influence, lesquelles reposent sur la conviction et la séduction (1) ».
Après des décennies de guerres « choisies », les démocraties libérales peinent à s’adapter à la guerre hybride, affrontement subit dont les règles sont déterminées par ceux qui œuvrent à la désoccidentalisation du monde. Cependant, alors que la guerre informationnelle « structurera de plus en plus les antagonismes (2) », la France et ses alliés doivent s’y préparer en concevant des stratégies multi-domaines de long terme pour encadrer les réponses de court terme, dont certaines sont désormais opérationnelles.
La lutte informationnelle, une arme désormais au service de la contestation de l’ordre mondial ancien
L’information au service de la puissance
1990-2010 : refus du modèle démocratique
Les États-Unis, vainqueurs de la guerre froide, démontrent durant la guerre du Golfe leur domination informationnelle et leur capacité à imposer au monde leurs contenus médiatiques. La supériorité américaine dans les technologies de l’information doit notamment permettre la diffusion à l’échelle planétaire du modèle démocratique et libéral, en particulier vers la Russie et la Chine désormais réintégrées dans le concert des nations.
Les dirigeants russes et chinois perçoivent cette influence des médias occidentaux comme une menace existentielle pour leur régime ou leur indépendance stratégique. Ils bâtissent donc une « muraille numérique (3) » afin de contrôler l’information accessible par leurs populations. À partir de 2003, le président russe Vladimir Poutine est convaincu que les « révolutions de couleurs » puis les Printemps arabes ont été inspirés et soutenus par les Occidentaux. Il va donc simultanément poursuivre un agenda révisionniste des relations internationales (intervention en Géorgie en 2008) et déployer une stratégie d’influence basée sur un Soft Power qui s’exerce notamment dans le champ informationnel pour développer un narratif « alternatif » aux médias occidentaux perçus comme uniformément hostiles à la Russie. La chaîne Russia Today est ainsi lancée en 2005 pour promouvoir l’image de la Russie au-delà de ses frontières et appuyer la diffusion des narratifs officiels russes.
L’information est alors considérée comme un outil de puissance géopolitique, servant à la fois à fortifier l’autorité intérieure et à contrer l’influence occidentale sur la scène internationale.
Depuis 2011 : contestation de l’« Occident collectif (4) »
Le professeur David Colon estime (5) que la dénonciation par Hillary Clinton, alors Secrétaire d’État des États-Unis, de « fraudes et de manipulations électorales » lors des élections législatives russes de 2011, constitue un point de bascule à partir duquel Vladimir Poutine n’aura de cesse que de tenter d’accélérer la « décomposition des sociétés démocratiques ». Dans ce contexte de dérive du régime vers l’autoritarisme et de confrontation de plus en plus directe avec les pays occidentaux, des manœuvres d’ingérence sont lancées grâce à l’actualisation des « mesures actives » mises en œuvre par les services de renseignement héritiers de la période soviétique. Le Kremlin poursuit une stratégie de long terme qui vise à affaiblir les démocraties libérales par la fragmentation de leurs populations, le renforcement de la défiance envers les institutions et l’affaiblissement du régime de vérité. L’objectif n’est plus de convaincre du bien-fondé d’une idéologie (comme à l’époque de l’URSS) ou d’une vérité alternative, mais de remettre en cause la notion de vérité objective pour semer le doute et la confusion.
Autrefois, l’influence chinoise basée sur le Soft Power visait à séduire, subjuguer, orienter les débats intellectuels sur la Chine. Depuis 2018, considérant la puissance américaine et le modèle occidental en déclin, Pékin estime que le moment chinois est venu. Le Parti communiste chinois (PCC) s’est ainsi engagé dans une logique d’exercice de sa pleine puissance et de rivalité assumée avec les démocraties pour la conquête du leadership mondial. Dans ce contexte, les manœuvres informationnelles de l’Armée populaire de libération (APL) et de la Ligue des jeunesses communistes chinoises (CYLC) se « russianisent » pour infiltrer et contraindre (6).
L’accélération de la compétition stratégique dans une logique de « désoccidentalisation du monde », les agendas révisionnistes et les opportunismes militaires des « empires contrariés » (7) forment un contexte propice aux modes d’action hybrides dont les ingérences sont l’expression naturelle. L’information est désormais employée, non seulement comme un instrument de souveraineté nationale, mais également comme une arme au service d’une stratégie résolument offensive.
Déstabiliser les démocraties par l’instrumentalisation du champ informationnel
Procédés de manipulation informationnelle
Les démocraties libérales reposent sur le débat contradictoire et éclairé des idées grâce aux libertés d’expression et d’information. La confiance des citoyens dans l’objectivité, la transparence et la véracité des informations qui leur sont données est essentielle. Si l’information est manipulée, la société ne peut fonctionner : la confiance dans les institutions se dégrade et les populations se polarisent.
Les INE ne cherchent donc pas tant à convaincre qu’à faire douter les démocraties. Les manœuvres informationnelles vont dès lors influencer et conditionner les perceptions des populations ciblées par l’insertion de narratifs dans la chaîne de production de l’information. Afin de semer la confusion, des faits existants sont instrumentalisés et des faux récits créés pour disqualifier la vérité sans rien imposer en retour (post-vérité) et propager rapidement et largement un mélange d’informations à la fois exactes et inexactes sur un sujet (infodémie (8)).
Les stratégies d’affaiblissement des démocraties poursuivies par la Russie et la Chine sont des stratégies de temps long. Les INE accentuent les fragilités existantes, polarisent les opinions, amplifient les identités des différents groupes (9) pour orienter les votes, encourager les actions revendicatives, voire violentes, ou plus indirectement pousser les gouvernants à adopter une conduite liberticide qui approfondira les divisions. Elles doivent pour cela saisir toutes opportunités que l’actualité ne manque pas de leur offrir (10). Les narratifs sont donc planifiés ou produits en réaction. Ainsi, la Commission spéciale sur l’ingérence étrangère du Parlement européen (INGE2), a identifié et étudié 750 INE déclenchées en 2023 contre les intérêts européens (11).
Pour amplifier la visibilité du narratif et renforcer l’illusion d’authenticité (« blanchiment » de l’information) qui permet aux cibles de s’approprier le message et de s’en faire les relais, les campagnes de désinformation s’étendent de façon coordonnée sur tout le spectre, de l’assumé au non-revendicable :
• Acteurs étatiques :
– Médias d’État transnationaux : CGTN, Xinhua (chinois), Russia Today et Sputnik (russes).
– Acteurs de la diplomatie numérique : Alexander Makogonov, porte-parole ambassade de la Russie en France.
• Acteurs non-officiels mais agissant pour le compte d’un État :
– Médias : pravda-fr, chaîne Telegram @ActualitéInternationale, African Initiative.
– Prestataires d’influence : israélien Team Jorge ou russes TigerWeb, ASP (Social Design Agency en russe), Struktura (12).
– Forum : 4 Chan, Foundation to battle Injustice fondée par l’oligarque russe Evgueni Prigojine.
– Influenceurs : Xavier Moreau chroniqueur à Russia Today.
– Journalistes : Olesya Orlenda (Monde Diplomatique et L’Humanité).
– Fermes de contenus rétribuées pour publier (Kan Watch), bots (comptes tenus par des IA afin de diffuser rapidement et en masse des fausses informations), trolls (individus réels regroupés en usine à trolls comme l’Internet Research Agency [IRA] de Prigojine qui commentent pour le compte d’un État afin de semer la discorde parmi les utilisateurs de la plateforme).
• Acteurs tiers qui relaient les narratifs adverses par convergence idéologique :
– Médias « alternatifs » : Omerta, Livre Noir, Égalité & Réconciliation.
– Agence de presse : Donbass Insiders.
– Mouvements conspirationnistes : QAnon (États-Unis).
– Influenceurs : le Franco-Béninois Kémi Seba, l’Américain Tucker Carlson.
– Hommes politiques « anti-systèmes » : Florian Philippot et François Asselineau.
L’efficacité d’une INE reste cependant difficile à évaluer, le nombre de personnes atteintes permettant de mesurer la diffusion du message et non son effet.
Opportunités exploitées par les campagnes de manipulation de l’information
L’essor des technologies numériques a permis d’agir plus efficacement dans le champ des perceptions. En effet, 60 % de la population mondiale est active sur les réseaux sociaux qui fonctionnent horizontalement : tous les utilisateurs d’Internet peuvent ainsi diffuser de l’information (phénomène d’information en cascade) et, inversement, être ciblés par les médias sociaux et les plateformes en ligne. Chaque jour, 1 milliard d’heures de vidéos sont visionnées sur YouTube (13).
L’information sur les plateformes est pré-éditorialisée par des algorithmes qui profilent les utilisateurs afin d’appliquer une logique incitatrice visant à manipuler leurs comportements pour une meilleure intégration dans le système et ainsi générer des revenus publicitaires. En 2018, Neal Mohan, PDG de YouTube, estimait que 70 % des vidéos de cette plateforme regardées étaient recommandées par l’algorithme (14). Par construction (15), les algorithmes favorisent les INE :
• L’utilisateur est enfermé dans « une arène cognitive » dans laquelle ses certitudes se confirment et peuvent se radicaliser progressivement (16).
• Les contenus les plus divertissant ou scandaleux sont favorisés au détriment des plus nuancés et équilibrés. Ainsi, Facebook favorise algorithmiquement les messages incitant à la colère plutôt que ceux exprimant la tempérance et l’approbation (17).
• Les contenus bénéficiant du plus de likes ou de partages sont mis en avant sans prise en compte de la compétence de l’auteur. De fausses informations amplifiées par des bots peuvent ainsi se propager de façon virale.
Les campagnes d’INE, en particulier chinoises, utilisent depuis 2017 des logiciels d’Intelligence artificielle (IA) pour industrialiser la désinformation : production de contenus (dont deepfakes), création de médias, ouverture et animation massives de comptes sur des réseaux sociaux pour amplifier artificiellement des récits (astroturfing). Si les contenus générés par IA sont pour l’instant de qualité variable, la rapidité avec laquelle évolue cette technologie laisse présager que dans les prochaines années l’IA permettra de « micro-cibler » en créant des messages calibrés pour chaque individu visé. L’IA proposera rapidement et à bas coût des récits adaptés au contexte social, religieux et culturel. Dès à présent, elle participe à la confusion recherchée par la désinformation puisque de vraies informations sont désormais considérées comme deepfake.
Les pays occidentaux et la France en particulier traversent une crise épistémologique qui augmente la crédulité des populations. La désinformation a, en effet, plus de prise sur une population postmoderne tentée par le relativisme, peu habituée à raisonner de façon cartésienne et manquant de culture générale. Dans la plupart des démocraties européennes, la confiance dans les institutions présente d’inquiétants signes de fragilité. Défiance de l’opinion à l’égard des élus, « grève du vote », voire remise en cause des valeurs démocratiques et libérales minent la démocratie alors que les revendications individualistes ont pris le pas sur la recherche du bien commun. Les INE ciblent donc particulièrement les débats pré-électoraux pour approfondir cette crise de confiance dans les institutions et renforcer les polarisations politiques. Cette défiance touchant également les médias traditionnels (presse écrite, télévision), les sources « alternatives », pourtant moins fiables, sont devenues les principales sources d’information.
Enfin, les théories du complot que les INE propagent et amplifient, prospèrent sous l’effet de conditions sociales instables et de l’incertitude. David Chavalarias, chercheur au CNRS, a observé que de nombreux comptes « antivax » créés lors de la pandémie de Covid-19 ont par la suite défendu des théories « climato-sceptiques » puis ont justifié l’invasion de l’Ukraine par la Russie (18).
Les techniques de désinformation employées aujourd’hui s’enracinent dans des pratiques bien antérieures à l’ère numérique (19). La numérisation et l’explosion des réseaux sociaux ont permis d’en amplifier la portée ou de cibler certaines communautés par la diffusion de narratifs cohérents avec leurs valeurs et leurs croyances. Les INE exploitent enfin certaines « failles cognitives » pour modifier la conscience de la réalité (vérité illusoire, loi de Brandolini, effet de valence émotionnelle, biais de confirmation…).
Une réponse désormais opérationnelle
Une menace désormais considérée comme majeure
Si les pays baltes et d’Europe centrale ont été confrontés aux stratégies hybrides russes dès 2007 (cyberattaques en Estonie), l’Europe de l’Ouest n’a, par naïveté et déni, commencé à prendre conscience du danger qu’à partir de 2014. En France, il aura fallu être confronté aux campagnes anti-françaises massives en Afrique (République centrafricaine et Sahel) et à la guerre en Ukraine pour lever dans l’opinion publique les dernières retenues ou autocensures vis-à-vis du caractère malveillant des ingérences russes.
De nombreux sommets internationaux récemment organisés insistent sur la nécessité de mieux prendre en compte la menace informationnelle. Ainsi, durant le 54e Forum économique mondial en janvier 2024 à Davos, la désinformation a été considérée comme la menace majeure à court terme (20). À Vilnius en juillet 2023, l’Otan a dénoncé les « vastes campagnes de désinformation » russes et les « activités de désinformation chinoises qui prennent les alliés pour cible ». Dans sa Boussole stratégique, adoptée en mars 2022, l’UE dénonce les « activités de manipulation et d’ingérence menées depuis l’étranger » (21). La Revue nationale stratégique (RNS) évoque le « champ de la lutte contre les manipulations de l’information venant de compétiteurs étrangers » (22) et porte la création d’une 6e fonction stratégique dédiée à l’influence.
Depuis 2023, les opérations d’influences étrangères ont été étudiées par plusieurs commissions d’enquête diligentées par l’Assemblée nationale, le Sénat et le Parlement européen. En outre, le président de la République a dénoncé le 16 février 2024 les « manœuvres de désinformation, de manipulation de l’information » de la Russie qui se sont « multipliées, systématisées et intensifiées » (23).
Une organisation structurée pour une réaction coordonnée
Les INE ne sont qu’une composante d’une stratégie intégrale offensive hybride plus vaste (cyber, lawfare, guerre économique, emploi de sociétés militaires privées…) qui vise un grand nombre de démocraties libérales. La réponse à ces attaques doit donc être globale, décloisonnée et coordonnée entre alliés.
L’Otan considère principalement la désinformation russe comme une menace sur la cohésion de l’Alliance et y répond par la communication stratégique (StratCom). La Public Diplomacy Division analyse donc l’environnement informationnel, oriente la communication et diffuse des informations fiables comme les « mises au point (24) » qui répondent aux mythes répandus par la Russie. Appuyé par le Centre d’excellence de Riga, l’Otan s’attache également, par une communication active vers un large public, à imposer ses narratifs.
L’Union européenne est particulièrement active dans la lutte contre les ingérences étrangères et en particulier celles qui fragilisent les processus électoraux. L’UE s’attache à ce que les États-membres disposent d’une compréhension commune de la menace et de méthodes de caractérisation partagées (25). Depuis 2015, la division « communication stratégique » du Service européen de l’action extérieure (SEAE) s’est dotée d’une East Stratcom Task Force qui analyse les tendances de la désinformation et expose les narratifs de désinformation pro-Kremlin via son site Internet (EUvDISINFO). Par la régulation des plateformes, le soutien à la recherche et la mise en place de mécanismes d’alerte conjoints (SEAE, G7, OCDE…), l’UE se veut chef d’orchestre d’une riposte nécessairement collective.
En France, la prise de conscience de la menace INE fût progressive. Si elle débute réellement en 2017 avec les Macron Leaks, les opérations d’ingérence turques à la suite de l’assassinat de Samuel Paty en octobre 2020 confirment que les perceptions de la population française sont visées par les adversaires des démocraties libérales (26). La France va, dès lors, s’organiser pour lutter contre les attaques informationnelles dans le respect des principes suivants :
– un périmètre restreint aux ingérences numériques étrangères et à la guerre informationnelle hors du territoire national qui exclut la lutte contre la désinformation par des mouvements radicaux internes ;
– un contrôle politique fort ;
– une gouvernance interministérielle renforcée ;
– la segmentation des dispositifs défensifs et de ripostes.
À l’image du C4 (Centre de coordination des crises cyber), le dispositif de défense s’articule autour du Comité opérationnel de lutte contre les manipulations de l’information (Colmi). Présidé par le SGDSN, il réunit les directions des services disposant de capacités opérationnelles ainsi que leurs autorités de rattachement et les représentants des cabinets ministériels concernés. Sur la base d’une appréciation partagée des menaces informationnelles, il est notamment chargé de formuler des options de riposte au niveau politique.
Le dispositif de riposte est articulé autour de la Task Force interministérielle informationnelle (TF2I) rassemblant les expertises adéquates du MEAE et du Minarm. L’autorité politique, orientée par le Colmi, décide des actions proactives ou en riposte et coordonnées par la TF2I au niveau interministériel.
Les ministères concernés vont dès lors se donner les moyens d’agir. En juillet 2021, le service de Vigilance et de protection contre les ingérences numériques étrangères (Viginum) est créé. Rattaché au SGDSN, Viginum détecte et caractérise les ingérences étrangères grâce à l’Open Source INTelligence (OSINT) et aux Data Sciences. En août 2022, le MEAE s’est doté d’une sous-direction « Veille et Stratégie » au sein de la Direction de la communication et de la presse. Elle est chargée de la veille informationnelle, de la communication stratégique et de la lutte contre les manipulations de l’information visant l’action de la France à l’étranger. Concomitamment, l’État-major des Armées (EMA) a créé la cellule « Anticipation stratégique et Orientations » qui structure la fonction « influence et lutte informationnelle » des armées tout en coordonnant les actions de tous les effecteurs militaires. Il s’agit, entre autres, d’appuyer les opérations (exclusivement hors du territoire national) et notamment la Lutte informatique d’influence (L2I) conduite par le Commandement de la cyber-défense (annoncée le 20 octobre 2021 (27)).
Le champ informationnel investi
Le dispositif défensif repose sur la capacité de surveillance et de compréhension du champ informationnel. L’analyse, grâce à des logiciels dédiés comme Open CTI permet de repérer les « arènes cognitives », de détecter les signaux faibles, d’identifier les canaux de contagion et d’anticiper les phénomènes de propagation de désinformation. Les attaques détectées sont caractérisées et contextualisées suivant différents canevas possibles comme le DISARM framework. Enfin, les renseignements obtenus sont partagés en interministériel (Colmi) et entre alliés. Pour limiter l’impact d’une attaque informationnelle, la mise en œuvre de contre-mesures adaptées est indispensable.
Dans une démarche de prévention, les événements susceptibles de faire l’objet d’une INE sont identifiés (modification de la posture française en Ukraine, Jeux olympiques et paralympiques de Paris, élections européennes, Sommet de l’Otan à Washington). La réaction des acteurs concernés est alors planifiée, l’opinion publique sensibilisée à la menace d’ingérence (pre-bunking) et du contenu est produit pour informer, prévenir des manipulations de l’information et occuper l’espace informationnel.
Une fois l’attaque confirmée, les analystes investiguent afin d’évaluer le risque et définir la réponse la plus adaptée :
– Ignorer pour ne pas augmenter la portée de l’attaque et se prémunir d’un « effet Streisand ».
– Contenir les prémices d’une campagne de désinformation et l’empêcher de se propager. L’effort se porte alors sur le prochain maillon de la chaîne de diffusion pour empêcher l’amplification. Le narratif adverse est préempté grâce à une campagne d’information ciblée et massive pour diluer l’attaque.
– Minimiser l’impact par la modération, la fermeture de sites ou de comptes par les plateformes (fermeture de RT France en mars 2023 sur décision du Conseil de l’Europe (28)).
– Rediriger l’attention et reprendre l’initiative en diffusant des informations fiables reprises et amplifiées par un maximum de relais (presses, médias, plateformes, influenceurs) ou faire rétablir la vérité (de-bunker) par un autre acteur qui aura été orienté et renseigné pour pouvoir investiguer.
L’incident peut également être rendu public dans une démarche de « naming and shaming ». L’administration en charge de cette action, nécessairement suspectée de partialité, doit s’attacher à démontrer les techniques de manipulation utilisées plutôt que de tenter de discréditer le narratif adverse. L’objectif n’est pas tant de dissuader un adversaire engagé ouvertement dans l’hybridité de renouveler de telles actions que d’éclairer la population sur la réalité des menaces. L’attribution, qui consiste à désigner l’État commanditaire de l’attaque, est toujours un acte politique et généralement réalisée par le MEAE (ex. : RRN et Portal Kombat). L’implication généralisée de commanditaires dans les INE rend souvent l’attribution difficile. Une fois l’incident clôturé, l’analyse des événements doit être partagée le plus largement possible. Des actions diplomatiques peuvent être envisagées et des poursuites judiciaires lancées si une infraction a pu être caractérisée.
Le dispositif offensif en réponse à une INE vise à conduire des contre-attaques dans le champ informationnel (coordination TF2I), mais également dans les autres domaines de l’hybridité. Les opérations de riposte ont pour objectifs de :
– produire et amplifier des narratifs (caisse de résonance) qui affaiblissent la légitimité de l’adversaire sur la scène internationale (ex : médiatisation du transit en surface dans le golfe de Gascogne du sous-marin Kilo Novorossiysk en octobre 2022) ;
– cibler les acteurs malveillants (attaques cyber, destruction physique) ;
– envoyer à l’adversaire un message de fermeté démontrant que ses INE n’ont pas entamé la détermination de la France à défendre ses intérêts (ex. : déclaration du président de la République du 26 février 2024 sur l’envoi de troupes en Ukraine).
Un début d’encadrement des plateformes
Aux États-Unis, le Communications Decency Act de 1996 a confirmé aux plateformes déployées sur le sol américain leur statut d’hébergeur et donc leur absence de responsabilité quant aux contenus publiés sur leurs sites. Cependant, l’ingérence russe dans les élections américaines de 2016 marque le début d’une prise de conscience collective sur la nécessité d’encadrer leur activité.
La plupart des plateformes ont généralisé le recours au fact checking pour renforcer leur attractivité vis-à-vis des annonceurs, leur image de marque et leur crédibilité aux yeux des utilisateurs. Rémunérés mais indépendants, les vérificateurs de faits signalent les contenus propageant de la désinformation que les plateformes « invisibilisent » pour stopper leur propagation ou suppriment s’ils contreviennent à leurs conditions générales d’utilisation. Les plateformes et les fact checkers pourront, dans un avenir proche, avoir recours à l’IA pour déceler les contenus manifestement mensongers. Dès 2018 (29), l’UE a rédigé un « Code de bonnes pratiques » signé par 34 plateformes afin de les encourager à empêcher les fournisseurs de désinformation de bénéficier de recettes publicitaires (30) et de renforcer la coopération avec les vérificateurs de faits.
En France, les lois contre la manipulation de l’information de 2018 (31) visent à endiguer la diffusion de désinformations durant les périodes de campagne électorale. Cependant, la nécessité de prouver que les fausses informations sont de nature « à altérer la sincérité du scrutin » rendent leur application difficile.
Pionnière dans le domaine de la régulation des plateformes, l’UE a promulgué le Digital Service Act (DSA) en août 2023 afin d’anticiper en amont les risques systémiques. Désormais responsabilisées, celles-ci doivent améliorer la transparence de leurs algorithmes, proposer des outils de signalement de désinformation aux utilisateurs et ouvrir l’accès de leurs données aux chercheurs. La Commission européenne est chargée de faire respecter le DSA aux principales plateformes et l’ARCOM (Autorité de régulation de la communication audiovisuelle et numérique) de réguler les services numériques établis en France. En cas de non-respect du DSA par une plateforme, elle devra s’acquitter d’une amende dont le montant pourra s’élever jusqu’à 6 % de son chiffre d’affaires mondial. La plateforme X (ex-Twitter) d’Elon Musk ayant refusé de s’adapter pour respecter la nouvelle législation, la Commission a ouvert en décembre 2023 une procédure (32) dont l’issue sera décisive pour la crédibilité du DSA.
Enfin, l’IA Act interdit désormais de déployer des techniques manipulatrices ou trompeuses et les utilisateurs devront être prévenus lorsqu’ils interagiront avec une intelligence artificielle.
L’écosystème médiatique tente de s’adapter
La mondialisation et la numérisation de la communication conduisent à l’émergence d’un « nouvel ordre mondial de l’information » qui place les médias traditionnels en situation de crise. Bien au-delà de la fragilisation de leur modèle économique, celle-ci menace l’exercice de la vie démocratique. Le président de la République a donc lancé, en octobre 2023, les États généraux de l’information (33) (EGI) qui permettront de poser les bases d’un modèle d’espace médiatique et numérique dans lequel l’information sera conçue dans le respect des principes de liberté, d’indépendance, de pluralisme et de fiabilité. Conséquence du durcissement des tensions internationales, l’un des cinq groupes de travail des EGI traite de souveraineté et de lutte contre les ingérences étrangères.
Face aux INE, les médias sont confrontés à plusieurs risques :
– amplifier involontairement une manœuvre d’ingérence non-identifiée comme l’affaire des « étoiles de David » en novembre 2023 considérée initialement comme un acte antisémite ;
– renforcer l’anxiété de notre société en surestimant la capacité de déstabilisation de nos adversaires, notamment par sensationnalisme ;
– fragiliser le débat d’idées en caricaturant certaines opinions vis-à-vis de la Russie ou de la guerre en Ukraine comme le think tank ukrainien IIG qui considère les généraux Pierre de Villiers (Chef d’état-major des armées de 2014 à 2017) ou Christophe Gomart (Directeur du renseignement militaire de 2013 à 2017) comme des soutiens russes (34).
Dans ce contexte de dégradation de l’audience à laquelle ils sont confrontés et de la forte concurrence qui en résulte, certains médias désignent désormais le mensonge au profit de leur propre service de rédaction pour en renforcer la crédibilité ou au bénéfice de plateformes dans un but lucratif. Ainsi, TF1 et l’AFP ont-ils mis sur pied des services dédiés à la vérification des informations présentée dans le débat public.
Les médias respectant une éthique journalistique (vérifier leurs sources, s’appuyer sur des fact checkers et réguler l’usage de l’IA) peuvent également bénéficier de normes comme la Journalism Trust Initiative lancée par Reporters Sans Frontières pour récompenser le journalisme de confiance et différencier les médias d’information et ceux d’opinion. Mille médias ont ainsi souscrit à l’initiative dont France Media monde, France TV et TF1. Ils espèrent notamment bénéficier de davantage de revenus publicitaires, d’une meilleure indexation par les algorithmes et de plus de subventions philanthropiques.
Deux stratégies à formaliser
La RNS déclare que la France se doit de disposer d’une stratégie nationale d’influence pour promouvoir et défendre ses intérêts et ses valeurs. La RNS précise que la stratégie nationale d’influence permettra à la France de « répondre ou riposter à des manœuvres ou à des attaques, en particulier dans le champ informationnel, contre nos intérêts (35) ». Elle couvrira donc notamment le champ de la contre-offensive informationnelle. Le Premier ministre a lancé en parallèle les travaux de rédaction d’une stratégie nationale de lutte contre les manipulations de l’information qui permettra de coordonner la posture défensive des différents ministères.
Stratégie nationale d’influence
Le 9 novembre 2022, à bord du porte-hélicoptères amphibie Dixmude, le président de la République a déclaré (36) que l’État considérait que l’influence faisait désormais partie de ses fonctions stratégiques au côté de la dissuasion, du triptyque connaissance-compréhension-anticipation, de la protection-résilience, de la prévention et de l’intervention. Dans un contexte de guerre sur le continent européen, il prend acte de la « désinhibition de la violence, de l’extension des confrontations à tous les domaines, d’un saut sans précédent dans l’univers hybride » et a donc décidé d’une nouvelle orientation. La France agira désormais officiellement dans le champ des perceptions pour ne pas laisser l’initiative à un adversaire désinhibé et pour contester sa domination dans la lutte informationnelle.
Alors que l’influence était auparavant le résultat des politiques publiques de l’action extérieure de la France, cette nouvelle stratégie qui promeut la contre-offensive constitue un « changement de paradigme (37) ». Ainsi, dans cette période d’interrègne, la France assume le rapport de force pour défendre ses valeurs et faire preuve de fermeté et de détermination.
Après la RNS, il s’agit donc de définir une stratégie de long terme pour coordonner les réponses de court terme. La stratégie nationale d’influence française sera probablement affirmative afin de combiner la promotion de nos valeurs démocratiques, la défense de nos intérêts et d’assumer nos choix politiques. Elle devra servir de cadre général à l’action des différentes administrations pour bâtir un environnement de perceptions propices à nos initiatives et promouvoir ou défendre l’image de la France à l’étranger.
La stratégie nationale d’influence représente également l’opportunité de définir le niveau d’ambition de la riposte face aux attaques hybrides menées par nos adversaires. Dans le domaine de la lutte informationnelle, elle pourrait notamment :
– afficher la détermination de la France ;
– confirmer la volonté française de caractériser et d’attribuer les INE dans un cadre national et européen, d’occuper les espaces informationnels et de multiplier les relais d’influence capable de relayer des narratifs favorables à notre action ;
– pérenniser les moyens dédiés mis en place depuis deux ans et en particulier officialiser les missions, l’organisation et le contrôle de la Task Force interministérielle informationnelle (TF2I).
De plus, elle permettra à la Direction générale des relations internationales et de la stratégie (Dgris) de rédiger la stratégie militaire d’influence et à l’EMA de décliner la stratégie d’influence des armées.
Pour garantir une riposte légitime, la stratégie nationale est sur une ligne de crête entre efficacité et éthique puisqu’il s’agit de « détecter et entraver à la manière d’une démocratie » (38). Le rapport à la vérité distingue les démocraties de l’autoritarisme. La confrontation à un adversaire habitué au mensonge d’État ne doit pas conduire à employer ses méthodes qui s’avéreraient contre-productives sur le long terme :
– restriction de la liberté d’expression au nom de la sécurité qui augmenterait la défiance de la population à l’égard des institutions publiques ;
– désinformation ou manipulation qui rendrait caduque toute dénonciation des « faux récits » adverses et viendrait fragiliser la crédibilité et l’intégrité de la diplomatie et de la communication politique.
Cependant, puisque nos adversaires utilisent sans restriction l’espace informationnel à des fins hostiles, les démocraties sont obligées de le considérer comme un espace de confrontation dans lequel certaines actions doivent impérativement rester secrètes et ambiguës. Pour préserver leurs valeurs, les démocraties doivent donc, à l’image de ce qui a été fait pour les services de renseignement (39), définir une éthique des « conflits informationnels » (nécessité, proportionnalité) et encadrer puis contrôler leurs actions de lutte informationnelle. En effet, certains experts considèrent que la France participe désormais à une « course aux armes numériques » qui ne peuvent contenir leurs effets à la seule sphère militaire puisque l’espace numérique informationnel est partagé entre le monde civil, économique et militaire. La propagation des contenus est difficilement maîtrisable et les actions sont potentiellement observables par une multitude d’acteurs (40), contribuant ainsi à affaiblir la confiance dans l’information numérique et envers les institutions. La commission « Les Lumières à l’ère Numérique » avait donc recommandé en vain l’avis du Comité d’éthique de la défense sur la doctrine de lutte informatique d’influence (41).
Stratégie de lutte contre les manipulations de l’information
Le volet Veille-Détection-Caractérisation des INE est désormais opérationnel. Afin d’améliorer la résilience de la société française face à cette menace, il est impératif de renforcer l’arsenal réglementaire pour complexifier la diffusion des narratifs de nos adversaires. Parallèlement, une prise de conscience collective doit être provoquée pour faire des citoyens français le premier rempart contre la désinformation. En vue d’atteindre ces objectifs, la stratégie nationale de lutte contre les manipulations de l’information devra identifier les politiques publiques à mettre en place ou à consolider et définir les mécanismes de coordination.
Si la loi du 29 juillet 1881 sanctionne la diffusion intentionnelle de fausses informations susceptibles de troubler l’ordre public, la stratégie de lutte contre les manipulations de l’information devra nécessairement affermir la politique pénale contre les acteurs de l’ingérence numérique étrangère. En effet, selon le chercheur Maxime Audinet : « le rôle du politique est de déterminer ce qui relève d’un mode d’influence et d’un mode d’ingérence, ce qui est légal ou non, tolérable ou non, sachant que les frontières entre les notions sont mouvantes et floues (42). »
Les financements étrangers, notamment chinois, peuvent générer des phénomènes de dépendance suffisants pour influer sur la liberté d’expression des organisations concernées. Il apparaît donc nécessaire d’améliorer la transparence des financements des think tanks, cabinets de conseil, universités, groupes d’amitié parlementaires et plateformes numériques afin de cartographier l’influence des puissances étrangères (43). L’Assemblée nationale a donc adopté le 27 mars 2024 un projet de loi pour prévenir les ingérences étrangères en France par le renforcement de la transparence des activités d’influence pour le compte d’un mandant étranger et l’autorisation du gel des ressources économiques des acteurs de l’ingérence. Il définit l’acte d’ingérence comme « l’intervention délibérée d’une personne physique ou morale agissant au nom ou pour le compte d’une puissance étrangère visant à porter atteinte aux intérêts fondamentaux de la Nation, à la sécurité économique, aux systèmes d’information, à la sincérité des scrutins ou à diffuser intentionnellement de fausses informations de nature à perturber le fonctionnement régulier des institutions ou le débat démocratique » (44).
Ultérieurement, le Code pénal pourrait être modifié pour créer un délit spécifique d’ingérence et aggraver les sanctions actuellement encourues au regard notamment de la gravité de l’atteinte portée aux intérêts de la Nation. De plus, les influenceurs politiques suivis par plus de 100 000 personnes pourraient être publiquement identifiés afin de devoir assumer leurs opinions.
Enfin, pour limiter le financement de la désinformation, il est nécessaire de promouvoir un investissement publicitaire responsable en encourageant le recours, par les agences publicitaires, à des listes dynamiques d’exclusion de sites qui relayent la propagande de nos adversaires.
Alors que l’anxiété altère la résilience, une meilleure information sur les objectifs poursuivis par la Russie, la Chine et sur les stratégies hybrides qu’elles mettent en œuvre, rendrait la population moins permissive aux INE. Le citoyen avertit pourrait en effet mieux analyser et filtrer les informations qu’il reçoit. Pour cela le Service national universel, que le gouvernement souhaite généraliser en 2026, doit être l’occasion d’informer la jeunesse dans une démarche complémentaire à celles initiées par l’Éducation nationale. De plus, des campagnes de sensibilisation par des spots publicitaires à l’image de ceux réalisés durant la Covid-19 permettrait de toucher un public plus large. Enfin, le développement de serious games du type Catch the Flag ou Harmony Square (45) doit être poursuivi car ils sensibilisent un public très connecté et donc plus susceptible d’être exposé à la désinformation.
L’Éducation nationale joue un rôle central dans le renforcement de la résilience de la population contre les manipulations de l’information. Par une politique éducative de long terme et ambitieuse, basée sur un apprentissage des fondamentaux et l’évaluation des élèves (46), elle devra endiguer l’effondrement culturel de notre société qui favorise l’aveuglement cognitif et encourager le retour de la pensée rationnelle (Descartes) aujourd’hui dépassée par l’émotion. Permettre à l’élève de développer son autonomie intellectuelle par la formation à l’esprit critique et à l’Éducation aux médias et à l’information (EMI) doit devenir un objectif prioritaire pour que la jeunesse puisse « évaluer correctement les contenus et les sources des informations à sa disposition afin de mieux juger, mieux raisonner ou prendre de meilleures décisions (47) ». En effet, la meilleure façon de libérer la société des asservissements algorithmiques est sans doute de former des citoyens autonomes dans leur jugement.
Certains enseignants ont pu être sensibilisés aux dangers de la manipulation de l’information par des journées de formation organisées avec le Centre pour l’éducation aux médias et à l’information (Clémi). Il apparaît désormais nécessaire d’éclairer tous les enseignants, durant leur formation initiale ou lors de cessions dédiées, afin qu’ils puissent à leur tour transmettre à leurs élèves, dans une démarche transverse à toutes les disciplines, l’éducation aux médias indispensable à la lecture rationnelle de l’information.
En outre, la recherche sur l’IA ainsi que les sciences cognitives et sociologiques doivent être soutenues pour détecter plus rapidement les INE, mieux comprendre les effets de la désinformation, identifier les groupes les plus vulnérables et trouver les parades cognitives. Les instituts de recherche traitant de ces domaines doivent être dotés des moyens suffisants pour étudier en toute indépendance. En voici quelques exemples :
– Think tanks (German Marshall Fund, EU DisinfoLab, Bellingcat).
– Universités : Le Centre d’analyse et de recherche interdisciplinaire sur les médias de l’Université Paris 2, le Centre de recherche de formation Géode porté par Paris 8. La Direction générale de l’armement (DGA) a par ailleurs décidé d’investir également dans ce domaine stratégique en lançant le projet Astrid pour soutenir la recherche universitaire.
– CNRS : Institut des systèmes complexes de Paris Île-de-France.
– PEReN (Pôle d’expertise de la régulation numérique), service à compétence nationale expert en régulation des plateformes numériques.
La recherche devra plus particulièrement analyser les données de campagnes d’ingérence étrangère ayant visé l’intégrité de processus électoraux afin de mieux anticiper les risques (48).
Conclusion
Les manœuvres d’ingérence numérique étrangères devraient profiter des progrès de la technologie numérique (IA, métaverse, Web3D (49)), des sciences cognitives et de la détérioration du contexte géopolitique pour perdurer, voire s’intensifier dans les prochaines années. Elles pourraient cependant n’être que le banc d’essai d’une nouvelle forme d’action psychologique : la guerre cognitive. Si la guerre de l’information vise à contrôler les contenus diffusés, la guerre cognitive cherche à contrôler les réponses des cibles à l’information présentée. Il s’agit, dès lors, de faire de l’esprit un champ de bataille en amenant des individus ciblés à avoir une représentation erronée du monde afin d’altérer leurs processus cognitifs (50).
(1) Commission d’enquête relative aux ingérences politiques, économiques et financières de puissances étrangères, Rapport (tome 1), 1er juin 2023, Assemblée nationale, p. 87 (https://www.assemblee-nationale.fr/).
(2) Commission de la défense nationale et des forces armées, « Audition, à huis clos, du général d’armée Thierry Burkhard, chef d’état-major des armées, sur la contribution des armées à une nouvelle politique africaine de la France » (Compte rendu n° 37), 31 janvier 2024, Assemblée nationale, p. 4 (https://www.assemblee-nationale.fr/).
(3) Mellon Agathe, « Chine - La grande muraille numérique », Revue Projet n° 371, 2019/4, p. 55-58 (https://www.cairn.info/revue-projet-2019-4-page-55.htm).
(4) Expression utilisée par Vladimir Poutine lors de sa conférence de presse annuelle, le 23 décembre 2021.
(5) Verluise Pierre, « La guerre de l’information cherche à accélérer la décomposition des sociétés démocratiques. Entretien avec D. Colon », Diploweb.com : la revue géopolitique, 14 janvier 2024 (https://www.diploweb.com/).
(6) Par exemple, la campagne chinoise transplateformes dénoncée en août 2023 (50 médias sociaux ciblés de façon coordonnée). Meta, Adversarial Threat Report (Second quarter), August 2023, p. 11 (https://scontent-cdg4-2.xx.fbcdn.net/).
(7) Amiral Vandier, 12 octobre 2023 lors d’« Évènement 2050, we are-DEMAIN » : Russie, Chine, Inde, Iran, Turquie.
(8) Exemple d’infodémie : la crise de la Covid-19. United Nations Department of Global Communications, « UN tackles ‘infodemic’ of misinformation and cybercrime in COVID-19 crisis », 31 mars 2020 (https://www.un.org/).
(9) « Monter les communautés les unes contre les autres : l’exemple des émeutes raciales aux États-Unis (2016) » in Jeangène Vilmer Jean-Baptiste, Escorcia Alexandre, Guillaume Marine et Herrera Janaina, Les Manipulations de l’information : un défi pour nos démocraties, Rapport du Centre d’analyse, de prévision et de stratégie (CAPS) du ministère de l’Europe et des Affaires étrangères, et de l’Institut de recherches stratégiques de l’École militaire (Irsem) du ministère des Armées, 2018, p. 79 (https://www.diplomatie.gouv.fr/).
(10) Exploitation de l’attaque du Hamas le 7 octobre 2023 par le 5e bureau du FSB lors de la campagne de désinformation dite des « Étoiles de David ». Follorou Jacques, « Une opération de déstabilisation russe a visé plusieurs pays européens », Le Monde, 22 février 2024.
(11) European Union External Action, 2nd EEAS Report on Foreign Information Manipulation and Interference Threats. A Framework for Networked Defence, janvier 2024 (https://www.eeas.europa.eu/).
(12) Entreprises de marketing numérique responsables de la campagne RNN. Viginum, RNN : une campagne de manipulation de l’information complexe et persistante (Rapport), 19 juin 2023 (https://www.sgdsn.gouv.fr/).
(13) Gué Victoire, « Les chiffres YouTube à connaître en 2024 », 3 janvier 2024 (https://blog.hubspot.fr/).
(14) Solsman Joan E., « YouTube’s AI is the puppet master over most of what you watch », CNET, 10 janvier 2018 (https://www.cnet.com/tech/services-and-software/youtube-ces-2018-neal-mohan/).
(15) Commission d’enquête « InfluenceTikTok », La tactique TikTok : opacité, addiction et ombres chinoises (Rapport n° 831), 4 juillet 2024, Sénat (https://www.senat.fr/rap/r22-831-1/r22-831-1.html).
(16) Empoli (da) Giuliano, Les ingénieurs du chaos, Gallimard, 2023, p. 85.
(17) Merrill Jeremy B. et Oremus Will, « Five points for anger, one for a ’like’: How Facebook’s formula fostered rage and misinformation », The Washington Post, 26 octobre 2021.
(18) Escalon Sebastian, « Climatosceptiques : sur Twitter, enquête sur les mercenaires de l’intox », CNRS Le Journal, 15 février 2023 (https://lejournal.cnrs.fr/articles/climatosceptiques-sur-twitter-enquete-sur-les-mercenaires-de-lintox).
(19) Le roman Le Montage de Vladimir Volkoff (1982) décrit ainsi les méthodes de désinformation du KGB durant la guerre froide.
(20) Forum économique mondial, The Global Risks Report 2024 (19th Edition), janvier 2024 (https://www3.weforum.org/docs/WEF_The_Global_Risks_Report_2024.pdf).
(21) Conseil de l’Union européenne, Une boussole stratégique en matière de sécurité et de défense - Pour une Union européenne qui protège ses citoyens, ses valeurs et ses intérêts, et qui contribue à la paix et à la sécurité internationales, 4 mai 2022 (https://data.consilium.europa.eu/doc/document/ST-7371-2022-COR-1/fr/pdf).
(22) Secrétariat général de la défense nationale (SGDSN), Revue nationale stratégique, novembre 2022, p. 48 (https://www.sgdsn.gouv.fr/publications/revue-nationale-strategique-2022).
(23) Macron Emmanuel, « Discours du président de la République à l’occasion de la visite de Volodymyr Zelensky, président de l’Ukraine », Paris, 16 février 2024 (https://www.elysee.fr/).
(24) Otan, « Mise au point - Réponse aux mythes répandus par la Russie sur l’Otan », 12 janvier 2024 (https://www.nato.int/cps/en/natohq/115204.htm?selectedLocale=fr).
(25) EUEA, op. cit.
(26) Commission d’enquête relative aux ingérences politiques, économiques et financières de puissances étrangères, Rapport, op. cit.
(27) EMA, « Les armées se dotent d’une doctrine militaire de lutte informatique d’influence (L2I) », 22 octobre 2021 (https://www.defense.gouv.fr/).
(28) Confirmée par la Cour de justice européenne en juillet 2023 : limitations à la liberté d’expression proportionnées en ce qu’elles sont appropriées et nécessaires aux buts recherchés.
(29) Le Code de « bonnes pratiques » a été renforcé en 2022. Commission européenne, « Code de bonnes pratiques en matière de désinformation 2022 », 2 avril 2024 (https://digital-strategy.ec.europa.eu/).
(30) Plus de 700 marques ont diffusé des publicités sur des sites de mésinformation en 2023. NewsGuard, Social Impact Report, 2023.
(31) Loi organique et loi ordinaire du 22 décembre 2018 relatives à la manipulation de l’information, 27 décembre 2018 (https://www.vie-publique.fr/loi/21026-loi-manipulation-de-linformation-loi-fake-news).
(32) Commission européenne, « La Commission ouvre une procédure formelle à l’encontre de X au titre du règlement sur les services numériques », 18 décembre 2023 (https://ec.europa.eu/commission/presscorner/detail/fr/ip_23_6709).
(33) Macron Emmanuel, « Lettre de mission du président de la République aux EGI », 2 octobre 2023 (https://etats-generaux-information.fr/presentation).
(34) Institute of Innovative Governance, Revealing Russian influence in Europe: Insights from Germany, France, Italy and Ukraine, Kyiv, 2023, p. 15 (https://www.gmfus.org/).
(35) Revue nationale stratégique, op. cit., p. 26.
(36) Macron Emmanuel, « Déclaration du président de la République sur la RNS et la programmation militaire de la France », Toulon, 9 novembre 2022 (https://www.vie-publique.fr/).
(37) Buhler Pierre, « Préambule - Stratégie nationale d’influence : une architecture à inventer », RDN, n° 857, février 2023, p. 5-10 (https://www.defnat.com/e-RDN/vue-article.php?carticle=23086&cidrevue=).
(38) Macron Emmanuel, « Déclaration du président de la République sur la RNS et la programmation militaire de la France », op. cit.
(39) Commission nationale de contrôle des techniques de renseignement (CNCTR), autorité administrative indépendante garantissant la légalité de l’action des services de renseignement (https://www.cnctr.fr/).
(40) Affaire des faux comptes Facebook russes et français fermés le 15 décembre 2020 révélée par Graphika. Gleicher Nathaniel et Agranovich David, « Removing Coordinated Inauthentic Behavior from France and Russia », Meta, 15 décembre 2020 (https://about.fb.com/news/2020/12/removing-coordinated-inauthentic-behavior-france-russia/).
(41) Bronner Gérald, Les Lumières à l’ère numérique (rapport), janvier 2022, p. 75 (https://www.vie-publique.fr/).
(42) Commission d’enquête relative aux ingérences politiques, économiques et financières de puissances étrangères, « Audition, ouverte à la presse, de M. Maxime Audinet, chercheur à l’Irsem » (Compte rendu n° 26), Assemblée nationale, 6 avril 2023 (https://www.assemblee-nationale.fr/).
(43) Dans l’esprit du Foreign Agents Registration Act (FARA) adopté en 1938 aux États-Unis.
(44) Commission des lois constitutionnelles, de la législation et de l’administration générale de la République, Annexe au rapport, Proposition de loi visant à prévenir les ingérences étrangères en France, 13 mars 2024 (https://www.assemblee-nationale.fr/dyn/16/textes/l16b2343_texte-adopte-commission.pdf).
(45) Harmony Square est produit par G4C (Games for change), ONG qui propose des jeux en ligne d’éducation sociale (https://www.gamesforchange.org).
(46) Larseneur Baptiste, École : où concentrer nos efforts ? (Note d’enjeux), Institut Montaigne, septembre 2023 (https://www.institutmontaigne.org/publications/ecole-ou-concentrer-nos-efforts).
(47) Les Lumières à l’ère numérique, op. cit., p. 90.
(48) À l’image du « Politoscope » développé par David Chavalarias (https://politoscope.org/).
(49) « Le Métaverse et le Web3 : deux concepts étroitement liés », Les Échos-Solutions (https://solutions.lesechos.fr/tech/c/le-metaverse-et-le-web3-deux-concepts-etroitement-lies-34208).
(50) Rapport de Eads LJ, Clarke Ryan, Sean Lin Xiaoxu et McCreight Robert, Warfare in the Cognitive Age: NeuroStrike and the PLA’s Advanced Psychological Weapons and Tactics (Research Report), The CCP Bio Threats, décembre 2023 (https://www.ccpbiothreats.com/).