Défense : l’information, champ de bataille dans un monde de crises

La compétition internationale se joue sur les capacités militaires et sur le récit, les perceptions et les interprétations dans un environnement saturé, contesté et instable.

Catherine Vautrin, ministre des Armées, et Olivia Penichou (photo), déléguée à l’information et à la communication de la Défense (Dicod), l’ont souligné au cours du Séminaire des communicants de défense, tenu le 17 novembre 2025 à Paris et qui a réuni 650 participants.

Une mission essentielle. « Vous, communicants de la Défense, êtes une belle et grande famille, indispensable à nos armées », déclare Catherine Vautrin dans un message vidéo. Selon elle, la Dicod doit relever trois défis principaux. Le premier consiste à expliquer la Défense, la rendre compréhensible en disant ce que font les Forces armées, pourquoi et avec qui elles le font. Cela inclut la dissuasion nucléaire, les opérations, les entraînements, les innovations, l’Europe de la Défense, l’engagement des soldats, marins aviateurs, gendarmes et civils du ministère des Armées, la présentation d’unités militaires, de chaque métier et de chaque compétence jusqu’aux postes en état-major. Le deuxième défi consiste à expliquer les choix capacitaires et les partenariats industriels et à valoriser la présence d’unités dans les bases de défense sur tout le territoire national. Enfin, le troisième défi concerne l’évolution du lien Armée-Nation en allant au plus près des citoyens dans les territoires, les écoles et les entreprises en y associant les anciens combattants. La communication de crise suppose une coordination parfaite entre les services, le cabinet ministériel, l’État-major des armées et les communicants de défense partout en France, pour contrer la désinformation, les tentatives d’ingérence et les actions de déstabilisation.

Cohérence et attractivité. La première mission des communicants de défense, « c’est d’expliquer, c’est de rendre clair sans être simpliste », précise Olivia Penichou. En montrant la réalité concrète du quotidien des armées sur le territoire national ou en opérations, il s’agit aussi de parler d’une seule voix, même si les communicants sont nombreux à la porter. En effet, une seule voix dissonante efface la portée du message et profite immédiatement à la désinformation. La crise, quotidienne, s’installant dans la durée, les récits hostiles, les manœuvres informationnelles et les ingérences étrangères sont devenues courantes. Les communicants de défense doivent alors répondre vite mais sans se précipiter, apporter de la vérité, des repères et du sens. Ils doivent parler à la jeunesse, la comprendre et s’y intéresser pour être audibles. L’intelligence artificielle leur permettra d’analyser avec rigueur, éthique et méthode, d’anticiper des situations et de simplifier certaines tâches, mais ne remplacera jamais leur intuition ni leurs discernement et capacité de décider.

La Dicod. Rattachée à la ministre déléguée (Alice Rufo) auprès de la ministre des Armées et des Anciens combattants (Catherine Vautrin), la Dicod exerce la tutelle de l’Établissement de communication et de production audiovisuelle de la défense et compte environ 700 personnes, dont 52 % de femmes et 48 % d’hommes. Sur la période 2024-2025, elle a formé près de 200 communicants des armées, envoyé 12 militaires en opérations et exercices et maintenu 11 militaires en alerte opérationnelle. Elle a accueilli 700 journalistes aux points de presse hebdomadaires. Elle a réalisé 32 enquêtes et mesures d’opinion, 130 notes d’analyses (hors thématiques spécifiques) et 250 produits quotidiens d’informations médias. Elle a diffusé 414 communiqués de presse, notes aux rédactions, dossiers de presse, messages, agendas et discours des ministres. Elle compte 1,44 million d’abonnés sur les réseaux sociaux ainsi répartis : 350.000 sur Facebook ; 334.900 sur X ; 318.000 sur LinkedIn ; 257.000 sur YouTube ;161.000 sur Instagram ; 20.000 sur WhatsApp. Enfin, elle a participé à 15 grands salons et événements majeurs.

Loïc Salmon

Stratégie : la guerre informationnelle, affaiblir de l’intérieur les démocraties

Chine : désinformation et guerre informationnelle

Russie : menaces informationnelles contre l’Ukraine et les pays occidentaux




Stratégie : la guerre informationnelle, affaiblir de l’intérieur les démocraties

Composante de tout conflit hybride, la guerre informationnelle permet de maintenir une situation de tension importante en deçà du seuil d’affrontement armé. Les États démocratiques sont ciblés par leurs compétiteurs, dont la Russie.

Le ministère de l’Europe et des Affaires étrangères (MEAE) présente la guerre informationnelle dans une rapport rendu public en septembre 2025.

Les ingérences russes. La guerre informationnelle manipule les émotions, et les perceptions étrangères pour servir des intérêts géopolitiques. Elle exploite le débat démocratique ouvert par la diffusion et l’amplification d’informations déstabilisantes auprès des médias, des entreprises et des populations. En 2024, la Russie a publié 68.000 contenus manipulateurs dans 90 pays via 38.000 canaux de diffusion différents, dont 88 % sur le réseau social « X » (ex-Twitter). Elle a procédé à 42 attaques lors des élections européennes. Ses manipulations et interférences informationnelles ont surtout touché dix pays, selon une répartition croissante : Belgique, 3 % ; Pologne, 3,5 % ; Espagne, 4 % ; États-Unis, 4,5 % ; Burkina Faso, 4,5 % ; Mali, 7,6 % ; Niger, 7,6 % ; Allemagne, 8,1 % ; France, 21,2 % ; Ukraine, 37,4 %. En 2023, la Russie a dépensé 1,6 M$ dans des opérations de guerre informationnelle.

Les manœuvres des pays compétiteurs. A part la Russie, le rapport du MEAE ne nomme pas les autres pays compétiteurs (Chine, Iran et Corée du Nord) des États démocratiques, mais leurs manœuvres sont similaires. Elles visent à sélectionner, isoler et manipuler des faits pour promouvoir une vision de la réalité conforme à leurs intérêts. A part la diffusion accidentelle d’une information inexacte, qualifiée de « mésinformation », deux manœuvres présentent un caractère hostile. L’une, dite « désinformation », consiste à créer et diffuser volontairement des informations fausses dans le but de nuire. L’autre, dite « malinformation » porte sur la manipulation d’une information véridique, diffusée également dans le but de nuire. Les agents du pays compétiteurs cherchent, de façon dissimulée, à investir les cycles électoraux d’un États ciblé, ses drames nationaux et sa mémoire. Sur le plan international, ils mènent des campagnes de grande ampleur en mêlant désinformation et instrumentation de faits véridiques. Leurs manœuvres délibérées amplifient les divisions internes de la population d’un pays, afin d’entraver la capacité de projection internationale de l’État. Ce travail de sape met en danger les emprises diplomatiques, leurs agents et les ressortissants du pays visé résidant à l’étranger. Des acteurs hostiles et organisés cherchent à produire des effets coordonnés par le biais de canaux étatiques et semi-officiels. Les vecteurs officiels incluent les ambassadeurs, porte-paroles, dirigeants politiques et médias d’État. De façon officieuse, des entreprises et des médias, se prétendant indépendants, agissent pour l’État compétiteur ou ses services de renseignement. Pour les compléter, des chaînes d’information et des entreprises, officiellement non-étatiques, montrent des signes systématiques d’alignement sur les politiques de l’État compétiteur.

La « cible » France. Le rapport du MEAE décortique les manœuvres informationnelles utilisées contre la France. Cela commence par une identification opportune des brèches dans la société, afin d’exploiter les clivages existants et les émotions. Ensuite, des mobilisations orchestrées et des actions de sabotage sont organisées pour alimenter une information manipulée. Acteurs officiels, prestataires et relais les diffusent de façon coordonnée et ciblée. La cohésion sociale se trouve alors affaiblie par l’accentuation de la polarisation sur certains thèmes, de la fragmentation sociale et du désordre qui s’ensuit. Sur le plan international, ces méthodes agressives cherchent à diluer les messages de la France, brider ses actions diplomatiques, affaiblir sa réputation et donc la faire passer pour ce qu’elle n’est pas.

Les actions du MEAE. Face à la guerre informationnelle, le MEAE se mobilise pour protéger les ressortissants français à l’étranger, expliquer la politique extérieure de la France, promouvoir une information intègre face au chaos informationnel exploité par les pays compétiteurs et défendre les principes démocratiques. La « Revue nationale stratégique » de 2022, actualisée en 2025, conforte sa montée en gamme en faveur d’un ordre multilatéral au service de la souveraineté des États, du respect du droit international, du droit des peuples à disposer d’eux-mêmes et de la résolution pacifique des conflits. La France dispose du troisième réseau diplomatique mondial (après la Chine et les États-Unis) avec 163 ambassades, 208 consulats, 101 instituts français et une empreinte numérique de plus de 10 millions d’abonnés multiplateformes sur les comptes des ambassades. Son action dans la guerre informationnelle commence par un démenti officiel, suivi d’une dénonciation des modes opératoires et des réseaux de désinformations étrangers. L’alerte sur une attaque probable est suivie de l’attribution d’une manœuvre à un État tiers. Le groupe audiovisuel extérieur France Médias Monde remplit des missions de service public international pour lutter contre les rumeurs, désinformations et manipulations. Chaque semaine, ses chaînes France24, Radio France International (RFI) et Monte Calo Doualiya (vers le monde arabe) émettent en 21 langues et sont suivies par 254 millions d’auditeurs dans le monde. En 2023, France Média Monde a obtenu la certification de la « Journalism Trust Initiative » (JTI), basée sur la norme internationale ISO pour la transparence, l’éthique et la fiabilité et reconnue par la Commission européenne et Microsoft (l’un des géants américains du numérique). La JTI est portée par l’organisation internationale à but non lucratif « Reporters Sans Frontière », reconnue d’utilité publique en France et dotée d’un statut consultatif auprès de l’ONU, de l’Unesco, du Conseil de l’Europe et de l‘Organisation internationale de la francophonie. La JTI, destinée aux rédactions (100 à 299 collaborateurs) d’entreprises de presse, a apporté sa certification à 1.700 médias dans 85 pays. Par ailleurs, la presse écrite et audiovisuelle subit la concurrence directe de contenus manipulatoires, qui prolifèrent dans l’espace numérique. Dans certains pays, les populations sont ciblées par des campagnes de désinformation, des journalistes sont emprisonnés et des médias indépendants subissent des pressions. C’est pourquoi la France contribue à hauteur de 145 M€ au Fonds international pour les médias d’intérêt public, qui soutient 100 médias dans plus de 30 pays depuis 2022 (début de la guerre de la Russie contre l’Ukraine).

Les ressources documentaires. De son côté, la Délégation à l’information et à la communication de la défense a publié un « Guide de la désinformation » en 2025. Y sont notamment indiqués des sites utiles de vérification des faits : « Les Dessous de l’infox » (RFI) » ; « AFP Factuel » (Agence France Presse) ; « Les Décodeurs » (journal Le Monde) ; « Check News » (quotidien Libération) ; « La vérification » (journal Le Figaro) ; « Vrai ou Faux » (chaîne Franceinfo) ; « Les Vérificateurs » (chaîne TF1) ; « Fake Off » (journal gratuit 20 minutes) ; « Stop Infox » (France Media Monde). Le guide mentionne aussi quelques services spécifiques. Ainsi « Viginum », (Service de vigilance et protection contre les ingérences numériques étrangères) publie des études, rapports et analyses sur les ingérences étrangères visant la France. Le Centre pour l’éducation aux médias et à l’information concerne le système éducatif français. L’Union européenne propose aux jeunes un kit pédagogique pour démêler le vrai du faux sur la navigation en ligne. L’Office des publications européennes fait de même pour les enseignants. Enfin, l’OTAN identifie et démantèle des narratifs russes sur le conflit en Ukraine.

Loïc Salmon

Défense : l’information, champ de bataille dans un monde de crises

CEMA : les menaces des grands pays compétiteurs

Défense : la désinformation, la comprendre puis la contrer




Chine : désinformation et guerre informationnelle

Champ de bataille dans la compétition géopolitique, la désinformation apporte des avantages stratégiques aux régimes totalitaires, sans recourir au conflit militaire. La Chine y investit massivement mais son image s’est profondément dégradée en Occident…qu’elle cible !

Ce thème a fait l’objet d’un colloque organisé, le 6 février 2025 à Paris, par la Fondation pour la recherche stratégique (FRS). Y sont notamment intervenus : Valérie Niquet, maître de recherche à la FRS ; Paul Charon, directeur influence et renseignement à l’Institut de recherche stratégique de l’École militaire.

L’influence et l’ingérence. Dans une note publiée par la FRS le même jour, Valérie Niquet souligne la nécessité, pour les nations démocratiques de mettre en place des stratégies globales et coordonnées pour lutter contre la désinformation, afin de sauvegarder leurs intérêts. Cela nécessite de renforcer l’éducation aux médias et la sensibilisation au numérique pour reconnaître et rejeter les fausses informations et les stratégies de manipulation. Sinon, la désinformation continuera d’être utilisée comme une arme pour affaiblir la confiance des populations des pays démocratiques et accroître les risques de déstabilisation. Des acteurs, étatiques ou non, exploitent les plateformes des médias sociaux pour diffuser de fausses informations exacerbant les divisions au sein des sociétés ou entre les États. Aujourd’hui, grâce aux technologies du cyber, l’ampleur et la rapidité de diffusion de la désinformation la rendent de plus en plus difficile à combattre. En effet, celle-ci se propage six fois plus vite que l’information factuelle. Selon des études, l’efficacité de la vérification des faits nécessite de diffuser des corrections dans un délai d’une à deux heures après l’émission des fausses informations. La prolifération incontrôlée de ces dernières augmente depuis que le média social américain Meta (ex-Facebook), également propriétaire d’Instagram (photos et vidéos), a décidé de mettre fin à la vérification en 2025. De plus, les changements apportés à la politique de modération des contenus ont entraîné une hausse du nombre d’informations fausses et non vérifiées sur X (ex-Twitter). Cependant, mêmes disponibles, les vérifications des faits ne convainquent pas les gens les plus sensible aux opérations de désinformation. En effet, elles peuvent parfois renforcer leurs fausses croyances, au lieu de les corriger, car ces personnes les perçoivent comme motivées par des considérations politiques. Ainsi aux États-Unis, les partisans du président Donald Trump les estiment biaisées et peuvent engager des poursuites judiciaires contre les agences de vérifications des faits et les chercheurs, perçus comme ciblant sélectivement des groupes politiques spécifiques. Cela érode la confiance du public, dont profitent les propagateurs de fausses informations. Par ailleurs, les acteurs étrangers utilisent de plus en plus la désinformation pour peser sur les processus démocratiques des sociétés ouvertes en tentant de manipuler les résultats électoraux. Ainsi, lors des élections présidentielles américaines du 5 novembre 2024, l’opération d’influence « Spamouflage », lancée par la Chine et montée en puissance en octobre, a ciblé les membres du Congrès favorables à Taïwan et prônant une position dure face à Pékin. Des campagnes similaires menées par la Russie, directement ou indirectement, se sont intensifiées dès septembre. Toutes visaient à miner la confiance dans les institutions dans la durée.

La guerre informationnelle. L’ouvrage « L’art de la guerre » du général chinois Sun Tzu (VIème siècle avant J.-C.) fait partie du programme des académies militaires de la Chine depuis les années 1980, indique Valérie Niquet. Outre la tromperie, la guerre de l’information est un principe fondamental de la pensée stratégique chinoise. Sur le plan intérieur, elle vise à renforcer la légitimité du Parti communiste par la censure et la propagande. Sur le plan international, elle façonne les perceptions en vue d’atteindre des objectifs géopolitiques. Elle se décompose en trois : guerre psychologique pour démoraliser l’adversaire par une désinformation et une propagande ciblée ; guerre médiatique par l’emploi des médias de l’État et des plateformes numériques pour façonner des perceptions en faveur de la Chine ; guerre juridique par la manipulation des lois et des normes internationales pour justifier les actions de Pékin en délégitimant ses détracteurs. Aujourd’hui, le recours à l’intelligence artificielle permet de contourner l’obstacle d’une langue orientale rare. La guerre de l’information se manifeste par des campagnes concrètes pour influencer l’opinion publique mondiale et affaiblir la confiance dans les gouvernements démocratiques au niveau régional. Ainsi, en 2023, les médias étatiques chinois ont propagé de fausses allégations sur le rejet des eaux traitées de la centrale nucléaire japonaise de Fukushima et les risques de ressources marines dans tout le Pacifique. Fin 2024, un porte-parole du ministère chinois de la Défense a accusé les forces américaines stationnées au Japon d’actes criminels, pour alimenter le sentiment anti-américain et affaiblir l’alliance entre le Japon et les États-Unis dans le contexte d’un conflit éventuel avec Taïwan.

Les ambitions chinoises. Depuis l’époque soviétique, la Chine continue d’emprunter le répertoire d’actions des services de renseignement de la Russie, indique Paul Charon. Elle veut retirer toute légitimité à l’Occident et en particulier aux États-Unis en contestant l’universalisme de leurs valeurs, qui ne peuvent s’appliquer telles quelles au monde entier. Le gouvernement chinois a décidé de hisser cinq médias au niveau international des chaînes de télévisions CNN (États-Unis) et Al-Jazeera (Qatar) : l’agence de presse Xin hua (services en anglais et en français) ; les quotidiens Global Times(chinois et anglais) et China Daily (anglais) ; Radio Chine Internationale (plusieurs langues) ; la chaîne de télévision CGTN (anglais, français, arabe, espagnol et russe). Il entend aussi contrôler tous les médias en langue chinoise à l’étranger, qui s’adressent aux diasporas chinoises désireuses de s’informer sur leur pays d’origine. China Watch, supplément de huit pages d’articles rédigés par le Parti communiste et mélangeant information et publicité, est proposé à la publication et avec une rémunération à de grands quotidiens, notamment les Wall Street Journal et Los Angeles Timesaméricains, le Times britannique et Le Figaro français. Malgré son peu d’effet direct sur leur lectorat, il crée une dépendance financière qui les incitent à ne pas écrire ce qui pourrait fâcher Pékin. S’y ajoute la diffusion gratuite ou à prix modiques d’articles auprès de médias étrangers, dont l’agence sénégalaise Seneweb, principal média francophone d’Afrique. Outre le rachat de médias étrangers dont le Diario de Noticias et le Jornal de Noticias portugais, la Chine propose des formations de journalisme à des étudiants étrangers pour les encourager à écrire des articles positifs à son égard. Elle forme des Chinois pour influencer les médias sociaux étrangers et recrute aussi des influenceurs étrangers. Par ailleurs, elle construit un pouvoir « discursif », basé sur des techniques de communication pour persuader ou influencer un auditoire. Ainsi, la satire détourne les contes populaires de l’Occident en le ridiculisant avec humour. La caricature par dessins animés s’attaque aux grands symboles de l’Occident pour les discréditer. Ses valeurs sont présentées comme des mystifications destinées à étendre ses intérêts partout dans le monde. La Chine cherche à acquérir une position dominante sur les plans moral et civilisationnel, non pas pour servir de modèle à des pays mais pour les inspirer. Afin de redessiner l’ordre international, médias, intellectuels et universitaires chinois utilisent le concept de « guerre totale » en ce qui concerne la propagande par la création de centres internationaux, au niveau des provinces en Chine, avec la participation d’étudiants étrangers.

Loïc Salmon

Russie : menaces informationnelles contre l’Ukraine et les pays occidentaux

Chine : ingérence et « guerre politique » croissantes

Chine : risque de conflit armé dans le détroit de Taïwan




Russie : menaces informationnelles contre l’Ukraine et les pays occidentaux

L’ingérence numérique russe en Ukraine et dans les pays occidentaux se manifeste par la diffusion de narratifs négatifs pour influencer leurs opinions publiques, en réagissant à l’actualité et en discréditant leurs dirigeants et leurs institutions.

Viginum, service rattaché au Secrétariat général de la défense et de la sécurité nationale, le démontre dans un rapport rendu public à Paris en mai 2025.

Ciblage. Entre août 2023 et mars 2025, « Storm-1516 », mode opératoire informationnel russe, a attaqué l’Ukraine, les États-Unis, la Commission européenne, la France et l’Allemagne au cours de 77 opérations. L’Ukraine a été visée par 35 d’entre elles via le recyclage de narratifs employés par la Russie depuis la Révolution ukrainienne de Maïdan en février 2O14, qui avait entraîné la destitution du président pro-russe Viktor Ianoukovitch et l’annexion de la Crimée. Après le déclenchement de la nouvelle agression russe contre l’Ukraine en 2022, Storm-1516 cherche à la discréditer auprès des audiences occidentales, afin de saper le soutien des populations européennes à l’assistance fournie par leurs gouvernements. Par exemple, ses narratifs accusent l’Ukraine de complicité de terrorisme, en recrutant des membres de l’État islamique pour venir combattre chez elle, ou en organisant des entraînements communs entre des membres de l’organisation palestinienne Hamas (Gaza) et du bataillon Azov (volontaires ukrainiens nazis et ultra-nationalistes). Mais les 14 attaques les plus virulentes sont dirigées contre le président ukrainien Volodymyr Zelensky et ses proches, accusés de détourner l’aide financière occidentale à leur profit personnel. Pendant la période analysée par Viginum, 42 attaques informationnelles ciblent directement l’Occident par des narratifs adaptés à des contextes politiques variés pour affecter durablement les audiences européennes et nord-américaines. Ainsi avant les élections présidentielles aux États-Unis en 2024, les opérateurs de Storm-1516 propagent les théories conspirationnistes comme la mise sur écoutes d’une des propriétés du candidat républicain Donald Trump par le FBI, l’implication de l’ex-président démocrate Barack Obama dans la tentative d’assassinat de ce dernier le 13 juillet 2024 ou encore le financement de l’opposition russe par Washington. Entre avril et novembre 2024, 12 opérations informationnelles ciblent le processus électoral lui-même, dont certaines ont été attribuées au gouvernement russe par les autorités américaines. En Europe, Storm-1516 choisit des thématiques clivantes, liées à l’immigration, ou anxiogènes, relatives au terrorisme (menaces d’attentats du Hamas pendant les Jeux olympiques de Paris). En outre, 20 opérations ont visé les élections européennes de juin 2024, les élections législatives françaises anticipées de juillet 2024 et les élections fédérales allemandes de février 2025. Elles ont cherché à dénigrer un candidat à des élections nationales, soutenir des candidats de partis favorables à Moscou et au positionnement « antisystème » ou remettre en cause l’intégrité du scrutin. Dès le 26 mai 2024, , Storm-1516 a diffusé sur You Tube une vidéo accusant Ursula von der Leyen, présidente de la Commission européenne, d’avoir aidé une entreprise métallurgique russe à contourner les sanctions de l’Union européenne imposées à la Russie après son attaque contre l’Ukraine en février 2022. Cette vidéo, où apparaît une fausse activiste du parti écologiste allemand Die Grünen, a été amplifiée par des comptes à fortes audiences sur le réseau social X (ex-Twitter). La France est ciblée après l’annonce de la dissolution de l’Assemblée nationale le 9 juin 2024. Le 19 juin, les opérateurs de Storm-1516 enregistrent le nom de domaine « ensemble-24.fr» en usurpant l’identité graphique du site officiel de la coalition « Ensemble ». Le faux site « ensemble24.fr » propose aux électeurs une prime de 100 € en échange de leur voix, à condition d’envoyer leur numéro de sécurité sociale à une adresse officielle du parti Renaissance. L’Allemagne est ciblée dès la chute de la coalition du chancelier Olaf Scholz mi-novembre 2024, entraînant la dissolution du Bundestag et des élections législatives le 23 février 2025. Entre le 19 novembre 2024 et le 5 janvier 2025, plus d’une centaine de noms de domaines sont enregistrés et exploités par les opérateurs de Storm-1516.

Falsifications. Depuis février 2024, les opérateurs de Storm-1516 utilisent des outils capables de générer artificiellement des voix ou des images pour rendre crédibles les profils de « lanceurs d’alerte », en mettant en scène des individus à visage découvert, et pour usurper l’identité de personnalités politiques et d’internautes sans lien avec les narratifs. Selon la communauté américaine du renseignement, citée en mai 2024 par le quotidien New York Times, la vidéo accusant la CIA de conduire à Kiev des « fermes à trolls » (internautes, voire hackers, diffusant des messages provocateurs pour susciter une polémique), en faveur du candidat démocrate Joe Biden, contient une voix réalisée de manière synthétique. En octobre, des opérateurs de Storm-1516 publient un faux témoignage mettant en cause Timothy Walz, colistier de la candidate démocrate Kamala Harris. Le même mois et à partir d’un document d’un service de renseignement (SR) européen, le journal Washington Post révèle que le SR militaire russe GRU a aidé un opérateur de Storm-1516 à obtenir un serveur générateur de vidéos et de textes falsifiés par l’intelligence artificielle. Le 31 décembre, le ministère américain du Trésor corrobore cette information par l’annonce de sanctions à l’encontre de plusieurs opérateurs de Storm-1516. Pour rendre crédibles ses narratifs, Storm-1516 y inclut des montages photos et vidéos pour contrefaire logos de médias, affiches de films, registres publics, documents étatiques, factures, articles de presse ou captures d’écran de réseaux sociaux. Il en utilise pour prouver la prétendue existence de transactions compromettantes ou de malversations relatives à des personnalités politiques ukrainiennes. Dans la moitié de ses opérations, les opérateurs de Storm-1516 emploient des acteurs, recrutés en Russie et à l’étranger, pour enregistrer des voix en « off », jouer les lanceurs d’alerte ou intervenir dans une mise en scène.

Diffusion. En analysant 77 opérations informationnelles de Storm-1516, Viginum en a reconstitué les cinq étapes et les principaux vecteurs. La première étape porte sur la planification, qui inclut la conception des narratifs, le recrutement d’acteurs amateurs, la génération de vidéos falsifiées et le montage de photos, audios et vidéos. La deuxième étape ou primo-diffusion concerne les sites internet dédiés, les comptes de réseaux sociaux, les comptes de tierces personnes rémunérées, les comptes X liés au « projet Lakhta » (opération de manipulation et d’influence favorable à la Russie) et des comptes anonymes « jetables », créés pour les besoins d’une seule opération. Les opérateurs de Storm-1516 ont diffusé leurs contenus sur les plateformes You Tube, Instagram, Facebook, TikTok et Rumble mais dont peu de faux comptes, pourtant identifiés comme liés à lui, ont été suspendus. La troisième étape porte sur le « blanchiment » des narratifs, via des médias étrangers rémunérés et des comptes de réseaux sociaux rémunérés. La quatrième étape concerne l’amplification des informations fallacieuses sur de faux sites locaux, des comptes rémunérés, des comptes X liés au projet Lakhta, les chaînes Telegram et les influenceurs BJA et FCI. Les étapes 2, 3 et 4 sont réalisées sur le réseau d’influence russe CopyCop, qui utilise l’intelligence artificielle générative. La cinquième étape porte sur les reprises des contenus falsifiés par d’autres modes opératoires informationnels, le réseau diplomatique russe, les médias liés aux SR russes, les médias d’État russes, les médias biélorusses et les écosystèmes occidentaux favorables à la Russie.

Loïc Salmon

Défense : information falsifiée, internet et réseaux sociaux

Défense : la désinformation, la comprendre puis la contrer

Sécurité : la menace informationnelle visant les Jeux Olympiques et Paralympiques de Paris 2024




Stratégie : influence et puissance

Fonction stratégique, l’influence d’une nation consiste à promouvoir ses atouts auprès des autres pays et ainsi les convaincre de sa puissance. Elle repose sur des acteurs, des techniques et des vecteurs dans le champ des perceptions.

Ce concept complexe a fait l’objet d’un colloque organisé, le 12 juin 2024 à Paris, par l’association 3AED-IHEDN en partenariat avec l’Institut des hautes études de défense nationale (IHEDN). Y sont notamment intervenus : le général de corps d’armée Bruno Durieux, président de l’Académie de défense de l’École militaire ; le général de brigade (2S) François Chauvancy, rédacteur en chef de la revue Défense de l’Union des associations de l’IHEDN ; Charles Thépaut, diplomate spécialisé sur la région Afrique du Nord-Moyen-Orient au ministère de l’Europe et des Affaires étrangères.

Tentatives de définition. L’influence vise à amener les autres à faire, refuser de faire ou les empêcher de faire quelque chose, explique le général Durieux. Elle consiste à infléchir leur comportement sans contrainte et sans qu’ils en aient conscience. Il faut donc bien les connaître, notamment pour les exportations d’armement. Dans ce domaine, les déboires résultent probablement d’une mauvaise compréhension du marché, du client et de son contexte. Les auditeurs de l’IHEDN réfléchissent sur la défense nationale à travers quatre cercles concentriques. Le premier concerne la défense militaire, à savoir la contrainte physique et l’effort de volonté, domaine de la guerre et de la paix où l’influence n’y joue pas un rôle clé. Le deuxième cercle, plus large que celui de la défense nationale et qui intègre le premier, consiste à protéger la population contre toutes les menaces, militaires ou non, qui portent atteinte aux intérêts de la France en tant que puissance dans les domaines de l’économie, de la société, par la subversion, et de la diplomatie. La défense nationale, souligne le général Durieux, ne vise pas à afficher sa volonté mais à affaiblir la puissance de l’adversaire ou, éventuellement, infléchir son influence. Le troisième cercle, qui englobe les deux précédents, porte sur la sécurité nationale et, en ajoutant les risques liés par le champ d’influence, s’étend à la sécurité internationale. Aujourd’hui, le champ politique international a perdu de sa visibilité du temps de la guerre froide (1947-1991) et ouvre un champ plus vaste à l’influence. Il va s’agir de créer des coalitions de circonstance, de rallier des partenaires, y compris dans le champ industriel. En outre, depuis quelques années, la place du secteur privé, à savoir individus, groupes ou grandes entreprises, s’agrandit. Toutefois, le rôle des États conserve son importance primordiale avec des moyens d’influence, qui incluent l’usage du numérique. Il s’agit de savoir comment et pourquoi une influence s’exerce. Cela repose d’abord sur la compréhension de la situation, la connaissance de l’environnement et celle de la « cible ». Ensuite, il faut la volonté d’agir, par exemple en communiquant, et, surtout, de bien élaborer le message à faire passer. C’est vrai dans le débat démocratique, le champ d’influence et celui de la compétition internationale. Il s’agit d’être capable de distinguer la guerre de la paix, les faits de l’opinion sur les faits, l’intérieur de la nation de l’extérieur. Le développement de la pensée stratégique, estime le général Durieux, repose sur une vision à long à terme et la connaissance précise des objectifs à atteindre contre quoi ou vis-à-vis de qui.

Rapports de force. Les États n’ont que des intérêts qu’ils doivent défendre, rappelle le général Chauvancy. Le monde connaît à nouveau la réalité de la guerre, à savoir celle de l’Ukraine contre la Russie depuis le 22 février 2022 et celle d’Israël contre l’organisation islamiste Hamas à Gaza depuis le 7 octobre 2023, ainsi qu’une forme d’insurrection internationale contre l’Occident. Ce discours anti-occidental, comparable à celui de la guerre froide et fortement renouvelé, réactive la guerre informationnelle, stratégie des États communistes pour contourner la lutte armée. Ce bouleversement implique deux impératifs concomitants. Le premier concerne la conception et la promotion des idées et des valeurs de l’Occident ainsi que son action politico-militaire. Le second investit le champ des perceptions sur les plans des valeurs et des émotions pour soutenir la parole publique, tout en participant à la déconstruction des narratifs des pays compétiteurs. L’influence, sixième fonction stratégique après la connaissance-compréhension-anticipation, la dissuasion, la protection-résilience, la prévention et l’intervention, se décline selon quatre axes majeurs. Le premier consiste à concevoir et expliquer les positions politico-militaires énoncées par les autorités étatiques. Le deuxième axe mobilise les différents cercles militaires pour construire des coalitions au sein de l’OTAN ou de l’Initiative européenne d’intervention. Le troisième garantit la circulation de l’information sur l’action en cours et la récupération des analyses des pays partenaires. Il entretient le dialogue avec les pays compétiteurs et les groupes infra-étatiques qui passent par des États tiers. L’influence se diffuse par des réseaux institutionnels, dont les attachés de défense face à la déstabilisation de la France à l’étranger, au sein des organisations internationales et via la recherche stratégique par la connaissance académique. L’influence d’un pays reflète sa puissance, constituée par une économie capable d’infliger des sanctions à l’adversaire, un outil militaire crédible, une culture, résultant d’une langue et d’une histoire communes, et enfin des institutions solides non remises en cause. Il convient d’agir avec détermination et une force mesurée, en évitant de donner des leçons. La guerre redevient une option, notamment contre l’agression des frontières nationales, après une longue période de diplomatie.

Contre-ingérence. Activités hostiles, agressions et polémiques d’origines étrangères dans les pays démocratiques constituent les symptômes de la transformation du champ informationnel au cours des dix dernières années et ouvre des espaces de conflictualité, indique Charles Thépaut. La stratégie d’influence montre la capacité de « rendre des coups », à savoir comprendre la situation puis proposer des options de réponses pertinentes et susceptibles d’exercer des effets dans le champ médiatique. Le ministère des Affaires étrangères a renforcé ses réseaux de veille existantes pour obtenir des remontées beaucoup plus rapides sur les signaux faibles et les dynamiques possibles dans des écosystèmes étrangers, afin d’informer les autorités politiques de ce qui se prépare à l’étranger et risquant de bousculer l’ordre public international. Dénoncer une ingérence étrangère nécessite la connaissance de la menace et la possession de leviers de communication, pour élaborer une explication vis-à-vis de la presse, et non pas des manœuvres de réponses aux contenus erronés sur les réseaux sociaux. Il ne s’agit pas de casser la « viralité » (diffusion rapide et imprévisible de photos et vidéos sur internet) d’une information authentique, mais de partager avec le public un niveau de connaissance de réseaux sociaux qui vont l’induire en erreur ou le manipuler. La seule parole de l’État ne suffit pas à créer de la crédibilité et de la confiance. Mais le partage de données brutes sur des valeurs démocratiques pendant plusieurs semaines permet de valider, de manière indépendante par d’autres États, l’enquête qui sera rendue publique par l’autorité politique. Ainsi dès octobre 2021, les États-Unis ont sensibilisé l’opinion publique internationale par le partage d’analyses et de renseignements sur l’attaque probable de la Russie contre l’Ukraine en 2022. La Commission européenne a élaboré un règlement sur les services numériques, entré en vigueur en août 2023, pour réagir aux menaces et lutter contre la désinformation. Toutefois, la mobilisation dans le champ informationnel, renforcée techniquement par l’intelligence artificielle, ne réduit pas la négociation diplomatique.

Loïc Salmon

Défense : lutte informatique d’influence et respect du droit

Cyber : champ de lutte informatique et d’influence

Etats-Unis : influence religieuse sur la politique étrangère




Sécurité : la menace informationnelle visant les Jeux Olympiques et Paralympiques de Paris 2024

L’audience considérable des retransmissions des Jeux Olympiques et Paralympiques de Paris a offert des opportunités de manœuvres malveillantes par des acteurs étrangers, amplifiées sur les réseaux sociaux et portant notamment sur l’immigration, l’insécurité, l’insalubrité, l’inclusion des minorités et le genre.

En septembre 2024, le Secrétariat général de la défense et de la sécurité nationale a rendu publique une synthèse réalisée par « Viginum », son service technique et opérationnel de vigilance et de protection contre les ingérences étrangères.

Manœuvres informationnelles. La cérémonie d’ouverture des Jeux le 26 juillet a été vue par 41,5 millions de téléspectateurs de la chaîne américaine NBC, soit presque le double de celle des Jeux de Tokyo (23 juillet 2021), et par 24 millions de téléspectateurs de France Télévisions, deuxième meilleur score de son histoire. Les manœuvres étrangères, détectées en amont et durant les Jeux, ont instrumentalisé, de façon planifiée ou opportuniste, tout événement d’actualité en lien avec eux, en vue de quatre finalités. La première portait sur l’image et la réputation de la France en dénigrant sa capacité à accueillir, organiser et sécuriser les compétitions. La deuxième visait à produire de effets économiques en attaquant les parties prenantes des Jeux, les sponsors ou tout autre acteur économique français. La troisième voulait remettre en cause les valeurs universelles et démocratiques. La quatrième cherchait à provoquer ou amplifier des troubles à l’ordre public, afin de perturber le déroulement des événements.

Modes opératoires. Entre avril 2023 et le 8 septembre 2024, Viginium a identifié 43 manœuvres internationales ayant ciblé les Jeux. Parmi elles, la fausse bannière consiste à utiliser les marques de reconnaissance d’un adversaire pour semer la confusion. Ainsi, sur X, Facebook et Telegram (pro-russe), une vidéo a montré un membre du Hamas menaçant les Jeux, accusant la France de soutenir Israël et dénonçant la participation d’athlètes israéliens. L’amplification d’actions dans le champ physique utilise des affichages ou des tags dans des lieux publics pour générer des publications sur des plateformes en ligne en faveur d’une cause. Ainsi, la photo d’une publicité sur un abribus à Paris, ciblant la délégation israélienne, a été massivement reprise sur X, en majorité par des comptes propalestiniens. Sur Telegram, Facebook et X, des photos de graffiti ont représenté deux mains se transmettant une arme au-dessus des logos des Jeux Olympiques de Munich (1972), où onze athlètes israéliens ont été assassinés par l’organisation terroriste palestinienne « Septembre Noir ». Un « doxxing » a divulgué en ligne des données personnelles sur des athlètes israéliens en les accusant de crimes de guerre. Des comptes pro-iraniens ont diffusé des visuels, réalisés avec l’intelligence artificielle (IA) en utilisant le logo d’Amnesty International, lesquels montrent des athlètes israéliens agressant des civils palestiniens et appellent au boycott de la délégation israélienne. L’écosystème numérique pro-iranien a créé un environnement hostile aux athlètes israéliens et accusé le Comité international olympique de « double standard » entre eux et les athlètes russes et biélorusses, obligés de concourir sous une bannière neutre. Des contenus audiovisuels originaux, mais inexacts et trompeurs, ont été produits et diffusés. Une vidéo réalisée avec l’IA, affirmant que la Seine est aussi polluée que le Gange en Inde et que l’air de Paris serait trop nauséabond pour les athlètes, a été diffusée sur des plateformes chinoises. La vidéo d’une influenceuse étrangère sinophone critiquant les Jeux a été vue plus de deux millions de fois sur diverses plateformes. Le dispositif pro-russe Matriochka a utilisé la charte graphique de la DGSI ou de la CIA pour affirmer que le niveau de risque terroriste était trop élevé pour assurer la sécurité.

Loïc Salmo

Défense : les contributions des armées aux Jeux Olympiques 2024

Défense : contributions des armées à la sécurisation des Jeux Olympiques 2024

Défense : le CNSD, pôle d’excellence militaire et sportive

 




Défense : la désinformation, la comprendre puis la contrer

Les outils numériques sont devenus un champ de bataille, où les discours de propagande sur les réseaux sociaux visent à saper la démocratie. La résilience, qui doit préserver la liberté d‘expression, commence par la formation des citoyens.

La désinformation a fait l’objet d’un colloque organisé, le 3 juin 2024 à Paris, par l’Académie de défense de l’École militaire (ACADEM). Y sont notamment intervenus : le général de corps d’armée Bruno Durieux, président de l’ACADEM ; Marc-Antoine Brillant, chef du service de vigilance et de protection contre les ingérences numériques étrangères, organisme créé en 2021 et rattaché au Secrétariat général la défense et de la sécurité nationale ; le général de brigade Pascal Ianni, chef de la cellule « Anticipation stratégique et orientations » de l’État-major des armées ; Frédérick Douzet, directrice de « Géopolitique de la datasphère » à l’Université Paris 8.

Lever les ambiguïtés. Il faut d’abord distinguer la ruse de guerre et la désinformation du temps de paix, souligne le général Durieux. Considérer la désinformation comme un acte de guerre introduit une sorte de « complexe obsidional » (sentiment d’être assiégé ou persécuté), guère souhaitable dans une démocratie. La désinformation se distingue de l’opinion dissidente, expression de la liberté de contester. Il s’agit de distinguer les faits du jugement sur les faits, l’objectivité de la subjectivité. Le refus de la vérité factuelle facilite la désinformation. Celle-ci, planifiée de l‘extérieur, se distingue de la rumeur correspondant à un état de l’opinion. Les entreprises de désinformation, contrôlées par des puissances étrangères ou, parfois, par des groupes terroristes, cherchent à instrumentaliser le fonctionnement des nations démocratiques. Elles portent atteinte à la légitimité des institutions en distillant le doute sur la probité ou la capacité des élites avec le risque de réactions de défiance envers le fonctionnement de la démocratie. Or la chasse à une opinion mensongère, demi-mensongère ou très peu mensongère conduit très vite à la dictature. La lutte contre la désinformation, estime le général Durieux, passe par la formation des citoyens pour leur permettre de juger les faits et sur ce qui est dit des faits, par la culture générale, le développement des convictions et le débat sans restriction.

Circonscrire les menaces. Les réseaux sociaux et les plateformes en ligne deviennent la fabrique de l’opinion publique, indique Marc-Antoine Brillant. La menace touche tous les enjeux du débat public, tous les sujets et toutes les thématiques, afin de pouvoir instrumentaliser très rapidement des faits de société ou d’actualité, des événements ou des conflits en manipulant l’information. L’intelligence artificielle générative permet de créer très vite du faux contenu, crédible et réaliste, sur internet pour animer, avec une activité quasiment humaine, des photos sur les réseaux sociaux puis de les coordonner et les diffuser sur plusieurs plateformes pour saturer un débat public. Ce mode opératoire, emprunté à la cybercriminalité, usurpe numériquement une identité, en créant un site web dans un domaine très proche de la sphère électorale. En France, les chartes graphiques de grands médias ont été imitées pour y diffuser du contenu assez éloigné de leurs normes habituelles. Même l’identité du ministère des Affaires étrangères et celle du ministère de l’Intérieur ont été usurpées, grâce à des technologies encore plus sophistiquées. Une deuxième menace porte sur « l’intermédiation », quand les commanditaires recourent à des sous-traitants, issus de l’intelligence économique, de la communication numérique ou du marketing, pour desservir un thème particulier. Ainsi, lors des élections présidentielles aux États-Unis (2020) et en France (2022), des puissances étrangères (Russie et Chine) ont dénigré les institutions chargées du processus électoral et tenté de promouvoir la candidature d’un parti politique. Une troisième menace consiste à instrumentaliser le débat sur une thématique clivante, par exemple sur les violences policières ou l’immigration, pour cibler une catégorie de citoyens. Une autre stratégie concerne le dénigrement des médias traditionnels pour entraîner leur audience sur des médias alternatifs pratiquant la désinformation. La résilience, indique Marc-Antoine Brillant, implique la sensibilisation du public par la publication de rapports. Des instances interministérielles se réunissent à cet effet très régulièrement pour partager des informations. Il s’agit de dévoiler l’adversaire et ses infrastructures puis de le gêner en révélant ses adresses IP. A un moment donné, il va devoir réfléchir, modifier sa stratégie et riposter.

Créer un écosystème de riposte. La Chine, la Russie, et l’Azerbaïdjan exercent sur les armées une menace permanente, massive et rationnelle dans le champ informationnel, souligne le général Ianni. Il s’agit alors de gagner la bataille des perceptions, qui dépasse le symbolique et s’inscrit dans une sorte de dialectique, qui oppose un champ narratif du Sud à un champ narratif du Nord, notamment par la production cinématographique de l’organisation paramilitaire russe Wagner en Centrafrique. Il s’agit, par un effet miroir mais dans le respect de la démocratie, d’occuper l’espace informationnel, de le saturer et de ne pas rester uniquement dans une posture défensive. Cela passe par la production, en masse et de façon cohérente, de l’information, de photos et de dessins animés en langues locales. En Afrique, la musique rap et le sport constituent d’importants vecteurs d’influence. Faute de suivre le rythme de l’intelligence artificielle générative, il deviendra difficile, dans quelques années, de distinguer le vrai du faux. La notion d’influence stratégique relevant de la sécurité nationale, la France en discute avec la Suède, l’Estonie et l’Italie, confrontées à la désinformation, indique le général Ianni. Les adversaires utilisent les vulnérabilités des démocraties, notamment la liberté d’expression et celle de la presse.

Arriver à penser des solutions. Quoique phénomène très ancien, la désinformation bénéficie aujourd’hui de la révolution numérique, qui accélère la diffusion de l’information, et de l’intelligence artificielle, qui permet l’industrialisation de la production et la falsification de contenus à grande échelle. Il s’ensuit des interactions multiples, complexes et permanentes, estime Frédérick Douzet. Ces phénomènes sont d’autant plus difficiles à combattre qu’ils se déroulent dans un environnement intrinsèquement dual, à la fois civil et militaire. Sur les théâtres d’opérations, les armées françaises et occidentales sont confrontées quotidiennement à des manœuvres informationnelles pour délégitimer leurs actions, provoquer un rejet par les populations locales et causer des dommages profonds à leur réputation. Les acteurs manipulent les infrastructures de l’internet pour contrôler le chemin des données et de l’information, en vue d’enfermer les populations locales ans des « bulles cognitives » et, par ailleurs, de susciter ou nourrir des controverses pour activer le clivage des sociétés occidentales et les pousser à renoncer à leurs valeurs. La résilience, souligne Frédérick Douzet, nécessite d’imaginer les nouveaux cadres de la démocratie à l’ère de la révolution numérique. Il s’agit de réfléchir à comment ne pas subir ces phénomènes et tirer parti des possibilités numériques pour restaurer la confiance dans les médias et les institutions démocratiques, tout cela dans un cadre juridique solide. La gouvernance et la régulation de l’écosystème numérique impliquent tous les acteurs publics et privés. La résilience nécessite un travail de sensibilisation et d’éducation, afin de favoriser l’esprit crique ou la capacité de discernement. Il s’agit d’un travail culturel destiné à favoriser l’émancipation des citoyens grâce à l’apport de la recherche dans toute les disciplines, notamment les mathématiques, l’informatique, les sciences sociales et les sciences cognitives.

Loïc Salmon

Guerre de l’information et information de guerre

Soldat de la cyberguerre

Défense : les forces morales, la nation et son armée




Défense : les forces morales, la nation et son armée

Israël a riposté militairement à l’agression terroriste de l’organisation islamiste palestinienne Hamas du 7 octobre 2023. Son armée, constituée essentiellement de conscrits et de réservistes, s’appuie sur la cohésion nationale, principale force morale d’un pays démocratique menacé.

Les forces morales ont fait l’objet d’un colloque organisé, le 15 janvier 2024 à Paris, par le Centre de recherche de Saint-Cyr Coëtquidan (CReC). Y sont notamment intervenus : le général de corps d’armée Bruno Baratz, chef du Commandement du combat futur ; Jean Tenneroni, contrôleur général de armées (2 S) ; Clara Sueid, Institut de recherche biomédicale des armées ; le chef d’escadrons Erwan de Legge de Kerlean, Académie militaire de Saint-Cyr Coëtquidan.

Des aspects militaire et stratégique. La guerre, confrontation de deux sociétés et de deux volontés, s’articule entre le peuple, les forces armées et le gouvernement, souligne le général Baratz. Le renforcement des forces morales de la nation constitue un sujet d’intérêt militaire, car les armées expriment l’ordre social dont elles émanent. L’ardeur des combattants reste intimement mêlée à la psyché collective de ceux qu’ils protègent. Une nation, qui aurait perdu tout esprit de défense, devrait disparaître, faute de défenseurs. Au centre de l’efficacité opérationnelle, les forces morales des soldats leur permettent d’affronter la violence des combats avec le pouvoir exorbitant de donner la mort. L’acceptation de risquer leur vie repose sur la certitude de leur engagement. En France, la suspension du service national et la bascule vers une armée de métier ferment la parenthèse de la nation en armes et des citoyens soldats, sous l’influence des dividendes de la paix après l’implosion de l’Union soviétique en 1991. L’attaque de la Russie contre l’Ukraine, le 24 février 2022, marque, pour la France, la fin des engagements militaires choisis. Sa première ligne de défense réside dans ses citoyens attachés à leur pays et à sa préservation. Sur le plan des moyens militaires, les applications parfois inattendues des innovations du domaine civil peuvent apporter un appui technique, par exemple l’importance prise par les drones. Toutefois, jamais une machine, quel que soit son degré d’autonomie décisionnelle, ne pourra assumer la responsabilité des destructions causées. En outre, l’homme adaptera ses modes d’actions pour la contourner. De plus, l’esprit de résistance se dresse inexorablement au sein des communautés humaines face à un occupation territoriale ou une oppression étrangère. Un document du chef d’État-major des armées, daté de juillet 2023, précise quatre champs d’action des militaires. Le champ physique vise à améliorer la puissance et la rusticité du corps pour développer l’endurance et la résistance dans le champ physiologique. Le champ psychologique permet d’absorber les chocs de la violence de la guerre dans un champ de bataille rendu plus dangereux par sa transparence. Enfin, le champ métaphysique donne du sens à l’action.

Les paramètres du moral. L’action matérielle du combat se distingue de sa puissance de destruction et de son action morale, à savoir la crainte qu’il inspire et la peur, explique Jean Tenneroni. D’une manière générale, différents paramètres affectent le moral des troupes : différences des champs de bataille liées à la température, aux intempéries, à l’altitude, à la végétation et à l’urbanisation ; état physique des combattants, faim et soif ; marche en avant, retraite ou attente ; isolement ou encerclement ; horreurs du champ de bataille ; usure, guerre des nerfs consécutive aux conflits de longue durée ; blessés et morts parmi les camarades. Des composantes plus profondes entrent en jeu : différences selon les milieux (terre, air et mer), l’arme et le poste de combat ; différences entre les personnalités, les sexes, les milieux d’origine et les cultures ethniques ; volonté de vaincre à tout prix ; patriotisme, traditions et éducation morale ; confiance dans le matériel, les chefs et les camarades. Or la prééminence du facteur technique tend à effacer les forces morales. Après la guerre d’Algérie (1954-1962), les armées françaises ont été réorganisées autour de la dissuasion nucléaire. Le militaire est devenu un technicien, servant d’une arme et qui risque moins sa vie, notamment le pilote de drone tueur très loin de sa cible. Pourtant, les forces morales resurgissent avec la guerre en Ukraine. L’ardeur, la combativité et la résilience démultiplient l’efficacité et catalysent l’énergie. Les forces morales s’étendent à la nation face aux grands chocs causés par la guerre extérieure, le terrorisme de masse, les émeutes intérieures et la pandémie. Le dispositif actuel les entretient par le soutien symbolique aux armées via les défilés, les hommages nationaux et les cérémonies militaires. S’y ajoutent les recrutements de militaires d’active et de réserve et les actions des institutions pour renforcer le lien entre les armées et la nation.

La nécessaire voix du chef. La parole transmet un message rapidement compréhensible, efficace et détaillé, mais la communication du commandement doit aller au-delà des mots, explique Clara Sueid. Selon des expérimentations conduites en 2012, 2017, 2019 et 2022, la perception de l’autorité se manifeste via le timbre de la voix, dont la modulation permet de transmettre autorité et compétence. Il s’agit de comprendre l’information non verbale présentée par la voix, à savoir les émotions de calme ou de peur. La perception d’un chef, homme ou femme, passe donc par le timbre de sa voix. Il est en effet possible d’inspirer confiance par la voix…en moins d’une seconde ! Des études entreprises en 2021 montrent que l’intelligence artificielle pourrait reconnaître et synthétiser des émotions dans un futur proche, mais les êtres humains préfèrent parler avec quelqu’un comme eux plutôt qu’avec un robot. La contribution de la voix aux forces morales subit des contraintes. Ainsi sa dégradation affecte la compréhension pour des raisons acoustiques (bruit et filtrage par la radio), auditives ou cognitives (communications multiples sous casque). La surcharge cognitive apparaît quand le cerveau reçoit trop d’informations à traiter. Toutefois, le « son 3D », mis au service des forces morales, améliore la compréhension des messages radio et diminue la charge cognitive. Il restitue l’écoute naturelle, non pas en stéréo mais en trois dimensions.

Le vécu du terrain. Le métier militaire, basé sur des relations humaines, se travaille au quotidien, rappelle le chef d’escadrons de Legge de Kerlean. La connaissance des camarades passe par l’émotion, transmise par les gestes, le regard et la voix. La technologie déportant le combat, la voix reste le seul lien entre le subordonné et son chef. Celui-ci, situé parfois à des dizaines de kilomètres, va comprendre l’état de la situation tactique via l’émotion du subordonné, manifestée par un petit bégaiement ou un changement radical de vocabulaire lors d’un accrochage avec l’adversaire. Le déclenchement d’une embuscade provoque un effet de sidération qui fige les combattants. Le silence radio immédiat libère le réseau prioritaire du chef lointain, qui donne des ordres simples et rassurants pour sortir très vite de sa torpeur le subordonné qui se ressaisit, parce qu’il reconnaît la voix. Cette communication, émotions comprises, permet de débloquer des situations et d’enrichir le compte rendu de l’action. En fait, les militaires apprennent à maîtriser leur stress pour pouvoir remplir leur mission. Mais masquer ses émotions comporte le risque d’en faire trop au cours de la mission et…de ne pouvoir la remplir complètement. Dans un hélicoptère, l’équipage capte de nombreux réseaux radio, parfois difficiles à discriminer. La technologie permet d’éviter cette surcharge et d’identifier tout de suite le bon interlocuteur. Le commandant de bord y gagne en efficacité. Lors de l’entraînement, certains chefs ayant vécu des situations similaires suscitent immédiatement la confiance parmi leurs subordonnés, qui éprouvent un « sentiment de liberté pour exécuter les ordres ».

Loïc Salmon

Défense : les forces morales, histoire et culture

Opex : de la détermination politique à l’engagement militaire

Armée de Terre : le soldat, entraînement et protection




Armée de Terre : l’IA dans la préparation de la mission

En raison de la numérisation du champ de bataille, le chef militaire va déléguer certaines tâches à des système intégrant l’intelligence artificielle (IA). Les modules IA, intégrés dans la chaîne de commandement, doivent permettre un contrôle humain et la permanence de la responsabilité de la hiérarchie militaire.

L’impact de l’IA sur le commandement militaire a fait l’objet d’une journée d’études organisée, le 28 septembre 2023 à Paris, par la chaire IA du Centre de recherche Saint-Cyr Coëtquidan (CReC) et le groupe Nexter (architecte et systémier intégrateur pour les forces terrestres) avec la participation de Naval Group (construction navale de défense). Y sont notamment intervenus : Nicolas Belloir, chercheur au CReC ; Ariane Bitoun, directrice de la recherche et de l’innovation au MASA Group (IA et robotique de défense) ; le capitaine Romain Berhault, chef du Centre géographique d’appui aux opérations, 28ème Groupe géographique.

Selon le concept de « l’Intelligence artificielle » du bureau Plans de l’État-major de l’armée de Terre de février 2020, l’IA est, pour l’armée de Terre, un module imbriqué dans une synergie homme/système qui facilitera les prises de décision des chefs et démultipliera leur action dans le but d’améliorer les performances opérationnelles et fonctionnelles. La lutte informationnelle accompagne désormais l’action militaire.

Détecter la désinformation. Une « fake news », information erronée mais vérifiable, se compose de faits faux basés sur des faits réels, explique Nicolas Belloir. Elle dispose d’une capacité de nuisance importante, qui entre dans le cadre d’une campagne de désinformation, Elle vise à influencer une personne ou un groupe de personnes pour les amener à changer d’avis sur un sujet donné par une distorsion entre des faits réels et des faits erronés. Pour accroître la visibilité de son message, elle va utiliser une autorité, réelle ou non, à savoir un expert reconnu qui donne un avis sur un domaine qui n’est pas le sien ou même un pseudo-expert. Il s’agit de lancer une « bombe émotionnelle », qui va susciter colère, tristesse, honte ou joie de manière à arriver à une conclusion implicite. La capacité de nuisance d’une fake news se révèle très élevée pour un coût très bas. Par exemple, il suffit d’écrire un petit texte sur un réseau social ou d’y diffuser une photo prise dans un contexte un peu particulier pour créer un mécanisme de désinformation. Lors de la pandémie du Covid-19 en 2020, une douzaine de comptes ont produit 65 % de la désinformation sur les vaccins. Cela représente une attaque informationnelle avec une vision stratégique de type multi-vecteurs. Face à la diffusion rapide de fake news incontrôlables, un démenti doit être crédible pour en démontrer la fausseté, malgré la difficulté à convaincre le public. Dans une civilisation basée sur l’idée, les outils de l’IA permettent d’expliquer cette démonstration d’un point de vue scientifique, en modélisant un concept qui sera ensuite enrichi grâce à des algorithmes. Cela nécessite une approche pluridisciplinaire impliquant des sociologues, des juristes et d’autres spécialistes. Les outils de l’IA vont rechercher les informations sur les lieux, dates et personnes avec un traitement du langage naturel pour récupérer les faits et les sentiments afin d’identifier la « bombe émotionnelle » cachée.

Comprendre la situation tactique. Le MASA Group développe des solutions logicielles à partir de simulations et d’IA, en vue de modéliser des comportements humains intelligents et autonomes, indique Ariane Bitoun. Ces solutions servent à la planification d’une opération, la compréhension de situations tactiques complexes, la stimulation d’outils d’analyse de données tactiques, l’estimation des futurs possibles et la rationalisation des plans conçus par des outils d’IA. La simulation intelligente Sword/Soult de MASA Group, utilisée pour la formation, l’entraînement et l’analyse opérationnelle, contient une base de données ouverte d’équipements, d’objets, d’unités et de leurs effets. Elle dispose aussi d’une base de données ouvertes sur les missions opérationnelles et d’une connaissance partielle de leur environnement par les unités. Le « wargaming » (jeu de guerre) analyse les modes d’action pour évaluer la capacité d’une unité donnée à remplir sa mission, face aux unités adverses identifiées, et en corriger les faiblesses éventuelles Il permet au commandant de la force de synchroniser les actions, de visualiser le déroulement de l’opération et d’identifier les conséquences de telle ou telle action de l’adversaire et de les contrer. Certains modèles de simulations sont basés sur l’attrition, les probabilités de toucher/détruire et celles de pannes. Ils permettent de jouer sur des paramètres comme la météo, l’illumination et l’environnement jour ou nuit. Les capacités de détection d’une unité dépendent de ses contextes tactique et géographique, à savoir le terrain, les senseurs, sa vitesse de déplacement et la direction principale observée. Chaque mission ayant un effet principal attendu, il est possible de disposer d’une vue tactique basée sur les effets appliqués sur le terrain et/ou l’adversaire, grâce au soutien et au renseignement. La simulation calcule, pour chaque unité, une estimation de son rapport de force local en fonction de sa connaissance de l’adversaire. Ainsi, un rapport de force défavorable présente un risque élevé pour la mission, tandis qu’un rapport de force favorable implique une forte probabilité de succès. Quand l’adversaire est détecté, il devient possible de visualiser l’évolution locale de la manœuvre et les principales zones de combat. Sont aussi à l’étude : l’intégration automatisée de données tactiques réelles dans la simulation ; l’autonomisation des manœuvres adverses ; l’amélioration des algorithmes existants d’estimation des positons adverses futures ; la reconnaissance de modèles d’ordres de bataille adverses ; la reconnaissance de comportements adverses, en vue des prévisions de rapport de forces locaux.

Algorithme et expérience du terrain. La carte géographique est devenue une base de données utilisables aux niveaux stratégique, opératif et tactique, explique le capitaine Berhault. Le géographe s’en sert pour élaborer de produits thématiques en vue d’aider les chefs dans leur appréciation de situation et dans leurs prises de décisions opérationnelles. Les algorithmes permettent de gagner du temps et d’augmenter les délais en apportant des réponses aux interrogations de l’état-major pour la planification et la conduite des opérations. Certains produisent de dossiers généralistes de pays et de régions. Ainsi chat GPT rédige des scripts en « Python », langage de programmation pour automatiser des tâches répétées fréquemment à la main. Toutefois, il se base sur l’occurrence fréquente d’une information pour la qualifier de pertinente. Mais grâce à la « Machine Learning » (forme d’IA pour créer des systèmes qui apprennent), il est possible de déterminer un type de bâtiment (maison ou immeuble) en fonction d’une surface au sol et d’un nombre d’étages et de classer des routes. Mais aujourd’hui, l’algorithme ne s’adapte pas encore aux spécificités du terrain, de la manœuvre ou du niveau d’emploi d’une unité. Le terrain est un mur rempli de briques logiques, explique le capitaine Berhault, mais la maîtrise de ces briques relève souvent de l’expérience empirique. Dans un futur proche, un algorithme pourra peut-être englober toutes ses spécificités en y ajoutant des composantes complémentaires comportementales et humaines, la doctrine d’emploi des forces et l’engagement sur le terrain. Mais actuellement, seul le regard du géographe peut apprécier la qualité du produit rendu par l’algorithme. Sa capacité à conceptualiser le terrain et s’y projeter, en y appliquant les contraintes induites, pourra faire parler la carte, devenue un objet de communication compréhensible par tous et aussi un outil de travail permettant aux spécialistes de raisonner dans leurs disciplines respectives.

Loïc Salmon

Défense : l’IA, facteur décisif de supériorité opérationnelle

Défense : l’IA dans le champ de bataille, confiance et contrôle

Armement : l’IA dans l’emploi des drones aériens et sous-marins




Renseignement : les « sources ouvertes », nouvelles perspectives

Internet et réseaux sociaux rendent le monde transparent en temps quasi réel. Combinés à l’intelligence artificielle, ces « OSINT », renseignements gratuits en source ouverte, apportent un appui indispensable à la presse, à la recherche académique et aux enquêtes criminelles.

Ce thème a été débattu lors d’une table ronde organisée, le 5 juin 2023 à Paris, par l’Institut des hautes études de défense nationale (IHEDN). Y sont notamment intervenus : le général de corps d’armée Benoît Durieux, directeur de l’IHEDN et de l’enseignement militaire supérieur ; Alexandra Jousset, journaliste et productrice de l’émission « Sources » sur la chaîne de télévision Arte ; Kevin Limonier, maître de conférences en géographie et études slaves à l’Université Paris 8 ; Frédéric Lenfant, expert judiciaire.

L’OSINT. Le renseignement en source ouverte, « open source intelligence » (OSINT) en anglais, existe depuis longtemps, mais les nouvelles technologies de l’information l’ont transformé, souligne le général Durieux. Dans le monde du renseignement, il s’agit de savoir ce qui est accessible en source ouverte mais aussi de savoir ce qui ne l’est pas ou ce qui ne l’est pas encore. Tout le monde peut suivre de façon assez précise le conflit en Ukraine, sans avoir accès aux chroniques des services de renseignement, à condition de bien choisir les sources de vérification et de les mettre en concurrence. Inversement, les militaires et les personnes intéressées par la défense et la sécurité nationale cherchent d’abord à connaître ce qui reste masqué dans ce conflit. Ensuite, dans ce contexte de transparence apparente, il s’agit d’élaborer les futures opérations possibles de « déception » au sens militaire du terme, à savoir principes, manœuvres et moyens techniques pour inciter l’adversaire à réagir de façon préjudiciable à ses intérêts. Mais pouvoir tout savoir soulève la question éthique des dérives possibles d’une transparence totale.

L’investigation de presse. Le documentaire intitulé « Les mercenaires russes Wagner » sur Arte a été réalisé avec l’aide de journalistes spécialisés dans l’OSINT, indique Alexandra Jousset. Ils ont récupéré des données sur les échanges de Wagner avec des entreprises en Centrafrique et à Madagascar, complétant l’enquête sur le terrain (témoignages de mercenaires). Chaque semaine, la découverte de nouveaux outils permet de vérifier si une photo a été truquée ou de récupérer des données sur le suivi de bateaux. Il faut vérifier les informations au moyen de bases de données publiques, de listes de sanctions ou de déclarations fiscales. Grâce à des images satellites, le quotidien américain New York Times a établi la véracité du massacre de Boutcha en Ukraine (27 février-31 mars 2022) par l’armée russe, qui l’avait accusé de désinformation. Les images d’un drone, transmises aux médias français, ont permis de démontrer la mise en scène par Wagner d’un faux charnier au Mali pour discréditer l’armée française. Les « fuites » de données que reçoivent les journalistes ne sont publiées, en toute indépendance, qu’après consultations d’avocats ou de juristes, précise Alexandra Jousset.

La recherche académique. Étude des phénomènes de pouvoir sur un territoire, la géopolitique inclut la maîtrise des réseaux qui maillent le cyber, explique Kevin Limonier. Les traces numériques de l’OSINT rendent visibles de nouvelles formes de réseaux encore totalement invisibles il y a quelques années et permettent de cartographier des pans entiers de logiques de pouvoir. Le protocole BGP, qui structure internet, fait apparaître la configuration des routeurs de données. Depuis l’invasion de la Crimée en 2014, la Russie a rerouté les données locales vers des points d’échange à Moscou sans passer par l’Ukraine. Pendant la guerre civile dans le Donbass, la détection des manipulations de routeurs communiquait des informations sur l’espace occupé par les belligérants. Leur recoupement à des niveaux géopolitiques fournissait une information stratégique sur l’évolution de la ligne du front. Aujourd’hui, dans les territoires occupés par la Russie, les populations n’ont accès à internet que via les pares-feux et les sources des autorités russes. Lors de la libération de villages par les chars et véhicules blindés ukrainiens, une camionnette de télécommunications suit pour rebrancher les réseaux. Par ailleurs, la guerre en Ukraine marque une véritable rupture dans le comportement des autorités politiques américaines, qui ont révélé l’imminence de l’invasion russe mais sans démontrer comment elles le savaient pour ne pas compromettre des sources et des procédés, notamment de renseignement électronique. Plutôt que de garder secrètes ces informations, elles ont préféré exposer l’intention de la Russie avant qu’elle agisse. La recherche académique cherche à comprendre comment la Russie délègue son influence et son activité géopolitique dans certaines régions du monde à des entreprises, comme la société militaire privée russe Wagner en Afrique, et d’en analyser le modèle économique. Par ailleurs, l’OSINT permet d’utiliser des outils numériques à des fins ethnographiques. Toutefois, le « terrain numérique » ne remplacera pas l’enquête sur le terrain réel, qui deviendra de plus en plus difficile en Russie, indique Kevin Limonier.

L’enquête criminelle. Frédéric Lenfant, qui a effectué des enquêtes judiciaires de gendarmerie, rappelle que l’expression du besoin constitue la première étape du renseignement. L’OSINT d’origine cyber permet de récupérer de l’information à analyser pour compléter ce qui est déjà connu en interne ou par d’autres canaux, en vue de décider et réaliser une opération qui répond au besoin initial. Par exemple dans une enquête sur la fraude, il s’agit de confronter des faits pour trouver des points communs, en vue d’un élément d’identification (donnée très technique) du fraudeur, qui veut rester le plus anonyme possible. Certains outils d’OSINT permettent de remonter jusqu’à une personne morale, puis physique pour identifier des lieux, des numéros de téléphone et des adresses de courriels à recouper pour matérialiser une organisation criminelle et ses modes opératoires, utilisables par d’autres. Les nombreux outils et sources accessibles sur internet comme « societe.com » proposent de multiples éléments à agréger pour obtenir une synthèse globale, notamment sur la corruption ou le blanchiment du financement du terrorisme. Ils permettent aussi la réversibilité de l’investigation par la traçabilité, en sens inverse, de son cheminement du point de départ jusqu’à celui d’arrivée. Toutefois, il convient, pour les services régaliens, de ne pas diffuser l’analyse d’informations recueillies en source ouverte, en raison des conséquences publiques éventuelles pour le suivi de l’enquête et l’intérêt des acteurs. En outre, une enquête repose sur la légalité de la preuve. Cela exclut l’usage de données recueillies sur internet par piratage avec le risque d’accusation de recel. En revanche, une « fuite » de donnés publiée sur un site de lanceurs d’alerte peut contribuer à l’enquête sur une personne morale étrangère et…à l’interrogatoire de personnes physiques ! Par ailleurs, la technologie permet d’usurper la voix d’une personne en lui faisant dire ce qu’elle n’a pas dit et, au moyen de l’intelligence artificielle, lui ajouter un masque lui ressemblant. Toute la difficulté réside dans la discrimination du vrai du faux. Dans la guerre en Ukraine, chaque citoyen devient acteur en filmant beaucoup d’événements avec son téléphone portable et en les diffusant ensuite sur les réseaux sociaux. Le risque existe d’une manipulation volontaire de l’information…en vue d’une interprétation servant l’intérêt de l’auteur de sa diffusion ! Son amplification par les réseaux sociaux lui donne une certaine « crédibilité », qui va influencer l’opinion publique. Enfin, tout passage sur internet laissant des traces, les progrès de chiffrement compliquent la collecte discrète d’informations récupérables en sources ouvertes.

Loïc Salmon

Renseignement : innover sur les plans technique et conceptuel

DRM : des moyens de haute technologie pour le recueil de renseignements

Cyberdéfense : soutien pour le renseignement, la protection, la prévention et l’action