Entretien sur la guerre cognitive et les biais cognitifs avec le commandant Samuel Henry

Publications

[ INTERVIEW ]

-------------------------------------------

Entretien sur la guerre cognitive et les biais cognitifs avec le commandant Samuel Henry

Propos recueillis par Dacha Clermontel, membre du Comité Culture et Influences et rédactrice du Pôle Guerre informationnelle / Guerre cognitive.

À propos de l'invité

Samuel Henry

Le commandant Samuel Henry est officier de l’armée de Terre. Dans le cadre de sa scolarité à l’École de Guerre, il a rédigé et soutenu un doctorat professionnel sur les biais cognitifs dans la prise de décision. Il sensibilise le grand public et la jeunesse aux enjeux informationnels en publiant fréquemment du contenu sur sa page LinkedIn ou en intervenant à des formations et conférences.

À PROPOS DE L’INTERVIEW

L’entretien se divise en trois parties. La première est conceptuelle : elle intègre des questionnements relatifs à la compréhension de la guerre cognitive et aux différents enjeux qui la composent. La deuxième s’inscrit autour de plusieurs cas concrets liés à la guerre cognitive en se concentrant majoritairement sur l’utilisation des réseaux sociaux. Enfin, la dernière partie a pour vocation de donner les outils et solutions envisageables afin d’être capable de lutter contre les impacts de la guerre cognitive.

INTERVIEW

Les Jeunes IHEDN (LJI) : Pourriez-vous vous présenter brièvement et nous parler de votre parcours ?

Samuel Henry (SH) : Je suis le commandant Samuel Henry, officier de l’armée de Terre. J’ai servi durant toute ma carrière opérationnelle à la Légion étrangère avant de rejoindre l’École de guerre.

J’ai d’abord été instructeur des légionnaires pendant un an, puis j’ai passé sept ans au 1er Régiment étranger de génie. De lieutenant à capitaine, j’ai commandé une section, puis une compagnie. Ensuite, j’ai intégré le groupement de recrutement de la Légion étrangère, où j’ai servi quatre ans, d’abord comme commandant d’une compagnie, puis comme coordinateur du recrutement, à la tête du bureau recrutement-sélection. C’est alors que je me suis intéressé aux techniques de marketing appliquées au recrutement.

J’ai eu la chance de réussir le concours de l’École de guerre à cette période. Pour les jeunes lauréats, une mission en opération extérieure (OPEX) était prévue afin d’acquérir plus d’expérience. J’ai ainsi servi six mois au Burkina Faso comme attaché de défense adjoint. J’ai été étonné de la situation informationnelle sur place à l’été 2022. Dans ce cadre, j’ai échangé avec l’EMA pour transmettre des appréciations concernant les manipulations de l’information alimentées notamment par la Russie. C’est ainsi que je me suis intéressé à la lutte informationnelle.

La dernière étape a été mon arrivée à l’École de guerre-Terre, où j’ai préparé puis soutenu un doctorat professionnel sur les biais cognitifs dans la prise de décision. Depuis, je publie régulièrement sur LinkedIn sur deux sujets principaux :

  • Les biais cognitifs, leur impact sur notre prise de décision et leur rôle dans les dynamiques stratégiques.
  • La mise en lumière de rapports VIGINUM et d’actions hybrides.

 

Première partie : Comprendre la guerre cognitive

 

LJI : Comment définiriez-vous la guerre cognitive ?

SH : Je ne suis pas très à l’aise avec l’expression « guerre cognitive », car je trouve qu’elle englobe beaucoup de choses. Aussi, je préfère me fonder sur un article exhaustif du colonel Pinard Legry, publié dans la Revue de la Défense Nationale en novembre/décembre 2024. Voici ce qu’il écrit :

« La guerre cognitive est souvent réduite à l’analyse du fonctionnement du cerveau relatif aux neurosciences, à la dimension cognitive du soldat augmenté ou encore aux opérations d’influence et de guerre psychologique. Or, la cognitique militaire englobe tout cela à la fois. La guerre cognitive n’est pas nouvelle, mais elle a changé de dimension avec l’émergence de nouvelles vulnérabilités, notamment via les réseaux sociaux et les téléphones portables. Chacun est désormais accessible directement, et grâce aux avancées dans la compréhension du cerveau, aux techniques de neuromarketing et à d’autres méthodes scientifiques, il est possible d’agir plus efficacement sur les individus. »

Selon le colonel Pinard Legry, la guerre cognitive a connu trois grandes étapes :

  1. L’action sur le message : Pendant longtemps, la guerre cognitive s’est limitée à un duel idéologique, comme l’opposition entre la propagande soviétique et la propagande allemande. Il ne s’agissait pas d’agir directement sur celui qui recevait le message, mais plutôt de structurer un récit dominant.
  2. L’action sur le vecteur : Avec l’accélération des technologies, nous sommes entrés dans une ère qu’il qualifie de « dialectique informationnelle ». L’objectif n’est plus seulement de contrôler le message, mais également d’agir sur les vecteurs de diffusion (réseaux sociaux, plateformes numériques), ce qui permet un accès bien plus direct au cerveau des individus.
  3. L’action sur le récepteur : Selon l’auteur, et selon la DARPA (l’agence américaine de recherche militaire), l’avenir de la guerre cognitive réside dans la capacité à influencer directement le récepteur, et ce, de manière massive. Ce stade représenterait l’aboutissement ultime de la guerre cognitive.

Cette grille d’analyse est précieuse parce qu’elle permet une compréhension rapide du phénomène à travers une structure en trois niveaux, dans laquelle l’évolution technologique joue un rôle clé.

LJI : Vos publications sur LinkedIn sous forme de carrousels semblent avoir pour objectif d’informer et de sensibiliser la population aux différentes techniques de manipulation de l’information. Quelles sont les origines de votre intérêt pour cette thématique et votre envie de partager vos connaissances sur la guerre cognitive ?

SH : J’en ai pris conscience notamment lors de mon séjour au Burkina Faso, pendant lequel j’ai constaté à quel point il est facile de manipuler les gens en exploitant des mécanismes bien documentés par la psychologie cognitive, comme l’effet de simple exposition[1] théorisé par Robert Zajonc ou l’effet d’influence continue[2].

En réalité, il suffit de diffuser massivement des informations, vraies ou non, pour qu’elles deviennent familières aux individus. La répétition et la présence constante des informations poussent à rendre ces dernières crédibles, rendant possible le travail de persuasion. Considérant cette réalité, j’ai acquis la conviction que l’une des clés ne réside pas tant dans le démenti que dans la sensibilisation. Démentir, c’est remplir le tonneau des Danaïdes : un travail sans fin. Il est bien plus efficace de boucher le tonneau en rendant les individus moins perméables à la désinformation.

Pour cela, les spécialistes préconisent d’encourager des démarches analytiques, une sobriété numérique et une prise de recul via la métacognition[3]. Le but de mes publications n’est donc pas seulement de mieux comprendre ces phénomènes, mais surtout d’inciter les gens à se poser les bonnes questions.

Voilà mon engagement et ma conviction : sensibiliser.

LJI : Quels sont les principaux enjeux de la guerre cognitive aux échelles étatiques et citoyennes ?

SH : La guerre cognitive se joue à la fois sur le front et à l’arrière. En tant que militaire, je constate parfois que beaucoup raisonnent encore en termes purement cinétiques : à savoir des flèches bleues et rouges tracées sur une carte. Cependant, si demain nous perdons la guerre, c’est d’abord parce que nous croirons l’avoir perdu – et que nous nous serons laissés convaincre par les récits de nos adversaires.

Les financements massifs d’influenceurs au profit du candidat Calin Georgescu en Roumanie rendent possible une telle accession au pouvoir. Les forces de l’OTAN stationnées dans le pays seraient alors invitées à plier bagage. Dès lors, nous perdrions la guerre avant la guerre. Nous la perdrions, non pas sur le champ de bataille, mais par l’influence. Tel est le pouvoir et tel est l’enjeu de la guerre informationnelle en cours. L’influence ne permet pas forcément de gagner la guerre, mais elle peut certainement faire perdre des batailles avant même qu’elles ne soient livrées. Ce combat n’est d’ailleurs pas strictement un enjeu militaire mais également un enjeu sociétal avec un rôle essentiel de la part des militaires.

LJI : Lors de l’une de vos interventions externes à Strasbourg, vous avez évoqué l’impact de la guerre cognitive sur la prise de décision. Pouvez-vous nous expliquer en quoi la guerre cognitive et plus particulièrement les biais cognitifs influencent nos choix, qu’ils soient politiques, économiques ou personnels ?

SH : À l’occasion d’une intervention à l’Institut national du service public, j’ai évoqué les effets cognitifs dans la prise de décision, ce qui était mon sujet de recherche de thèse. Je m’étais intéressé à ces effets dans la planification militaire. Les biais cognitifs sont des raccourcis mentaux que nous empruntons inconsciemment. Ils sont difficiles à identifier car ils nécessitent une démarche de métacognition pour être analysés et compris. Ils sont présents dans toutes nos décisions, grandes ou petites. Dans la majorité des cas, ils sont bénéfiques. Ils nous permettent de gagner du temps ; ils réduisent notre consommation d’énergie mentale et ils facilitent une synthèse rapide des informations à notre disposition.

Toutefois, environ 20 % du temps, ces biais entraînent des erreurs ou des approximations, et dans une extrême minorité des cas (1% environ), ils peuvent mener à des catastrophes. C’est pourquoi, dans des secteurs à tolérance zéro pour l’erreur, comme le nucléaire, l’aéronautique, le spatial ou la navigation sous-marine, on met en place des mécanismes stricts pour limiter ces biais. Cela passe par des protocoles de vérification, une formation aux facteurs humains et des stratégies pour réduire les erreurs de jugement dans la prise de décision.

Deuxième partie : Décryptage de cas concrets

 

LJI : À la lumière d’une analyse sur la Nouvelle-Calédonie, le conflit russo-ukrainien et dans un contexte de suppression de la modération sur les réseaux sociaux, pouvez-vous nous expliquer en quoi les Françaises et les Français sont, de nos jours, directement confrontés à la menace informationnelle ?

SH : Les Français sont confrontés à la menace informationnelle pour plusieurs raisons.

D’abord, en raison du contexte géopolitique global. Comme l’explique le Chef d’Etat-major des Armées, nous assistons à un usage décomplexé de la force, avec des traités internationaux de plus en plus bafoués.

Ensuite, il y a un effet de contexte technologique : les réseaux sociaux permettent aujourd’hui un ciblage massif des individus et donc une influence à grande échelle. Ce qui est nouveau, c’est l’usage des algorithmes pour affiner ce ciblage, déplacer progressivement notre fenêtre d’Overton (c’est-à-dire la perception de ce qui est socialement acceptable) et modifier les opinions de l’audience visée. Nos adversaires, en particulier ceux qui maîtrisaient déjà l’art de l’influence, disposent désormais d’un outil redoutablement efficace. David Colon[4] parle d’une « surface d’attaque » immense pour les campagnes de manipulation. En d’autres termes, notre temps de cerveau, que nous consacrons largement aux réseaux sociaux, est devenu une cible. Un dicton du KGB illustre bien ce phénomène : « La goutte d’eau creuse la roche, non pas par la force, mais goutte à goutte ».

C’est exactement ce que l’on observe aujourd’hui : 70 millions de jeunes Américains utilisent une plateforme contrôlée par la Chine. Cela peut paraître anodin mais les sondages montrent que plus de 50 % des jeunes Taïwanais (15-25 ans) ne sont pas prêts à défendre leur pays en cas d’invasion chinoise. Ce manque de volonté pourrait être lié à l’influence des contenus diffusés sur les réseaux sociaux, notamment TikTok, qui présentent la Chine sous un jour moderne et vertueux, bien loin de la réalité. Cette stratégie d’influence agit comme un anesthésiant collectif, comparable à l’injection d’un produit lénifiant ou paralysant : elle endort et neutralise toute résistance. Pour gagner une guerre, il faut d’abord être prêt à se battre. Ce qui se passe à Taïwan est un exemple extrême, mais ce phénomène touche aussi nos sociétés occidentales sur la question de l’Ukraine par exemple.

Dans ce contexte, l’influence ne se limite pas à la glorification d’un adversaire, elle vise aussi à fracturer nos sociétés. Un moyen efficace est de raviver et d’exacerber les tensions existantes. Une autre technique consiste à créer la confusion en multipliant les inversions accusatoires et les « vérités alternatives ». Nous évoluons dans un monde où les faits pèsent moins que les opinions. Les réseaux sociaux jouent un rôle central dans cette dynamique. Ils placent au même niveau l’expert scientifique et le quidam du bistrot, voire donnent plus de poids à ce dernier lorsqu’il représente un groupe bruyant sur un forum ou une plateforme. Cette fausse représentativité dilue l’importance des faits étayés au profit d’opinions émotionnelles ou infondées. En somme, la guerre informationnelle ne se limite pas à influencer l’ennemi, elle s’attaque aussi à la cohésion interne d’une société, la divisant et la fragilisant, au point de la rendre vulnérable bien avant qu’un conflit réel n’éclate.

On parle aujourd’hui d’une ère de post-vérité, un concept qui trouve un écho dans une ancienne image du KGB. L’agent d’influence agit comme s’il tordait un fil de fer : il alterne entre vérités et mensonges, mêle le vrai et le faux jusqu’à fatiguer l’audience. À force de tordre ce fil entre vérité et mensonge, les individus finissent par se lasser, et le fil finit par céder. Ce fil de fer est notre rapport à la vérité. Il est fragilisé par les torsions répétées et finit par rompre. Lorsque le fil de fer est cassé, ce n’est plus la vérité objective qui importe, mais ce que chacun choisit de croire.

Une autre méthode pour déstabiliser une société consiste à alimenter un sentiment anti-système. L’exemple des élections en Roumanie est particulièrement révélateur. VIGINUM a mis en évidence l’existence d’une campagne d’influence, mais la décision du Conseil constitutionnel roumain d’annuler le scrutin pose un problème tout aussi délicat : elle revient à rejeter le vote des citoyens, ce qui, en soi, peut être perçu comme un déni démocratique. Certes, le vote a pu être influencé, mais l’annulation pure et simple du résultat alimente encore davantage la défiance envers les institutions. On comprend aisément la frustration des citoyens face à ce paradoxe.

Cet exemple illustre un mécanisme essentiel de la désinformation : même lorsqu’ils perdent une élection, les artisans de la désinformation parviennent à en tirer profit, car ils exploitent la colère et le ressentiment pour renforcer l’opposition au système. À l’heure où nous échangeons, Calin Georgescu devance ses concurrents de 10 points dans les sondages. Si rien ne l’arrête, il semble probable qu’il l’emporte, en capitalisant sur le déni de démocratie dont il affirme avoir été victime.

Il est toujours plus difficile de reconstruire une société fracturée que de la déstabiliser. Dans ce contexte, les démocraties, qui restent des modèles enviables malgré leurs faiblesses, tentent de riposter avec d’autres armes. Cependant, notre exposition aux réseaux sociaux joue contre nous. Ces plateformes, fondées sur la polarisation et le sensationnalisme, nous donnent une vision déformée et anxiogène du monde. Ce décalage entre la vie réelle et la perception numérique est un symptôme clair de la manipulation qu’exerce sur nous l’environnement médiatique. La diversité d’opinions permet pourtant de mieux comprendre le monde.

Troisième partie : Comment lutter ?

 

LJI : Dans le contexte d’une remise en cause du fact-checking par certains acteurs influents, quelles solutions existent pour lutter contre la désinformation ?

SH : Trois mesures principales s’imposent : responsabiliser, exposer et éduquer.

1. Responsabiliser :

Il est essentiel de responsabiliser davantage les relais d’opinion, les plateformes qui diffusent la désinformation, mais aussi les individus eux-mêmes.

Stephen Brill, dans The Death of Truth (non traduit, paru en juin dernier), explique que lorsque les plateformes refusent d’instaurer un fact-checking efficace, qu’elles renoncent à la modération et qu’elles expliquent que ce n’est pas de leur responsabilité, elles se comportent comme un maçon qui construirait un mur avant de déclarer que ce n’est pas à lui de nettoyer les tags qui y sont apposés. Pourtant, sans mur, pas de tag. Dans cette logique, on pourrait parfaitement imaginer un monde où les plateformes seraient contraintes d’installer un « vernis anti-tags », ou de participer activement à la surveillance du mur, d’autant plus si elles en tirent un profit permanent.

Il propose une autre analogie plus frappante : affirmer que les plateformes ne peuvent pas gérer la modération faute de moyens, c’est comme si un constructeur livrait des voitures avec des pneus lisses, sans ceinture de sécurité et avec des moteurs débridés, sous prétexte que les utilisateurs recherchent l’adrénaline et la sensation de vitesse. Certes, les internautes sont attirés par des contenus qui suscitent des réactions fortes, qui deviennent viraux et qui procurent des émotions intenses, mais ce n’est pas une raison pour mettre en péril l’ensemble de la société pour satisfaire cette demande et maximiser les profits.

Il existe pourtant des solutions. Par exemple, la modération fonctionne très bien sur le réseau BlueSky, preuve que l’on peut construire un environnement d’échange moins viral mais plus sain, si l’on s’en donne les moyens.

Il faut aussi responsabiliser les régies publicitaires, car de nombreuses manœuvres d’influence reposent sur l’achat de publicités politiques. Lorsque ces régies contournent les sanctions, la désinformation prospère. Prenons l’exemple d’ADA, une entreprise russe sous sanction, qui publie des caricatures calomnieuses sur son site. Dans 78 % des cas, moins d’une semaine après leur production, les contenus politiques pro-russes de l’agence apparaissent sur Facebook sous forme de publicité. Cela prouve bien que la régie publicitaire de Facebook accepte de traiter avec une entreprise sous sanction, qui attaque pourtant nos propres sociétés. C’est un problème majeur.

Il existe aussi des mesures possibles, mais qui ne servent pas les intérêts financiers des plateformes, ce qui explique leur réticence. Par exemple, ralentir la propagation des contenus pour limiter certains effets cognitifs. Un levier efficace est de masquer la viralité d’un contenu : si un site ne montre pas qui a partagé ou qui a réagi, les utilisateurs seront plus attentifs au contenu lui-même qu’à son effet de preuve sociale. Certaines plateformes avaient d’ailleurs mis en place ce type de freins. X (Twitter) avait instauré un pare-feu qui alertait les utilisateurs lorsqu’ils retweetaient un article sans l’avoir ouvert. Cela incitait à la réflexion et freinait la propagation aveugle des contenus. Mais cette mesure a été abandonnée après quelques semaines parce qu’elle allait contre les logiques de viralité, donc contre les logiques de profit.

Ce ne sont que quelques exemples parmi de nombreuses solutions concrètes pour responsabiliser les plateformes, mais il faut aussi responsabiliser les relais d’opinion.

Enfin, il faut aussi responsabiliser les individus. Un des principes clés de la dissuasion consiste à augmenter les coûts d’une action néfaste. Restreindre l’anonymat en ligne peut être une solution. On pourrait envisager un modèle où les plateformes interdisent totalement l’anonymat, en imposant une vérification d’identité. Si quelqu’un refuse ce principe, il ne publie pas. C’est le cas sur Panodyssey, un réseau social français qui exige une pièce d’identité à l’inscription. Réduire l’anonymat est une façon concrète de responsabiliser les individus et de limiter les abus sur les réseaux.

2. Exposer :

La deuxième approche consiste à exposer les manipulations, un travail essentiel mené par VIGINUM. Les démocraties ripostent avec d’autres armes, et le travail de cette agence d’État née en 2021 est fondamental. Leurs analyses et rapports permettent de renforcer la confiance entre les citoyens et l’État. Au-delà du simple fait de révéler les campagnes de désinformation orchestrées par nos adversaires, VIGINUM joue un rôle pédagogique. L’idée n’est pas d’imposer une vérité officielle, mais de montrer aux citoyens comment ils sont ciblés. D’ailleurs, VIGINUM ne commente jamais le contenu des messages. L’agence se concentre uniquement sur les mécanismes de diffusion, en identifiant les stratégies de manipulation et de propagation des fausses informations. Tout le travail repose sur des sources ouvertes, ce qui signifie que leurs méthodes sont accessibles à tout citoyen possédant les compétences techniques adéquates.

Par ailleurs, les journalistes jouent aussi un rôle clé dans ce travail d’exposition.

3. Éduquer :

On peut éduquer à la désinformation, pratiquer la distanciation et appliquer des matrices de discernement. Concernant l’éducation à la désinformation, je vous renvoie au rapport de la Lund University intitulé Education as a counter-measure against disinformation. Pour mémoire, cinq techniques sont recommandées :

  1. L’inoculation : lorsqu’on crée soi-même une fausse information, on prend conscience de la facilité avec laquelle une fake news peut être fabriquée et diffusée. Cela permet de développer un certain recul critique.
  2. Encourager la lecture horizontale : il s’agit d’adopter une approche critique en vérifiant la fiabilité d’une information en dehors de son contexte initial, en la confrontant à d’autres sources.
  3. Utiliser des outils de vérification des contenus comme InVID we Verify, GoogleLens, etc., pour confirmer l’exactitude d’une information avant de la partager.
  4. Revenir à une pensée analytique : cette capacité se cultive notamment par la lecture et par une prise de distance vis-à-vis des réseaux sociaux. Il faut prendre quelques secondes pour réfléchir et se demander si l’on diffuse cette information de manière rationnelle et constructive ou si l’on réagit sous l’effet de l’émotion. Une question essentielle à se poser est : à qui profite cette information ?
  5. La sobriété numérique : en réalité, la meilleure solution est d’arrêter, ou du moins de ralentir et de sélectionner avec soin les réseaux sociaux que l’on utilise.

Enfin, il y a la matrice de discernement DIMA, développée par le projet M82, une communauté spécialisée dans le partage d’informations et de bonnes pratiques en cybersécurité. Ce qui est intéressant avec cette matrice, c’est qu’elle permet d’identifier la désinformation non pas en analysant uniquement le contenu, mais en observant l’effet qu’il produit sur nous. Elle nous engage ainsi dans une démarche de métacognition. DIMA est un acronyme qui signifie : Détection, Information, Mémorisation, Action. Vous pouvez retrouver l’ensemble de la méthodologie sur un document élaboré par le projet M82[5].

LJI : Ouvrages et productions conseillés par le Commandant Samuel Henry :

SH : Je peux vous recommander :

  • Les rapports de VIGINUM.
  • Les rapports de la Lund University :

      Education as a Countermeasure Against Disinformation et Understanding of Psychological Process.

  • Thomas Rid, Active Measures.
  • Walter Lippman, Public Opinion
  • Colonel Pinard Legry, article paru dans la Revue de la Défense Nationale, Neurosciences et sciences cognitives : comment se préparer à la guerre des cerveaux ?
  • Ivor Thomas[6], Warfare by words.
  • Le podcast La Jungle des miroirs[7]

 

[1] Effet de simple exposition : théorie développée par le psychologue Robert Zajonc selon laquelle la répétition d’un stimulus augmente la probabilité de l’apprécier ou de le considérer comme vrai, indépendamment de son contenu.

[2] Effet d’influence continue : biais cognitif où une personne reste influencée par une information incorrecte, même après qu’elle ait été démentie ou corrigée.

[3] Métacognition : processus mental permettant à un individu de prendre conscience de ses propres modes de pensée, de les analyser et de les réguler afin d’optimiser son apprentissage et sa prise de décision.

[4] David Colon : historien et professeur à Sciences Po, spécialiste de l’histoire de la propagande et des techniques d’influence. Il a notamment écrit Propagande. La manipulation de masse dans le monde contemporain (2019).

[5] https://m82-project.org/files/DIMA_V4.pdf

[6] Ivor Thomas, Warfare by Words : ouvrage analysant les mécanismes de la propagande et leur rôle dans les conflits modernes.

[7] La Jungle des Miroirs : podcast traitant des stratégies d’influence et de manipulation de l’information. https://open.spotify.com/show/6ozymfzLYMTEuWMyT4JkeC

Thumbnail

Actualité précédente

Thumbnail

Actualité suivante