Le général Hervé Rameau apporte quelques éléments de réflexion sur l'intelligence artificielle appliquée à l'éthique de la guerre. Si l'arrivée quasi soudaine de ces technologie dans les habitudes du grand public provoque certaines interrogations légitimes, il faut rester raisonnable quant à son utilisation et notamment dans ses applications militaires : le temps où un robot dont l'intelligence artificielle dépassera le commandement humain est encore loin d'être arrivé et il est sain que les forces armées prennent en compte l'utilisation de l'IA dans leurs nouvelles doctrines au temps de la numérisation du champ de bataille.
Intelligence artificielle et éthique dans la guerre : quelques réflexions (T 1699)
Image générée à l'aide de l'IA (ChatGPT)
Reflections on Artificial Intelligence and Ethics in War
General Hervé Rameau provides some food for thought on artificial intelligence applied to the ethics of war. While the almost sudden arrival of this technology in the habits of the general public raises some legitimate questions, we must remain reasonable regarding its use, particularly in its military applications: the time when a robot whose artificial intelligence will surpass human command is still far from having arrived, and it is healthy for the armed forces to consider the use of AI in their new doctrines at a time when the battlefield is digitalized.
L’actualité en ces premiers mois de 2025 fut assez riche en matière d’intelligence artificielle (IA). Le 21 janvier, le président Trump annonçait, au cœur du projet Stargate, un investissement de 500 milliards de dollars dans les infrastructures physiques et virtuelles de l’IA pour les quatre prochaines années. Le chinois Deepseek répliquait quelques jours plus tard en révélant un robot conversationnel dont les performances seraient équivalentes à celles de ChatGPT pour des coûts très inférieurs. Début février, le sommet pour l’action sur l’intelligence artificielle se tenait à Paris, rassemblant soixante États de la planète auxquels s’ajoutent l’Union européenne (UE) et l’Union africaine (UA). Ces événements ont renforcé la médiatisation et la tenue de débats traitant de divers enjeux autour de cette thématique.
Parmi les sujets abordés figurent l’utilisation de l’IA par les forces armées et les questions éthiques qui en résultent. Ces dernières, essentielles, renvoient à des notions complexes : l’éthique dans la guerre, la prise de décision dans l’incertitude, la responsabilité des chefs devant les conséquences de leurs choix et celle des exécutants devant les conséquences de leurs actes.
Comment l’intelligence artificielle s’inscrit-elle dans ces dimensions philosophiques et humaines de la conduite de la guerre ? Si ce court article n’a pas l’ambition de répondre pleinement à cette interrogation, il propose quelques pistes de réflexion pour mieux en appréhender les contours.
L’intelligence artificielle et sa perception la plus commune
L’IA ouvre des champs, réels comme fantasmés, qui, certes, génèrent des perspectives, mais également des interrogations et des craintes au sein de la société dont une grande partie n’a pas encore de clés d’appréhension approfondies de ce que revêt ce domaine. Rappelons que l’expression « intelligence artificielle » contribue aux craintes qui s’expriment. Elle renvoie à des dystopies dans lesquelles des machines intelligentes prennent le pouvoir sur leurs concepteurs humains. Les débats et articles non spécialisés qui traitent de l’IA dans les armements relaient régulièrement l’expression « robots tueurs » qui renforce les craintes de voir émerger un monde dans lequel des machines dotées d’une intelligence supérieure disposeraient d’un permis de tuer.
Il n’y a pourtant pas d’intelligence dans l’IA au sens commun du terme, c’est-à-dire semblable à celle d’un humain. L’intelligence artificielle, quelle que soit sa typologie, repose sur des capacités de calcul qui ne cessent de progresser et sur des algorithmes de traitement de données qui sont des outils logiciels. Nourries par d’énormes quantités de données, ces machines produisent des analyses en vertu de processus de traitement déterminés par leurs concepteurs humains, y compris lorsqu’ils intègrent de l’autonomie.
Néanmoins, plusieurs facteurs contribuent à accréditer la notion d’intelligence. D’abord, il n’est pas toujours possible de « tracer » les raisons qui ont présidé aux solutions proposées par ces outils ; c’est ce que l’on appelle « l’effet boîte noire ». À titre d’exemple, dans certains types d’IA, la machine tente d’identifier dans les données qui lui sont fournies quelles sont les relations causales qui relient les situations d’entrée aux situations de sortie. Elle applique ensuite cette causalité aux données d’entrée que l’opérateur lui fournit pour lui proposer une situation de sortie. Il s’agit cependant d’une causalité si complexe à établir qu’elle reste actuellement très difficile à appréhender par l’opérateur, voire par le concepteur. Ensuite, le principe « d’auto-apprentissage » renforce la similarité avec le modèle humain. Enfin, la forme des analyses produites par les IA est semblable à celle qu’élaborent les analystes, ce qui donne le sentiment qu’elles sont en effet intelligentes ; voire supérieurement intelligentes puisque leurs capacités de calcul et d’analyse sont telles qu’il faudrait beaucoup de spécialistes pour atteindre une efficacité comparable.
Le dialogue qui s’instaure entre un robot conversationnel et celui qui l’interroge produit les mêmes effets puisque rien ne distingue ses réponses de celles que donnerait un interlocuteur érudit, y compris dans l’expression parfaitement subjective des sentiments ou des ressentis.
Les capacités « simili-cognitives » de l’intelligence artificielle sont développées par des algorithmes toujours plus performants, les robots humanoïdes ont une apparence d’une humanité toujours plus troublante : tout concourt à faire de l’IA un outil apparemment doté d’une intelligence humaine. Et cette perception humanisée de l’IA s’accompagne de craintes d’ordre anthropologique.
Les militaires, confrontés à la nécessité de s’approprier ces outils révolutionnaires, font partie de ceux qui tentent d’en comprendre l’essence de façon rationnelle. Toutefois, les champs ouverts sont si vastes qu’il convient d’aborder la question avec audace, certes, mais également avec humilité et responsabilité, trois vertus cardinales qui président à toute réflexion sur la guerre.
L’éthique dans la guerre
L’éthique dans la guerre n’est pas une notion figée. Elle accompagne nécessairement l’exigence de victoire car la défaite se traduit inévitablement par la soumission à la volonté de l’adversaire. Or, si une confrontation politique glisse vers la guerre, forme ultime de règlement des désaccords, c’est que l’enjeu est jugé tel qu’il justifie et légitime cette extrémité. Quel serait dès lors le sens de l’acceptation de la défaite au nom de limites éthiques prédéterminées ? Comment envoyer des hommes au combat en les privant de la liberté d’action nécessaire à l’acquisition de la supériorité ? Il semblerait bien peu éthique d’agir ainsi.
Il en résulte que la véritable éthique dans la guerre se confond avec l’éthique dans la victoire. Il ne s’agit naturellement pas de nier les valeurs éthiques au combat. Le corpus du droit humanitaire international (DIH) est ratifié par la plupart des pays membres de la communauté internationale et constitue le socle fondamental de l’éthique dans la guerre.
Sur le plan national, son enseignement structure la culture des armées françaises et l’esprit de ce corpus ne s’oppose pas à cette notion d’éthique dans la victoire. Par exemple, si la protection des personnes et des biens civils est inscrite dans le « principe de distinction », celui « de proportionnalité » précise que les dégâts collatéraux sur ces biens et personnes ne doivent pas être excessifs par rapport aux avantages militaires attendus. Il précise également dans son « principe de précaution » que les populations civiles susceptibles d’être l’objet de dégâts collatéraux doivent être alertées en amont, sauf lorsque la surprise est un facteur déterminant des opérations.
Il ouvre donc le champ à une approche de l’éthique dans la guerre qui soit adaptée aux circonstances. Néanmoins, il importe de bien en comprendre le sens. Ce n’est pas l’exigence éthique qui diminue, c’est le contour même de l’éthique qui se modifie en fonction de la situation. Or, cette « géométrie variable » de l’éthique est naturellement problématique puisqu’elle brouille le classement des actes et des choix, permettant des justifications fallacieuses.
C’est pourquoi l’appropriation de l’esprit du DIH par toute la chaîne politique et militaire est essentielle, des acteurs de la pensée stratégique aux combattants sur le terrain, en passant par les niveaux opératifs et tactiques. Cette approche n’interdit en rien l’introduction d’intelligences artificielles dans les processus décisionnels ni même dans les armements eux-mêmes. En revanche, les fonctions qui leur sont confiées doivent avoir la plasticité nécessaire pour ne pas remettre ces principes en cause.
La prise de décision dans l’incertitude : une constante dans l’art de la guerre
La conduite de la guerre est un art qui articule les niveaux politiques, stratégiques, opératifs et tactiques. Il a été remarquablement décrit par Sun Tzu dans L’art de la guerre, un traité paru vers le Ve siècle av. J. C. qui reste d’une modernité étonnante. Si les fondamentaux énoncés six siècles avant notre ère restent valides et exhaustifs, leur traduction dans la réflexion et la conduite de la guerre n’a cessé d’accompagner les évolutions technologiques qui ont jalonné les victoires et les défaites. C’est en effet la combinaison entre le génie des grands chefs et leur emploi des technologies disponibles qui leur a bien souvent permis de s’imposer sur les champs de bataille.
Ainsi, l’association entre chefs brillants et technologies est intrinsèque à toute conduite de la guerre. La plupart des améliorations technologiques ont été exploitées par les militaires, quand ils ne les ont pas eux-mêmes initiées, à la recherche de la meilleure arme pour dissuader l’adversaire potentiel ou pour percer sa cuirasse. L’emploi de l’IA par les militaires entre pleinement dans ce schéma et relève même de l’évidence.
L’une des craintes exprimées repose sur les biais que l’IA peut introduire dans les analyses fournies au décideur, aux planificateurs et aux exécutants sans que ceux-ci ne puissent nécessairement en détecter l’existence. S’y ajoute le fait que les processus numériques et les données utilisées ont pu être corrompus par l’adversaire. Cependant, la situation est-elle si différente du fonctionnement habituel d’un état-major ou de l’action de groupes tactiques ? Chacun est dépendant des analyses qui lui sont fournies, des données dont il dispose, de leur intégrité, des doutes qui subsistent et doit finalement agir en vertu de l’exigence temporelle qui s’impose.
L’existence de biais et d’inconnues dans les processus humains est tout aussi avérée que dans les processus numériques. Décider dans l’incertitude, dans le « brouillard de la guerre » – théorisé par Clausewitz dans De la guerre en 1832 – reste une caractéristique centrale de l’action de commandement, d’autant que le pouvoir d’initiative revient à celui qui supplante son adversaire dans la rapidité de mise en œuvre de la chaîne de décisions. En produisant plus rapidement des analyses, l’IA offre naturellement à celui qui l’utilise un avantage majeur. La question ne porte donc pas sur l’intégration d’intelligences artificielles dans les processus et systèmes de défense, mais sur la place à leur donner et sur les relations à établir avec les acteurs humains. Décider, c’est prendre des responsabilités qu’il faudra assumer.
Le processus intellectuel qui conduit un chef à la prise de décision est d’autant plus complexe qu’il est aussi personnel. Il existe néanmoins une constante qui dépasse cette singularité : le niveau de confiance qu’il accorde à ses proches collaborateurs, aux sources qui le renseignent, aux membres de son état-major et, plus généralement, à tous ses interlocuteurs. L’évaluation qu’il en fait est au cœur de sa décision, car c’est en vertu de ces dimensions pour partie subjectives que finalement il agira. Créer de la confiance est tout l’enjeu de l’apport de l’IA dans les processus décisionnels. Sans confiance, la part de rationalité et de conviction dans la prise de décision diminue, tout autant que sa pertinence. Sans confiance, l’audace se fragilise. Sans confiance, les risques d’inaction ou, au contraire, de témérité, se renforcent. À l’inverse, une confiance établie encourage à déléguer et innover.
Tel est le défi qu’industriels, militaires, politiques et penseurs doivent relever ensemble : créer une IA perçue comme un acteur de confiance, ce qui exige qu’elle soit capable d’interagir avec les humains pour justifier ses analyses et propositions.
Responsabilité des chefs et des exécutants
L’IA offre la possibilité technique d’automatiser la chaîne de ciblage et d’engagement tout au long du processus « observation-orientation-décision-action » et il est en effet tout à fait possible de confier à une intelligence artificielle le soin de dérouler ce processus clé du combat, jusqu’à l’ouverture du feu. La France a choisi de s’appuyer sur un « comité d’éthique de la défense » pour étudier et statuer sur les réponses à donner à ces questionnements. Son premier rapport intitulé Avis sur l’intégration de l’autonomie dans les systèmes létaux (1) est paru le 29 avril 2021. Il distingue les Systèmes d’armes létaux intégrant de l’autonomie (Salia) des Systèmes d’armes létaux autonomes (Sala). Le rapport précise que « sont qualifiables de Sala des systèmes d’armes létaux programmés pour être capables de faire évoluer, au-delà de leur cadre d’emploi fixé initialement, leurs règles de fonctionnement, et d’utiliser cette programmation pour calculer une décision en vue d’une action sans appréciation de situation par le commandement ». Sont qualifiés de Salia « les systèmes d’armes létaux intégrant des automatismes et des programmes auxquels le commandement, après appréciation de situation et sous sa responsabilité, peut affecter, dans un espace-temps limité et sous conditions, l’exécution de tâches relevant de l’autonomie décisionnelle, dans certaines fonctions critiques, telles que l’identification, la classification, l’interception, l’engagement ».
La France a renoncé à l’emploi des Sala « eu égard aux principes éthiques, juridiques et opérationnels qui régissent l’action des forces armées françaises ». En revanche, elle autorise l’emploi des Salia, lesquelles peuvent comporter des fonctions d’autonomie décisionnelle dès lors que « le rôle du commandement humain est […] préservé […] », lequel est caractérisé par « l’appréciation de situation » et « le compte rendu lorsque l’engagement s’effectue en vertu de la subsidiarité ». Ainsi, l’automatisation de la chaîne d’engagement dans les Salia reste possible sous certaines conditions.
Par ailleurs, une Salia peut être une Sala dont la programmation et les algorithmes réduisent le niveau d’autonomie au cadre d’emploi fixé à ces premières. Lorsque tel est le cas, le commandement dispose d’une réversibilité pour fournir des réponses d’exception si la situation l’exige. Le comité d’éthique de la défense, conscient du contexte international et de l’extension des champs et formes de conflits, a d’ailleurs recommandé de poursuivre la recherche dans les domaines de l’IA de défense et des automatismes dans les systèmes d’armes afin de lutter contre tout décrochage scientifique et technique et pour se défendre de l’usage de Sala par un adversaire.
En filigrane, on comprend donc qu’en organe responsable et conscient des complexités de la guerre, le comité d’éthique de la défense laisse – avec beaucoup de finesse de rédaction – des « portes entrouvertes » pour que l’action des armées françaises puisse se déployer avec une flexibilité qui concilie éthique dans la guerre et éthique dans la victoire.
Le 14 janvier dernier, le comité d’éthique de la défense a rendu un nouveau rapport intitulé Avis sur l’usage des technologies d’intelligence artificielle par les forces armées (2). Celui-ci ajoute peu d’éléments nouveaux au rapport précédent, mais il réaffirme les principes directeurs et décline plus en détail les conséquences sur la recherche, la conception et la mise en œuvre de l’IA par les armées.
Conclusion
Si l’intelligence artificielle ouvre un immense champ d’applications capables de révolutionner les capacités opérationnelles des armées et, au-delà, de toutes les composantes des systèmes de défense, elle n’affecte en rien les fondamentaux de l’art de la guerre. Chaque révolution technologique s’est accompagnée de légitimes interrogations éthiques. Il en fut ainsi de l’arrivée d’armes nouvelles, telle l’arbalète, dont la puissance, la portée et la simplicité d’emploi permettaient de tuer son adversaire à distance sans exposer sa propre vie. Son emploi remettait en cause les règles établies, les valeurs de courage, de force physique et d’adresse qui présidaient au duel honorable entre combattants. Bien plus récemment, l’apparition de l’arme nucléaire a généré de profonds débats liés à ses capacités de destruction massive et au pouvoir exorbitant qu’il confère à ceux qui la possèdent. L’IA n’est donc qu’une nouvelle étape dans ce compagnonnage historique entre technologie et forces armées.
La réflexion éthique qui accompagne son irruption est saine et nécessaire. Elle doit être menée par des esprits et des institutions capables d’aborder la question avec recul et expertise, en gardant à distance toute forme de raisonnement tronqué par l’émotion. Le comité éthique de la défense a gagné ses lettres de noblesse à l’occasion des travaux qu’il a rendu sur cette question. L’IA ne contient pas d’autre intelligence que celle de ses concepteurs et de ses utilisateurs. Elle est intrinsèquement neutre et seuls les êtres humains peuvent « l’habiller » sur le plan éthique. Ce faisant, ils endossent les responsabilités de leurs actes car ce sont eux qui devront répondre des conséquences de la subsidiarité qu’ils auront consentie aux intelligences artificielles.
Ce sont eux qui devront aussi assumer les décisions qu’ils auront prises, quand bien même elles l’ont été en vertu d’analyses ou orientations produites par l’IA. L’enjeu repose donc sur l’appropriation de l’intelligence artificielle par les différents acteurs qui l’utilisent, et en particulier sur le niveau de confiance qu’ils peuvent lui accorder. Ce postulat étant bien compris, les stratèges peuvent continuer de se reposer sur l’art de la guerre et l’esprit du droit humanitaire international : l’IA n’y changera rien. ♦
(1) Comité d’éthique de la défense, Avis sur l’intégration de l’autonomie dans les systèmes létaux, 29 avril 2021, 47 pages (www.defense.gouv.fr/).
(2) Comité d’éthique de la défense, Avis sur l’usage des technologies d’intelligence artificielle par les forces armées, 14 janvier 2025 (www.defense.gouv.fr/).