Dronisation et intelligence artificielle convergent aujourd’hui, donnant progressivement naissance à ce qu’il est convenu d’appeler des « essaims ». Les récents conflits renforcent l’idée que ces systèmes – y compris les essaims létaux – présentent un intérêt militaire. Ils feront partie demain des capacités amies et ennemies. Celui qui en sera doté disposera d’un avantage certain. Cependant, leur développement implique de consentir à une forme d’autonomie, ce qui suscite de nombreuses questions. Notre pays sera guidé par sa vision de l’éthique d’emploi des essaims et des armes dites « autonomes ». Pour autant, il convient d’avancer de manière résolue dans la voie des essaims, y compris vers les essaims armés.
Les essaims de drones, graal ou chimère ?
« Le destroyer à missiles guidés n’avait pas “vu” l’essaim qui arrivait parce qu’il n’avait pas reconnu que ses systèmes faisaient l’objet d’une cyberattaque avant que la situation ne devienne cinétique. […] Les frappes cinétiques ont eu lieu par vagues, sous la forme d’un essaim complexe. L’attaque semblait être menée par un nuage de systèmes autonomes qui semblaient se déplacer ensemble dans un but précis, réagissant les uns par rapport aux autres et au navire. La vitesse de l’attaque a rapidement submergé la quasi-totalité des systèmes de combat du navire ». C’est avec ce scénario futuriste que débute un article prospectif intitulé « On Hyperware » (1) – sur l’hyper-guerre –, publié en 2017 sur le site de l’US Naval Institute.
La dronisation des conflits et le développement de l’Intelligence artificielle (IA) sont des phénomènes qui ont déjà quelques années. Cependant ils convergent aujourd’hui de plus en plus, laissant entrevoir, à l’instar de ce scénario imaginaire, la naissance d’une capacité nouvelle : menace saturante, foudroyante, imprévisible, létale par la somme des « piqûres » qu’elle est à même de porter ; mais aussi espoir de pouvoir dépasser ses propres blocages tactiques et opératifs. L’essaim, graal offensif ? graal défensif ? levier stratégique ? Il est certain que l’objet qui naît présente, tel Janus, un double visage. Doué d’un haut niveau d’autonomie, d’aucuns le voient déjà échapper à son créateur (2) au point de devenir le monstre du docteur Frankenstein… alors que d’autres imaginent assez naturellement l’usage pacifique qui pourrait en être fait afin d’accroître, par exemple, le maillage d’une zone lors d’une mission de secours. Pour autant, n’est-ce pas une chimère ?
La littérature relative aux essaims est particulièrement abondante. Elle conduit vers les travaux de plusieurs grands pays. Elle aborde des points de droit ou les questions d’autonomie, d’IA et de « robots-tueurs ». Elle renvoie vers l’emploi, réel ou supposé, de tels systèmes… Il semble cependant qu’à l’instar des drones armés, nous éprouvions quelques difficultés – probablement pour des raisons éthiques respectables – à réfléchir à l’emploi de ces systèmes en devenir dans toutes les dimensions, qu’elles soient non-létales ou létales, tactiques, opératives ou stratégiques. Ces quelques lignes n’ont alors d’autre ambition que de contribuer modestement aux choix de demain. En effet, face à l’hyper-guerre qui vient peut-être, faut-il une hyper-réponse ? Les essaims en constituent-ils une brique ? Faut-il poursuivre résolument dans la voie du développement de ces nouveaux systèmes ? Ne risque-t-on pas, à défaut, un déclassement stratégique ?
De quoi s’agit-il ?
L’essaim
Chercheurs, industriels et centres militaires de doctrine cherchent depuis plus d’une décennie à définir précisément ce qu’est un essaim militaire. Tentons une approche par l’observation de l’étrange ballet d’un essaim d’abeilles en formation ou d’un vol d’étourneaux. Chacun s’étonnera devant l’apparent paradoxe entre le maintien d’une compacité réelle et les brusques changements de cap ou d’altitude. Il se demandera si cette formation poursuit un objectif particulier. S’il raisonne avec une approche militaire, il verra apparaître les caractères d’un « essaim » de drones ou de robots (3) : combinaison orchestrée de systèmes multiples, « intelligence » collective, imprévisibilité… Il imaginera alors facilement le potentiel de saturation par la masse d’un « essaim militaire », constitué par l’agrégation de très nombreux drones et/ou robots.
Ces essaims (4) pourront parfois être appelés « meute » – si les systèmes qui le composent sont hiérarchisés – ou « salve manœuvrante (5) » – sorte d’intermédiaire entre le drone du présent et l’essaim du futur.
Le point commun à ces trois notions, à l’inverse d’un drone considéré individuellement, réside dans le fait qu’il s’agit d’un ensemble de mobiles, avec un contrôle humain limité, qui coopèrent et optimisent leurs actions grâce à l’IA afin de mener collectivement une mission, quel que soit leur milieu d’évolution. C’est ainsi que cet article considérera la notion d’essaim, indépendamment par ailleurs de la taille des mobiles.
Considérations technico-opérationnelles
Du point de vue technico-opérationnel, le défi est alors de faire en sorte que ces mobiles se déplacent dans l’espace de manière coordonnée, sans être individuellement télé-opérés, pour remplir une mission, elle-même éventuellement divisée en une succession de tâches allouées. Le professeur Moschetta, dont les travaux (6) permettent de mieux appréhender la nature des essaims sur le plan technico-opérationnel, résume ainsi ce qui peut les caractériser, en en soulignant les implications :
– « Un fonctionnement de type “edge computing”, c’est-à-dire dans lequel les calculs nécessaires à la compréhension de la situation et de la prise de décision sont déportés et non effectués au sol […] », ce qui impliquera d’après lui que « la justesse des calculs et leur traçabilité ne [soit] pas garantie ».
– Une efficacité qui provient des « relations entre individus et non pas des performances individuelles » sans que « la vérification des règles d’engagement appliquées à chaque individu ne [garantisse] que l’essaim suivra, dans son ensemble, ces mêmes règles individuelles ».
– La combinaison de communications « à haut débit et courte distance » entre mobiles, et « à bas débit et grande distance vers la station sol », ce qui pourra impliquer de « […] consentir à faire le deuil d’un archivage des données brutes recueillies par l’essaim […] (7) ».
La notion d’autonomie, au sens étymologique du terme – capacité à se fixer sa propre règle –, apparaît donc naturellement présente dans le concept d’essaim. Le professeur Moschetta considère même que « les prises de décision autonomes seront la règle dans l’usage des essaims parce que cela représente une nécessité technique (8) ». Le développement d’essaims implique donc de consentir par principe à une forme ou à un niveau d’autonomie, en considérant que l’efficacité de l’essaim y est a priori largement – bien que non exclusivement – corrélée. Ce consentement impose parallèlement de relever les défis que sont, notamment, la fiabilisation et la traçabilité de « l’intelligence » de ces éventuels futurs essaims.
À la recherche du Swarm Advantage (9)
Des occurrences d’emploi qui soulignent un réel potentiel
Le développement de l’usage des drones dans les conflits récents permet d’entrevoir ce qu’il est possible d’attendre de futurs essaims.
Libye, 2020, l’emploi évoqué de « systèmes létaux autonomes » ou l’effet psychologique
Considérant le conflit libyen, un rapport des Nations unies évoque la prise à partie des troupes du maréchal Haftar par des drones Kargu-2, qualifiés de « systèmes d’armes létaux autonomes (10) » (Sala). Au-delà des divergences d’appréciation sur la nature de ces drones, ce rapport souligne l’impact opérationnel et psychologique des drones avec des fonctions létales, employés en grand nombre pour mener un harcèlement constant, transformant une retraite en déroute (11).
Syrie et Haut-Karabagh en 2020, les notions d’intégration, de trame et de masse
L’opération turque en Syrie, Spring Shield, au printemps 2020, et le conflit du Haut-Karabagh fin 2020, révèlent l’intégration massive de l’appui-feu terrestre et des drones dans la manœuvre. Ces derniers sont employés en Syrie pour des missions au profit de l’artillerie (12). Le conflit du Haut-Karabagh confirme cette tendance. Il se caractérise par « l’emploi massif de drones de taille modeste, à usage tactique et intégrés dans la manœuvre terrestre », auquel s’ajoute l’emploi massif de « drones suicides » (13). Ces conflits illustrent la nécessité de penser l’usage des drones en termes de trame, combinaison de différents moyens complémentaires pour parvenir à l’effet recherché. Cela pourra se décliner à l’intérieur d’un essaim et dans le concept d’emploi des essaims, lesquels concourraient, par leurs effets, à l’atteinte d’un objectif plus général.
Gaza, 2021, quand IA et essaims se rencontrent
Pour prévenir les multiples attaques indirectes qui visaient son territoire depuis la bande de Gaza, Tsahal, l’armée israélienne, aurait utilisé en mai 2021 des essaims de petits drones (14). Ceux-ci, opérant sur des zones déterminées par une analyse à base d’IA, devaient détecter la présence de lance-roquettes dissimulés et faciliter l’exploitation du renseignement par d’autres effecteurs. Il demeure difficile de mesurer le degré d’autonomie et d’intégration de ces drones, mais la densité du maillage conjuguée à la préparation des zones de recherches appuyée par de l’IA manifeste un changement d’échelle. La conjonction de l’IA et d’essaims favorise une forme de transparence du champ de bataille, et illustre l’effet multiplicateur de tels systèmes.
Ukraine, 2022, ou l’innovation tactique et technique comme facteur de supériorité
Les drones sont devenus des moyens indispensables dans le conflit ukrainien. Ils permettent d’opérer des frappes optimisées en relative sécurité. Les systèmes conventionnels, même à « bas coût », demeurent très coûteux (15) et vulnérables – leur coût ne serait pas un réel inconvénient sans cela. De ce fait, les systèmes civils offrent des solutions au rapport coût/efficacité inégalable, qu’ils soient employés directement ou adaptés aux besoins militaires. C’est ainsi le cas des systèmes utilisés pour les courses de drones. Le télé-pilote porte des lunettes connectées à la caméra du drone, ce qui rend le pilotage plus rapide et le ciblage plus précis (16).
Ces exemples soulignent les opportunités offertes et les menaces induites par des systèmes de plus en plus autonomes. Le développement technologique et l’IA favoriseront un emploi optimisé ; l’utilisation et l’adaptation de systèmes potentiellement commercialisés pour des usages civils – et donc à coût relativement bas – permettront une massification d’emploi ; la nécessité et l’ingéniosité des belligérants nourriront le développement ; enfin, les effets de tels systèmes seront aussi bien physiques que psychologiques. Il semble que le Swarm Advantage puisse être une réalité.
La voie des essaims, une voie largement empruntée
C’est bien pour cette raison que plusieurs pays avancent sur la voie des essaims, soit que ceux-ci constituent un objectif assumé, soit par l’acquisition de briques qui permettront, à terme, de développer de telles capacités (17).
Ainsi des États-Unis dont l’ambition est, à l’horizon 2040-2050, de conduire des missions entièrement réalisées par des systèmes automatisés, y compris létaux. Les programmes, particulièrement nombreux, explorent toutes les briques nécessaires au développement du Swarming – de l’action militaire à base d’essaims. La Chine cherche aussi à maîtriser le Swarming pour mener vers 2040 de telles opérations. Elle estime que « l’IA constitue l’avenir des opérations et l’instrument décisif de la guerre future » (18). Israël dispose d’une Base industrielle et technologique de défense (BITD) reconnue, et maîtrise les briques qui permettraient de constituer des salves manœuvrantes, et à terme de réels essaims, pour accroître la létalité et la rapidité de ses forces. La Turquie dispose aussi d’une filière drone qui a fait ses preuves. Enfin, la Russie avait communiqué précocement sur le développement de systèmes automatisés terrestres. Son objectif demeure de développer des systèmes permettant un emploi de masse. Corée du Sud et Inde ne sont pas en reste. Ces États développent tous des systèmes ou des briques se rapprochant de ce que serait l’essaim de demain.
Certes, les systèmes complexes ou très intégrés demeurent l’apanage de quelques-uns, et la réalité des avancées technologiques est soigneusement dissimulée. Cependant, il est permis de supposer que la miniaturisation des systèmes, la réduction des coûts, la facilité de mise en œuvre, la limitation du nombre d’opérateurs (19), le développement des systèmes de lancement et – le cas échéant – de récupération, vont accélérer le développement de systèmes de plus en plus « autonomes ». L’utilisation militaire de systèmes d’essaims civils, lorsqu’ils se trouveront dans le commerce, sera alors davantage un effort d’imagination de cas d’usage que d’acquisition de technologies.
La démarche française se veut pragmatique. Bénéficiant de « pépites » (20) dans le domaine des drones et de la robotique, complétées par une BITD solide, la France prend acte du potentiel de la robotisation à grande échelle. Elle s’organise (21) pour améliorer significativement ses capacités en exploitant le potentiel des systèmes automatisés qu’elle souhaite inscrire dans une trame cohérente à horizon visible. Elle prend parallèlement acte de la menace que peuvent représenter les essaims et, bien que moins explicitement, du potentiel qu’ils contiennent. C’est ce dernier point qui peut constituer une fragilité. Une démarche pragmatique et incrémentale est vertueuse. Elle peut aussi conduire à une forme d’inhibition ou à des difficultés à saisir une opportunité en termes de Swarming. Ce fut l’une des causes du retard de l’armement des drones et des munitions télé-opérées (22).
À moyen terme, des essaims prometteurs au niveau tactico-opératif
Les exemples précédents et les orientations prises par les pays les plus avancés permettent de penser que les essaims pourraient améliorer la production des effets physiques et psychologiques sur le champ de bataille, notamment par leur pouvoir de saturation et de sidération. Il est probable qu’apparaissent aussi de nouveaux modes d’action et des opportunités. En effet, si d’aucuns évoquent la fin du « confort opératif » (23), le champ de bataille sera indubitablement plus complexe et plus exigeant pour une armée conventionnelle qu’il a pu l’être ces dernières décennies. Nous identifions cinq phénomènes, qui sont autant de défis. Les essaims constituent une partie de la menace et une partie de la réponse.
Transparence du champ de bataille : une contribution non négligeable, tant pour l’accroître que pour s’en protéger
Le premier défi est lié à la transparence du champ de bataille, qui comprend deux dimensions : masquer ses moyens et détecter les moyens adverses, masquer ses intentions et percer celles de l’ennemi.
Masquer ses moyens, dans le domaine visible, mais aussi thermique ou électromagnétique paraît de plus en plus difficile – sauf peut-être sous la mer –, du fait des moyens de surveillance et de renseignement, notamment spatiaux. Il est cependant possible, par exemple, d’imaginer « diluer » un raid d’hélicoptères dans un essaim. Masquer ses intentions semble plus atteignable. Sans doute est-ce là le moyen de chercher à conserver à sa manœuvre un caractère imprévisible et un effet de surprise. Camouflage, leurrage et déception seront au cœur de la manœuvre future. L’engagement d’essaims pour ce type d’actions constitue une voie à explorer. S’ils permettront de masquer, les essaims faciliteront aussi la détection, via des systèmes d’alerte avancée et de senseurs permettant de prévenir au plus tôt d’une attaque ou de mouvements adverses. Intégrés dans une manœuvre de renseignement de masse, ils permettront, par la collecte de données dont l’analyse sera appuyée par des systèmes d’IA, de cerner une partie des intentions ennemies.
Accès, anti-accès et interdiction de zone : un avantage à l’entité dotée d’essaims
Le deuxième défi est celui du retour d’un champ de bataille disputé, avec des stratégies de déni d’accès ou d’interdiction de zone (A2/AD). Ces stratégies ne sont pas nouvelles, mais les employer ou les contrer nécessite des capacités particulières et adaptées. Il ne suffit pas d’avoir la volonté de porter le fer, il faut pouvoir. Or, l’émergence du milieu spatial, le développement du champ électromagnétique, les problèmes de positionnement-navigation-temps et l’accroissement des portées compliquent la tâche de celui qui ne dispose pas des capacités requises. L’avantage sera à qui en disposera, pour attaquer ou pour défendre.
En termes de déni d’accès, l’effet de l’essaim peut être comparé à celui de la défense contre avions : il s’agit de saturer l’espace, terrestre, maritime ou aérien, pour interdire physiquement une pénétration, de manière permanente ou temporaire. Le caractère consommable des drones favorise un emploi en ce sens. Protection de site, d’aéroport ou d’installations portuaires, minage à distance pré-déployé ou en réaction, activable ou désactivable… il s’agit de contrer la volonté de pénétration adverse et d’interdire la manœuvre.
En termes offensifs, il s’agit de pénétrer le système de défense adverse. Si nos capacités de Suppression of Enemy Air Defenses (SEAD) sont mises à mal par l’efficacité et la mobilité des défenses adverses, l’essaim permettra peut-être d’épuiser par saturation les systèmes ennemis et/ou de multiplier la probabilité de leur destruction par une répartition optimisée des cibles au sein de l’essaim. À un niveau plus tactique, mais toujours dans les premiers temps d’une opération, il est possible d’imaginer affaiblir les unités en charge de la défense – brouillage des communications, neutralisation des positions ennemies – avant de débuter une manœuvre offensive, les unités assaillantes étant protégées par une sorte de voûte formée d’essaims.
Maintenir le rythme ou briser le rythme adverse : l’essaim en tant que facilitateur
Le troisième défi est celui de l’accélération du tempo opérationnel. Cette accélération est recherchée pour elle-même car elle permet un effet de surprise et de sidération sur l’adversaire. Elle est aussi la conséquence de la transparence croissante du champ de bataille et de la réduction des frictions permise notamment par la géolocalisation et le partage de situation.
Assaillants comme défenseurs, chacun devra saisir toute opportunité de frappe, profitant d’un moment de vulnérabilité adverse, en concentrant pour un court moment ses forces avant de se re-diluer pour éviter d’être lui-même frappé – s’il n’est pas détecté avant d’avoir pu mener son action. Cela implique une boucle OODA (Observation-Orientation-Décision-Action) particulièrement rapide pour un ciblage précis, réactif et optimisé, un combat connecté pour concentrer et diluer ses unités, un système de commandement adapté et résistant. C’est donc la masse de l’essaim qui semble intéressante :
– pour un renseignement optimisé couvrant de larges surfaces ;
– en ce qu’elle offre une forme de redondance pour d’éventuels relais de communications ou actions de guerre électronique ;
– parce que le volume de systèmes peut sidérer l’assaillant en limitant et paralysant ses réactions ;
– puisqu’elle permet d’envisager des actions d’encerclement ou de prise à revers, interdisant à l’ennemi de disposer d’une juste perception de la situation.
La défense implique soit de détecter et frapper au plus loin, soit de reprendre l’initiative en rééquilibrant le rapport de force ou en déstabilisant l’assaillant. En ce qu’il peut accroître la transparence, l’essaim offre quelques chances au défenseur de percevoir le dispositif ennemi avant qu’il ne soit trop tard, puis de le frapper alors que l’assaillant a concentré ses efforts. Il reprendra l’initiative et pourra briser l’attaque adverse. Il s’agit donc d’opposer à des mobiles d’autres mobiles en nombre suffisant et/ou d’optimiser les actions de feu. L’essaim – et à strictement parler la meute ou la salve manœuvrante –, par son « intelligence », son volume et son inscription dans une trame plus large, est une piste à explorer.
En offensive ou en défensive, l’essaim contribuera à accroître le rythme de la manœuvre et à briser le tempo opérationnel adverse. Le parti équipé disposera d’un avantage certain.
À la recherche de la létalité
Le quatrième défi est celui de la létalité du champ de bataille, objectif et menace. En termes de létalité, les drones manifestent déjà un potentiel important, qu’ils soient armés ou inclus dans la boucle conduisant à l’action létale. À condition de maîtriser le traitement d’information de masse, l’emploi d’essaims permet a priori d’accroître encore les effets d’un simple système télé-opéré. Car la multiplicité des systèmes, leur relative autonomie et leur capacité à interagir pour optimiser la conduite de leur mission permet de penser que l’efficacité de tels systèmes sera en théorie supérieure. Qui plus est, leur efficacité en termes de neutralisation s’accompagnera probablement d’un effet psychologique – au moins temporaire – sur les unités ou le commandement des unités ciblées. Parallèlement, la difficulté à masquer ses moyens, la capacité à agir dans la profondeur du fait de l’allongement des portées – qui fragilisera l’architecture du commandement –, l’exploitation du champ électromagnétique et le développement croissant des drones aériens, navals, puis terrestres, feront peser sur le combattant et les unités une menace létale dont il conviendra de se protéger de manière quasi-permanente.
Un étalon différent pour mesurer la violence
En guerre, l’emploi de la violence vise à faire fléchir la volonté adverse – c’est un truisme que de le dire. La ressource humaine est aussi souvent ce qui permet de durer plus longtemps que l’adversaire. La recherche d’attrition pour affaiblir l’autre – sans s’exposer ou le moins possible – est ainsi constitutive de la guerre. Néanmoins, tous les États – et a fortiori les proto-États ou les organisations non étatiques – n’ont pas nécessairement le même regard sur la létalité et l’usage ou la compréhension du droit international humanitaire. Au-delà de la recherche d’attrition maximale chez l’ennemi, il pourra naître la tentation d’employer de manière délibérée une violence désinhibée à l’égard des combattants, voire de non-combattants. L’essaim peut être, hélas, aussi pensé comme un instrument de terreur.
Les défis évoqués paraissent nouveaux, mais le sont-ils vraiment ? Il semble simplement que l’âge du confort opératif soit révolu, et que les armées et les États occidentaux doivent de nouveau penser la guerre dans un sens plus classique bien qu’actualisé. Les développements doctrinaux modernes évoquent les notions de saturation, de submersion, de recherche d’effondrement psychologique, moral, tactique (24) ou opératif. Les développements tactiques valorisent la concentration des forces puis leur dilution, physique et/ou électromagnétique, voire l’ubiquité. Les essaims seront intégrés dans l’équation de la guerre et contribueront à relever les défis du champ de bataille futur à la place que leur réservera leur caractère propre – « small, smart, cheap and many (25) » –, exploitée par l’imagination et l’intelligence des combattants. Produits potentiellement par milliers, les essaims nourriront les facteurs de supériorité opérationnelle que sont compréhension, masse et foudroyance (26).
À ce stade, il paraît important de retenir :
– que l’intégration d’essaims et de systèmes apparentés procurera un avantage certain à celui qui en sera doté, car il lui permettra d’envisager prendre l’ascendant, au moins temporaire, sur son adversaire ;
– que le développement de la lutte anti-drones et anti-essaims est par conséquent un impératif absolu.
À plus long terme, des essaims à penser au niveau stratégique
Une place intermédiaire entre conventionnel et nucléaire ?
« [Les futures armes de rupture (27)] pourraient avoir une place particulière dans notre modèle capacitaire entre les armements « plus classiques » et l’arsenal nucléaire. Leur emploi ou menace d’emploi, permettrait de compléter la gradation des effets et apporterait d’autres options dans le découragement stratégique (28). » Cette formule, qui pourrait être étendue aux armes hypervéloces et à l’investissement de l’Espace, peut-elle aussi être étendue aux essaims, meutes et salves manœuvrantes, lesquels acquerraient alors un caractère plus stratégique ?
La manière dont l’armée de terre australienne envisagerait de faire face à un agresseur est intéressante pour réfléchir à la nature des essaims. Cette armée se place dans l’hypothèse d’une action du faible au fort et réfléchit à l’emploi de multiples systèmes d’essaims opérant dans les trois milieux pour « dissuader ou vaincre les attaques […] contre l’Australie ou ses intérêts en menaçant d’imposer, ou en imposant réellement, des coûts qui dépassent tout avantage perçu (29) ». En première approche, le parallèle avec le concept français de dissuasion se fait naturellement. Il s’agirait d’imposer des dommages disproportionnés pour dissuader un éventuel agresseur et, si ce dernier décidait malgré tout d’attaquer le pays « ou ses intérêts », de neutraliser ses capacités. Pourtant, une étude un peu plus approfondie fait apparaître quelques différences. En effet, il ne s’agit pas ici de dommages « inacceptables » au sens français, mais de dommages plutôt trop importants pour qu’une attaque soit intéressante. De même, il ne s’agit pas d’intérêts vitaux, mais d’intérêts « simples » – i.e. non qualifiés. Enfin, la question de l’emploi de tels systèmes ne se pose pas dans les mêmes termes. Il s’agit ici de « dissuader ou [de] vaincre ». L’emploi est une alternative de même nature que la menace d’utilisation. Ainsi, cette approche n’est pas du même pied que l’approche stratégique française. Certes, ses enjeux sont bien stratégiques, car il s’agit de l’aptitude australienne à dissuader et, le cas échéant, arrêter un agresseur. Toutefois, il s’agit surtout de porter des coups aux agresseurs, c’est-à-dire à ses forces armées exclusivement. Le nucléaire cible autre chose, des dommages inacceptables chez l’ennemi lui-même, au cœur de son pays et de sa population.
Ainsi, si les systèmes d’essaims présentent potentiellement un caractère stratégique pour certains États non dotés (30), ce caractère n’est pas différent du caractère stratégique de bombardements massifs ou de missiles de croisière. Les essaims demeurent des instruments de combat. Ils ne s’inscrivent pas en position intermédiaire dans un éventuel continuum conventionnel–nucléaire – lequel n’existe d’ailleurs pas dans la doctrine française. Tout au plus pourraient-ils s’articuler entre conventionnel et nucléaire tactique, pour des pays qui auraient encore cette capacité dans leur doctrine. En revanche, en tant qu’instrument de combat, ils viennent compléter les capacités conventionnelles pour épauler la dissuasion et éviter un contournement par le bas.
Des essaims « autonomes » et « tueurs », une certitude à long terme
Le général Allen et A. Husain développent un nouveau concept (31), celui d’hyperwar : « en termes militaires, l’hyper-guerre peut être redéfinie comme un type de conflit où la prise de décision humaine est presque entièrement absente de la boucle observation-orientation-décision-action (32) ». Ils décrivent un combat où des systèmes d’essaims complexes et largement autonomes conduisent des frappes cinétiques coordonnées, imposant des réactions quasi-instantanées automatisées. Cette vision du combat peut paraître futuriste. Mais si l’on considère que plusieurs pays se sont engagés résolument dans la voie des essaims, et que ces systèmes – valorisés par de l’IA et intégrés dans une trame plus large – présentent indubitablement un intérêt opérationnel, il est hautement probable que des essaims, coordonnés et manœuvrants, éventuellement hypervéloces, analysant leur environnement, ajustant leur manœuvre et frappant de manière optimisée voient le jour. L’homme y aura probablement une place réduite, car il ne pourra plus faire face à la vitesse du combat. Aide à l’analyse et à la décision de l’homme à moyen terme, l’IA se substituera probablement ensuite à celui-ci, lequel se bornera – si tant est qu’il en ait le temps – à autoriser l’emploi de systèmes à base d’IA, qui agiront dans un cadre défini… ou non.
Dans un court métrage intitulé Slaughterbots (33) – robots bouchers –, un essaim est employé pour cibler et assassiner de paisibles étudiants. Il est à souhaiter que ces systèmes ne soient jamais développés pour de telles fins. Néanmoins, il serait hasardeux de clamer qu’ils ne seront pas développés pour cibler et détruire des objectifs militaires, fantassins du champ de bataille, escadres ou aéronefs…
Penser les essaims au niveau stratégique ne leur confère pas pour autant un caractère stratégique spécifique. Certes, des systèmes d’essaims intégrant de l’IA et doués d’un fort pouvoir destructeur auront nécessairement un effet sur la conduite de la guerre lorsqu’ils seront employés pour les premières fois. Cependant, les essaims demeurent des systèmes de combat.
Pour autant, du fait même de leur fort potentiel destructeur et de l’intégration avancée d’IA, leur développement est en soi une forme de signalement stratégique. Développe-t-on des systèmes complets, incluant des capacités létales ? Développe-t-on simplement des systèmes très avancés sans intégrer de module létal – traité par des systèmes plus traditionnels ? Faut-il conduire un développement jusqu’au seuil de ces capacités, en se tenant prêt à le franchir si le contexte l’impose ? De tels travaux doivent-ils être conduits en toute discrétion, doit-on les déclarer ou simplement les laisser supposer ? Il appartient à d’autres forums que celui-ci de répondre à ces questions.
Il convient de garder à l’esprit deux éléments :
– Dans un rapport de force asymétrique, l’essaim est une capacité nivelante ; il implique donc a minima de s’engager dans des systèmes anti-essaims.
– Dans un rapport de force symétrique, le belligérant non doté d’essaims encourt un risque de paralysie face à celui qui compte de tels systèmes dans ses capacités. Cette paralysie sera d’autant plus complète que les essaims adverses seront intégrés dans un système plus complet.
L’intérêt opérationnel des essaims est donc avéré. Leur développement amène pourtant des réserves.
Des réserves
Les essaims sont partie intégrante des systèmes automatisés – les « robots » –. Ceux-ci suscitent depuis longtemps des réflexions sur leur emploi et des réserves (34). La médiatisation dès 2013 de la présence d’un « robot-tueur » déployé par la Corée du Sud à la frontière entre les deux Corée a en outre largement contribué à faire émerger la problématique de l’emploi létal d’un système doué d’une certaine « autonomie », point de cristallisation et d’achoppement des débats.
La première réserve à considérer est liée au caractère déshumanisant de tels systèmes. Une machine qui ne laisserait « aucune chance » à l’ennemi peut-elle en effet être utilisée ? Mais si les Slaughterbots, cités précédemment, ne frappaient pas des étudiants mais des fantassins, leur efficacité tactique ne serait pas contestée. Ils permettraient, par ailleurs, de préserver la vie de ses propres soldats tout en garantissant le succès de la mission. Auraient-ils alors réellement un caractère déshumanisant ? Rien n’est moins sûr. En effet, toute l’histoire de l’armement a consisté à pouvoir agir et frapper hors de portée de l’ennemi. L’essaim ne semble par conséquent ni plus ni moins déshumanisant que la bombe guidée tirée d’un avion ou le tir d’artillerie surfacique. Cette première réserve paraît donc peu fondée.
La seconde réserve est liée à « l’autonomie » du système : dans le cas d’essaims létaux, une machine peut-elle décider, seule, de tuer un être humain ? Là encore, revenons au court métrage « slaughterbots » : il frappe l’imaginaire en rendant quasi-réel le « robot-tueur ». Pourtant, ce système a été conçu par une intelligence humaine. Même s’il a perfectionné l’acquisition de ses cibles par auto-apprentissage, les paramètres initiaux – y compris les limites infranchissables – ont été saisis par des humains. Si l’on transpose moyens et cadre, en imaginant par exemple un ensemble de plusieurs missiles coordonnés et suffisamment « intelligents » pour détecter et abattre une patrouille de chasseurs ennemis, alors, là encore, un tel essaim peut paraître plus acceptable.
Cette seconde réserve renvoie en réalité à la question des Sala – Systèmes d’armes létaux autonomes –, eux-mêmes objets de débats quant à leur définition – il n’en existe pas d’universellement reconnue –, à leur périmètre et à leur régulation éventuelle (35).
La France s’est saisie de cette question depuis 2013 (36). Conduisant des réflexions au sein du ministère, elle a mis en place en 2019-2020 un Comité d’éthique de la Défense, « structure de réflexion permanente sur les enjeux éthiques des nouvelles technologies dans le domaine de la défense (37) ». Dans un avis rendu en 2021 (38), ce comité propose une réponse à la question de l’intégration de l’autonomie dans les systèmes d’armes létaux. Après avoir souligné le fait qu’une « machine autonome ne se fixe pas ses propres règles » et les dangers de l’utilisation du « champ lexical de l’anthropomorphisme (39) », le comité procède à la distinction entre Sala et Salia (« Systèmes d’armes létaux intégrant de l’autonomie mais demeurant sous la maîtrise de l’humain (40) »). Il estime que « le refus des Sala ne doit pas […] concerner davantage les Salia comportant des fonctions automatisées de plus haut niveau ou des fonctions d’autonomie décisionnelle, dès lors que le rôle du commandement humain est […] préservé, dans des conditions garantissant le respect du principe constitutionnel de nécessaire libre disposition de la force armée, du principe de continuité de la chaîne de commandement et des principes du [Droit international humanitaire] DIH (41) ». Cet avis nourrira l’approche défendue par la France avec d’autres États sur la scène internationale, qui « vise à veiller à ce que le développement et l’usage de potentiels [Sala] demeurent pleinement conformes au DIH en distinguant d’une part les systèmes devant être rejetés et les systèmes devant être encadrés […] (42). » Pour la France, ne peuvent être utilisés « les systèmes agissant en dehors de toute forme de supervision humaine et de subordination à une chaîne de commandement (43) ». En d’autres termes, la France ne s’interdit pas d’utiliser des systèmes automatisés létaux. Elle entend cependant le faire de manière responsable et équilibrée, ainsi que le démontrent les recommandations accompagnant l’avis du comité d’éthique. Cette seconde réserve paraît ainsi prise en compte.
So what? Une hyper-réponse à une hyper-guerre ?
Les essaims feront partie demain des capacités militaires, amies et ennemies. Néanmoins, leur développement dans notre pays sera guidé – parfois contraint – par notre vision de l’éthique d’emploi des essaims et des armes dites « autonomes », qui se manifeste dans les positions prises par la France sur la scène internationale. Notre pays avance donc sur un chemin de crête étroit dont l’horizon se dérobe sans cesse. Sur la voie ardue de la construction de cette capacité, il convient de concilier pragmatisme et ambition, satisfaction des besoins opérationnels et maîtrise des armements, autonomie et éthique. Il convient surtout de ne pas insulter l’avenir. Au moins huit pistes complémentaires apparaissent alors.
Ne pas négliger, au niveau individuel, la réflexion philosophique et morale
La mise en place d’un comité pour traiter des problématiques éthiques liées aux nouvelles technologies vient répondre à un besoin évident. Ses avis offrent des réponses éthiques et techniques qui nourrissent les décisions de haut niveau. Elles sont satisfaisantes, et doivent être pleinement intégrées. Pour autant, elles sont potentiellement incomplètes. Car la guerre, phénomène humain et politique par excellence, invite les chefs de tout niveau à réfléchir à la place de l’homme, aux moyens du combat, à la finalité d’un affrontement, aux voies de sortie d’un conflit. « Une situation radicalement nouvelle a été créée par l’apparition des armes modernes […]. La guerre a acquis désormais un pouvoir destructif tel qu’elle fait, à bien des égards, voler en éclat ses critères traditionnels de justification (44) ». Cette réflexion de Mgr Antoine de Romanet, l’évêque aux armées françaises, invite à la réflexion personnelle, utilement nourrie par ailleurs des avis du comité d’éthique.
Faire preuve de vigilance sémantique
La question sémantique est d’une grande importance pour celui qui réfléchit à l’emploi des essaims. Les termes employés peuvent en effet être mal compris. Il est ainsi fréquent de lire qu’un système qui définit ses propres règles n’a aucun intérêt opérationnel et ne saurait être utile au chef militaire. Mais de quoi parle-t-on réellement ? Veut-on laisser penser qu’un système doué de capacités d’auto-apprentissage n’aurait pas d’intérêt opérationnel, par exemple face à des menaces évolutives ou douées des mêmes aptitudes ? Ne parle-t-on pas d’ailleurs plutôt de modes d’action, eux-mêmes soumis aux lois de la programmation ? Enfin, une machine peut-elle se fixer ses propres règles ? Le comité d’éthique émet un avis assez net à ce sujet : « une machine “autonome” ne se fixe pas ses propres règles. Derrière l’autonomie, il y a des automatismes ; derrière les automatismes, il y a des programmes ; derrière les programmes, il y a des humains qui fixent les règles de la machine, y compris celles autorisant cette machine à s’affranchir de ces mêmes règles (45) ». De la même manière, l’expression « homme dans la boucle » paraît plutôt inappropriée : à strictement parler, l’homme n’est plus dans la boucle lorsque l’obus est sur trajectoire. L’armée de Terre lui préfère celle « d’homme dans la décision », et les Anglo-Saxons en sont venus à distinguer « in the loop », « on the loop » et « over the loop ».
Par conséquent, si les formules simples apportent un semblant de clarté, elles ont l’inconvénient de constituer parfois des raccourcis peu subtils et périssables. Autant être vigilant, eu égard au potentiel de l’IA.
Faire preuve de prudence prospective
Dans le domaine prospectif, il existe au moins trois inconnues. La première a trait au niveau d’intégration, à terme, de l’IA dans les systèmes de défense. Tout porte à croire qu’il sera important. Selon le général Allen, « la guerre de haute intensité du futur se jouera selon le niveau d’hyperréactivité et d’hyper-adaptation des moyens technologiques déployés. Cette hyperwar positionnera le chef militaire dans le rôle d’un chef de mission, qui coordonnera les différents systèmes robotisés […], tout en leur déléguant une certaine forme d’autonomie pour une réactivité en temps réel (46) ». La deuxième inconnue a trait à la faculté d’un système d’adapter ses modes d’action. Une unité au combat apprend des tactiques et techniques ennemies. Elle adapte alors ses propres modes d’action. De même, un essaim fera face à des systèmes de lutte anti-essaim, à des « prédateurs ». Le défi pour cet essaim sera de leur échapper ou de les détruire. Il conviendra donc qu’il dispose, pour maximiser sa survivabilité, d’une aptitude à s’adapter à un environnement changeant (47). La troisième inconnue concerne le développement de l’IA elle-même. Une IA sera-t-elle capable de raisonner, « de manipuler l’abstraction, les concepts et les preuves par une interprétation du sens (48) » ? Il est communément admis que ce ne peut être le cas. Pourtant, comme le développe Olivier Bartheye, maître de conférences au Centre de recherche de l’École de l’air (CREA), la recherche n’a pas dit son dernier mot « pour construire vraiment des machines intelligentes [en leur apprenant] la cause et l’effet (49). » En d’autres termes, ce qui paraît impossible aujourd’hui ne le sera pas nécessairement après-demain.
Ne pas tenir pour définitives les difficultés juridiques
La question de la licéité des « robots-tueurs », des « essaims autonomes », des « munitions intelligentes » est objet de débats. Il est courant d’entendre qu’une machine ne peut pas discriminer sans risque d’erreur un combattant d’un non-combattant. C’est vrai pour l’instant, mais demain ? N’est-il pas hasardeux de présumer aujourd’hui que de futurs essaims ne satisferaient pas à l’examen de licéité prévu par les conventions de Genève (50), et qu’en ce sens, ils ne pourraient être conformes au droit international humanitaire ? Nous postulons au contraire que des essaims létaux, parce qu’ils intègrent une capacité de calcul et de traitement de données, pourraient être capables, à terme, de distinguer les combattants des non-combattants, de mener une action létale proportionnée et d’éviter de causer des dommages superflus. Leur emploi pourrait en outre être réfléchi en transposant les méthodes d’analyse des risques de dommages collatéraux déjà employées.
Il ressort des premières recommandations qu’il convient de ne pas tenir pour acquis les convictions d’aujourd’hui. Cela ne signifie pas pour autant que tout soit possible. Mais, pour dépasser les difficultés et guider la réflexion, le plus petit dénominateur commun à garder à l’esprit est probablement la responsabilité humaine, non seulement comme principe juridique, mais aussi et d’abord en tant que principe éthique.
Continuer d’être actif dans les discussions internationales et l’action réglementaire
Les discussions internationales sont une voie à poursuivre. Le sujet des essaims n’est, à ce stade, pas traité en tant que tel par la communauté internationale. Nous l’avons vu cependant, la question des développements autour de l’IA et le sujet des Sala sont liés ; l’ensemble des États n’a pas la même approche. La France a fait le choix, dès 2013, de participer activement à ces discussions dans le cadre de la Convention sur certaines armes classiques (CCAC). Elle participe à la définition du cadre d’emploi et des règles. Or, l’absence de règles profite généralement à celui qui domine. À l’inverse, si les règles peuvent contraindre celui qui les applique – si tant est qu’il ne les ait pas définies comme il le souhaitait –, elles maintiennent celui qui décide de ne pas les appliquer dans une position plus inconfortable. L’exploitation du potentiel des essaims ne paraît donc pas contradictoire avec le traitement des sujets IA et autonomie dans les instances internationales.
Poursuivre sans relâche les efforts engagés, en ne négligeant pas le benchmarking
La France avance dans le domaine des essaims de manière pragmatique et équilibrée. Pragmatique, car elle construit progressivement cette capacité ; équilibrée, car elle est consciente du fait que les essaims ne sont pas le graal des combats de demain, et qu’ils contiennent autant d’opportunités que de menaces. Les efforts entrepris sont à poursuivre :
– au niveau international, en conservant un rôle actif dans l’enceinte de la CCAC ;
– au niveau national, en favorisant les travaux parlementaires, les colloques et travaux de recherche, en favorisant – en lien avec la Direction générale de l’armement (DGA) – les « pépites » nationales développant des briques d’autonomie ;
– au niveau des Armées et de la DGA, en poursuivant la réflexion doctrinale (travaux du CICDE et de chaque armée) et les réflexions prospectives (organisation, intégration des capacités, formation RH, expérimentation robotique…) ; en maintenant les ressources engagées pour la construction progressive de futures capacités (études amont, expérimentations…) (51) ; en structurant une filière d’excellence dans le domaine des essaims et systèmes assimilés ; en maintenant, ainsi que le préconisent la stratégie relative à l’intelligence artificielle de défense, le Comité d’éthique de la Défense et la Mission d’information parlementaire, les efforts en termes de recherche sur l’autonomie dans les systèmes d’armes ou de travaux relatifs à l’IA de défense (52) ; en poursuivant les efforts visant à réduire les vulnérabilités des essaims (sensibilité aux agressions électromagnétiques, acoustiques ou cybernétiques ; sensibilité aux phénomènes météorologiques et aérologiques ; limites en termes d’élongation et d’endurance…).
Ces efforts peuvent être encouragés mais aussi complétés. Plusieurs États avancent de manière plus résolue et imaginent des systèmes d’essaims en tant que capacité clef. Ainsi, par exemple, Israël avec le système Legion X, « solution de combat » en réseau intégrant des drones hétérogènes, mis en œuvre par un nombre réduit d’opérateurs appuyé par de l’IA et donc doué d’un niveau élevé d’autonomie (53). Quels que soient le niveau réel de maturité de ce système et la réalité de son engagement opérationnel, il semble intéressant à étudier en termes d’emploi et, pourquoi pas, en termes de rétro-ingénierie. S’il est estimé que ces capacités sont essentielles pour le combat futur, il convient de faire feu de tout bois dans le respect de nos lignes éthiques.
Occuper davantage le domaine offensif
L’intégration d’essaims et de systèmes apparentés procure un avantage certain à celui qui en est doté, contribuant à l’acquisition de la supériorité opérationnelle. Ces systèmes ont un potentiel avéré en termes de létalité, laquelle demeure l’équation principale sur nombre de champs de bataille. Partant de ce double constat, peut-être faut-il développer une réflexion avec un regard encore plus offensif :
– Non, la létalité n’est pas un gros mot, pas plus que l’autonomie, si le principe de responsabilité demeure.
– Non, les essaims ne sont pas à exclure a priori.
– Oui, les essaims participent à la recherche de masse et à la foudroyance, à la saturation physique et psychologique de l’adversaire, à la désorganisation générale des unités ennemies.
En France, l’armement des drones a longtemps été un sujet tabou, de même que les munitions dites « rôdeuses ». À l’inverse, les Turcs ont très tôt structuré une filière et développé de réelles capacités dans ces domaines. La France arme dorénavant ses drones, et développe des munitions télé-opérées. Armer des essaims à l’avenir, est-ce si transgressif ? Quoi qu’il en soit, il semble raisonnable d’aller jusqu’au seuil de l’essaim létal et, si les armées le jugent nécessaire, de le faire savoir par les canaux appropriés.
Un corollaire à prendre en compte, la lutte anti-essaims
La question de la lutte anti-essaims transparaît en filigrane. Elle se nourrira des développements de la lutte anti-drones, peut-être même aussi de la lutte NRBC (Nucléaire, radiologique, biologique, chimique) – avec le concept de zones polluées par des essaims. Elle constitue cependant un défi à part entière. En effet, il s’agira de lutter contre une IA qui met en œuvre des systèmes auto-coordonnés, adaptatifs et saturants. Il conviendra donc de chercher à leurrer cette IA en fonction de ce qui est connu ou supposé de sa programmation et de ses capacités d’adaptation. L’acquisition d’une capacité anti-essaims paraît ainsi impérative à terme.
Conclusion
Au terme de cette réflexion, trois éléments paraissent devoir être soulignés.
Il semble que les essaims ne soient ni le graal, ni une chimère : ils seront, car généralement, ce qui est possible devient inévitable, au moins chez ceux qui sont peu scrupuleux.
Cette capacité en devenir présente une tension importante entre espérances opérationnelles et questions éthiques. Si, pour des penseurs chinois, « l’idée que la fin justifie les moyens reste le plus important héritage spirituel de [Machiavel] (54) », nos sociétés accordent une importance fondamentale à la nature « humaine » de la guerre, et par conséquent aux réflexions éthiques. L’équilibre est subtil, et la ligne de crête étroite. Or, la vision effrayante des Slaughterbots imprègne l’imaginaire et conduit à perturber un équilibre délicat.
Toutefois, les caractéristiques du champ de bataille futur, l’évolution de la conflictualité, les problèmes de masse, de foudroyance et de survivabilité – éternels défis du chef militaire –, et le potentiel des essaims invitent à aller plus loin. L’autonomie ne doit pas être crainte, la pensée doit être offensive. Car si la rupture est possible un jour, c’est avec cet état d’esprit qu’elle se préparera.
En regardant un horizon qui se dérobe, les penseurs doivent plus que jamais penser en hommes de guerre avec les hommes de guerre, et les hommes de guerre ont à faire la guerre en étant pénétrés de l’idée que le sens ultime de leur action est de contribuer à construire la paix après la guerre. ♦
(1) Allen John R. (général US) et Husain Amir, « On Hyperwar », Proceedings, vol. 143/7/1,373, juillet 2017 (https://www.usni.org/magazines/proceedings/2017/july/hyperwar).
(2) Lagneau Laurent, « Un drone contrôlé par une intelligence artificielle se serait retourné contre son opérateur lors d’une simulation », Opex 360-Zone militaire, 2 juin 2023 (https://www.opex360.com/).
(3) L’usage emploie plutôt le terme de drone pour un système aérien ou naval, et de robot pour un système terrestre. Cet article emploiera le terme générique de drone pour tout système.
(4) Pour une définition possible, et alors que des travaux d’actualisation sont en cours, voir Centre interarmées de concepts, de doctrines et d’expérimentations (CICDE), Emploi de l’intelligence artificielle et des systèmes automatisés, Concept exploratoire interarmées, CEIA-3.0.2_I.A.&SYST-AUT(2018), N° 75/ARM/CICDE/NP du 19 juillet 2018, § 434 et 435 (https://www.defense.gouv.fr/).
(5) « Ensemble de machines communicantes non habitées agissant collectivement sous supervision humaine : drones, missiles et munitions dotés de capacités de vols et de manœuvre automatique de longue durée, tirés contre une zone suspecte et capable de remplir les fonctions d’une flotte d’attaque habitée (mouvement, brouillage, leurrage, reconnaissance et identification de cibles, destruction et évaluation des dommages) ». Patry Jean-Jacques (général 2S), « La “salve manœuvrante” : une avancée décisive dans les combats des 20 prochaines années en attendant l’ère des essaims autonomes », Défense & Industrie, n° 15, avril 2021 (https://www.frstrategie.org/).
(6) Moschetta Jean-Marc, « Essaims de drones : l’intelligence collective comme révolution des usages », in Les enjeux de l’autonomie des systèmes d’armes létaux, actes du colloque du 9 novembre 2021, Éd. A. Pedone, 2022. Cet article particulièrement complet présente aussi, entre autres, les enjeux éthiques liés aux essaims.
(7) Ibidem, p. 49-51.
(8) Ibid., p. 50.
(9) Sherrin Sam (commandant), « Looking to 2040: the Swarm Advantage », Australian Army Research Centre, 26 mars 2021 (https://researchcentre.army.gov.au/library/land-power-forum/looking-2040-swarm-advantage).
(10) Majumdar Roy Choudhury Lipika (dir.), Rapport final du Groupe d’experts sur la Libye créé par la résolution 1973 (2011) du Conseil de sécurité, 8 mars 2021, p. 20 (https://www.un.org/).
(11) Ibid., p. 20.
(12) Kasapoglu Can (Docteur), « Analysis—Five Key Military Takeaways from Azerbaijani-Armenian War », 30 octobre 2020 (https://www.aa.com.tr/).
(13) Lubin-Vitox Tamara et Gojon Céline, Haut-Karabagh, une massification par les drones, Note de recherche prospective, CDEC, septembre 2021, 6 pages (https://www.c-dec.terre.defense.gouv.fr/).
(14) Ari Gross Judah, « Des essaims de drones utilisés pendant le conflit à Gaza », The Times of Israël, 11 juillet 2021 (https://fr.timesofisrael.com/). Hambling David, « Israel used World’s First AI-guided Combat Drone Swarm in Gaza Attacks », New Scientist, 30 juin 2021 (https://www.newscientist.com/).
(15) 5 millions de dollars pour un Bayraktar TB2, la même somme pour l’unité de contrôle.
(16) Gault Matthew, « Ukraine is now strapping RPGs to racing drones to bomb invading Russians », Vice, 2 février 2023 (https://www.vice.com/).
(17) Panorama des avancées dans Fouillet Thibault, Lassalle Bruno, avec le concours de Patry Jean-Jacques, Les systèmes automatisés vont-ils redéfinir la nature du combat terrestre ?, Note 03 T3, Fondation pour la recherche stratégique (FRS)/Eurocrise, 4 février 2020 (https://orbilu.uni.lu/). Ducourtieux Laëtitia (lieutenant-colonel), Essaim de drones, quel défi pour nos armées ? (mémoire), École de Guerre, 2022.
(18) Fouillet Thibault et al., op. cit., p. 5.
(19) Moschetta Jean-Marc, op. cit., p. 41.
(20) Commission des affaires étrangères, de la défense et des forces armées, Les drones dans les forces armées (Rapport d’information n° 711), 23 juin 2021, p. 55 (https://www.senat.fr/rap/r20-711/r20-7111.pdf).
(21) Ainsi du projet Vulcain pour l’armée de Terre. Office national d’études et de recherches aérospatiales (Onéra), « Robotique aéroterrestre : l’Onéra aux côtés de l’Armée de Terre », 15 juin 2021 (https://www.onera.fr/).
(22) Les drones dans les forces armées, op. cit, p. 49.
(23) État-major de l’armée de Terre (EMAT), Action terrestre future, septembre 2016, p. 15 (https://archives.defense.gouv.fr/content/download/487834/7804552/file/2016AdT-ActionTerrestreFuture.pdf).
(24) Voir en particulier les travaux du Centre de recherche de l’Académie militaire de Saint-Cyr Coëtquidan sur les performances de l’emploi de drones et ses enseignements tactiques [diffusion restreinte].
(25) Sherrin Sam, op. cit.
(26) Anthonioz Régis (colonel), « La guerre des clones aura-t-elle lieu ? Les systèmes autonomes dans le milieu aéro-terrestre », Cahier de la RDN, « Regards du CHEM » 2022, p. 416-429 (https://www.defnat.com/).
(27) Armes laser, micro-ondes, à effet dirigé, canons à son, à impulsion électromagnétique…
(28) Michel Stanislas (colonel), « Les futures “armes de rupture” et leur emploi possible dans les armées françaises », Cahier de la RDN, « Regards du CHEM » 2022, p. 400-415 (https://www.defnat.com/).
(29) « Deter or defeat […] attacks on Australia or its interests by threatening to, or actually imposing, costs that exceed any perceived advantage », in Sherrin Sam, op. cit.
(30) Au sens du Traité de non-prolifération (TNP).
(31) Allen John R. et Husain Amir, op. cit.
(32) Ibid.
(33) Turuban Pauline, « Un court-métrage choc imagine l’avenir terrifiant des robots tueurs », RTS, 22 novembre 2017 (https://www.rts.ch/info/monde/9103928-un-courtmetrage-choc-imagine-lavenir-terrifiant-des-robots-tueurs.html).
(34) Voir Bernanos Georges, La France contre les robots, 1947.
(35) Commission de la défense nationale et des forces armées, Les systèmes d’armes létaux autonomes (Rapport d’information n° 3248), 22 juillet 2020 (https://www.assemblee-nationale.fr/).
(36) La France est largement impliquée, depuis l’origine (2013) dans les travaux menés à Genève à la Convention sur certaines armes classiques (https://cd-geneve.delegfrance.org/-Armes-classiques-).
(37) Parly Florence, « Discours de lancement du comité d’éthique de la Défense », Paris, 10 janvier 2020 (https://www.vie-publique.fr/discours/272741-florence-parly-10012020-comite-dethique-de-la-defense).
(38) Comité d’éthique de la défense, Avis sur l’intégration de l’autonomie dans les systèmes d’armes létaux, 29 avril 2021 (https://www.defense.gouv.fr/).
(39) Ibid., p. 3.
(40) Ibid., p. 4.
(41) Ibid., p. 4.
(42) « Déclaration générale de la France au Groupe d’experts gouvernementaux (GGE) sur les Sala », Genève, 25 juillet 2022 (https://cd-geneve.delegfrance.org/).
(43) Ibid.
(44) Romanet (de) Antoine (Mgr), « “Guerre juste” et injustice de la guerre en Fratelli tutti (n° 258) », Diocèse aux armées françaises, 14 octobre 2020 (https://dioceseauxarmees.fr/).
(45) Avis du comité d’éthique, op. cit., p. 3.
(46) Général (US) John R. Allen, cité par Boisboissel (de) Gérard, « Les opportunités d’usage qu’offre l’autonomie en robotique militaire », actes du colloque, op. cit., p. 24.
(47) Voir en particulier les travaux du professeur Fernando Peruani sur l’intelligence collective et les stratégies collectives à partir de modèles bio-inspirés.
(48) Bartheye Olivier, « Le défi du codage d’une autonomie décisionnelle dans les systèmes embarqués », actes du colloque, op. cit., p. 65.
(49) Pearl Judea et Mackenzie Dana, The Book of Why: the New Science of Cause and Effect, Basic Books, 2018, cité par Bartheye Olivier, ibid., p. 66.
(50) « L’article 36 du Protocole I de 1977 additionnel aux Conventions de Genève de 1949 fait obligation à chaque État partie de veiller à ce que l’emploi de toute nouvelle arme ainsi que tout nouveau moyen ou toute nouvelle méthode de guerre qu’il étudie, met au point, acquiert ou adopte soit conforme aux règles du droit international humanitaire. » CICR, « L’examen de la licéité des nouvelles armes », 30 novembre 2011 (https://www.icrc.org/).
(51) C’est tout le sens de la démarche portée par l’armée de Terre avec le projet capacitaire Vulcain.
(52) Comité d’éthique de la Défense, « Avis sur l’intégration de l’autonomie dans les systèmes d’armes létaux », 29 avril 2021, p. 6-7 ; Rapport d’information n° 3248, op. cit., p. 76-78 ; L’intelligence artificielle au service de la défense, rapport de la Task Force IA, septembre 2019.
(53) Cf. Elbit Systems, « Legion-X », Youtube, 19 octobre 2022 (https://www.youtube.com/) et « Legion-X AM-PM – Autonomous management system for unmanned heterogeneous swarms » (https://elbitsystems.com/).
(54) Lang Quiao et Xiangsui Wang, La guerre hors limites, Payot, 1999, p. 254.