L’intelligence artificielle est une composante inséparable de l’innovation. Ses applications sont multiples, duales, et peuvent servir dans la plupart des domaines militaires, principalement en dehors du champ létal. La ministre des Armées a décrit les principes de la doctrine militaire en matière d’IA, posant en particulier un cadre éthique. Deux champs de réflexion méritent une attention particulière : les conséquences potentielles de l’importance grandissante de l’IA sur certains outils et équilibres stratégiques entre puissances. Face à celles qui auraient la tentation d’utiliser l’IA sans s’embarrasser des mêmes contraintes éthiques, la France possède les outils doctrinaux, la volonté d’investissement capacitaire et la légitimité pour répondre au mieux à ces enjeux stratégiques, entraîner ses partenaires et conserver ainsi l’initiative.
L’intelligence artificielle et ses applications : un défi stratégique pour la France
Note préliminaire : Article rédigé en mai 2019 dans le cadre des travaux individuels du CHEM.
L’intelligence artificielle (IA) est aujourd’hui une composante incontournable de l’innovation : annoncée comme un levier de croissance pour l’économie, une nouvelle révolution industrielle, elle concentre également les critiques et révèle les inquiétudes qui ont toujours accompagné les progrès scientifiques majeurs. Elle porte en effet la possibilité d’une autonomisation extrême de la machine par rapport à l’homme, de la créature sur son créateur. Les bouleversements que promet la généralisation de ces technologies sont à la mesure du champ de leurs applications, et il n’y a guère de domaines de l’activité humaine qui n’en bénéficieront pas.
Le champ militaire ne fait évidemment pas exception. Concernant les armées françaises, ainsi que les directions et services interarmées, la ministre des Armées a dévoilé la doctrine et tracé la stratégie en la matière dans son intervention à Saclay, le 5 avril dernier : reconnaissance de l’IA comme un domaine « d’opportunités fabuleuses », investissements dans le secteur (1) mais également engagement responsable (2), avec le refus de développer des robots tueurs autonomes et la création d’un comité éthique ministériel. La ministre n’exclut évidemment pas, dans son allocution, la possibilité que d’autres puissances ne s’embarrassent pas des mêmes exigences morales.
L’IA est donc présentée comme une « priorité pour notre défense nationale » (3). L’analyse de cette montée en puissance et ses répercussions sur notre stratégie de défense constituent cependant un domaine encore relativement inexploré (4). Deux champs en particulier méritent l’attention : les outils ou systèmes considérés comme stratégiques – dont la dissuasion nucléaire – et les équilibres stratégiques entre puissances, mondiales ou régionales, ou susceptibles d’influencer nos partenariats. Par exemple, la dissuasion, clef de voûte de notre défense, doit être capable, à l’aube du « troisième âge nucléaire » (5), de s’adapter aux « paramètres complexes et variables » (6) que l’IA ne manquera pas de bouleverser. Par ailleurs, alors que notre stratégie de défense s’articule entre « autonomie stratégique », « ambition européenne » et « responsabilités globales » (7), la compréhension et l’anticipation d’éventuelles modifications dans les grands équilibres stratégiques nous sont également fondamentales.
Face à ces défis, la France possède les outils doctrinaux (8), la volonté d’investissement capacitaire et la légitimité pour répondre au mieux à ces enjeux stratégiques, entraîner ses partenaires et conserver l’initiative face aux jeux des autres puissances.
L’intelligence artificielle, une somme de technologies à la complexité variable, pour des usages multiples
L’IA ne constitue pas une seule technologie, mais un ensemble technologique fondé sur « l’évolution des capacités des machines, en particulier dans le domaine de l’apprentissage » (9). Elle repose sur la capacité à traiter de l’information (architecture des machines – avec utilisation possible de réseaux de neurones (10) – langages informatiques et algorithmes utilisés…), sur les méthodes d’apprentissage (autonome – machine learning – ou sous la supervision plus ou moins importante d’un opérateur humain, apprentissage avec une autre machine, méthodes de « récompenses », nombre de couches de neurones utilisées (11)) et enfin, sur la quantité et la qualité des informations disponibles (12). Les progrès à venir en matière d’IA viendront de la capacité à combiner ces trois domaines.
Les promesses de l’intelligence artificielle
Il existe une grande diversité des IA, avec différents niveaux d’autonomie. On trouvera ainsi désigné le niveau d’IA le plus basique par « IA limitée » (IAL). Ces IA sont dédiées à des tâches dont le périmètre est strictement défini. On peut citer dans cette catégorie les assistants personnels ou les IA permettant de jouer à des jeux précis (échec, go…). Ces IA ne sont en général alimentées en données d’entrée que par un capteur unique (enregistreur vocal, caméra…). Des IA aux périmètres plus étendues sont les IA dites « combinées » (IAC), qui intègrent les données de plusieurs capteurs pour prendre une décision concernant des tâches encore relativement délimitées, mais qui peuvent accomplir plusieurs actions élémentaires. Les IAC sont utilisées, par exemple, pour des applications en robotique. Enfin, la théorie permet d’envisager des IA « totales », capables d’intégrer les informations d’un très grand nombre de capteurs pour agir avec leur environnement, voire sur leur propre architecture, avec des possibilités voisines de celles d’un être humain. Dans l’état actuel de la technique, de telles IA n’existent pas (13).
Les applications de l’IA font l’objet d’un classement (14) en plusieurs disciplines principales : traitement du signal (reconnaissance vocale, visuelle, etc.), robotique, apprentissage automatique (programmes permettant d’optimiser des algorithmes afin de résoudre un problème donné), systèmes multi-agents (comportements coopératifs entre plusieurs systèmes afin qu’ils s’auto-organisent en vue d’accomplir une tâche donnée). Ces domaines ne sont évidemment pas cloisonnés : à titre d’exemple, l’industrie automobile fait appel à l’ensemble de ces disciplines.
Les applications militaires de l’IA : des possibilités nombreuses, principalement en dehors du champ létal
Ces applications concernent trois domaines principaux, avec des actions et des effets plus ou moins directs sur le champ de bataille mais susceptibles d’apporter un avantage majeur aux forces armées qui les maîtriseraient. Le discours ministériel du 5 avril dernier reprend l’ensemble de ces fonctions, en excluant l’application à tout système létal.
• L’ensemble des fonctions non directement liées au combat. Il s’agit du domaine pour lequel la transposition des emplois de l’IA du monde civil sera vraisemblablement la plus immédiate, avec des gains prévisibles en termes d’efficience. Seront concernées des fonctions comme le secrétariat (assistants virtuels), la logistique (avec, par exemple, l’emploi de robots « mules » pour le port automatique de charges), la maintenance (15), la santé, des systèmes d’information performants pour la gestion des ressources humaines (chancellerie, système de solde). Comme dans le civil, où les conséquences sociales et politiques de ces applications feront débat, d’importantes mutations seront à prévoir dans la composition des forces armées, avec la diminution des effectifs aujourd’hui dédiés à ces spécialités et des changements dans les savoir-faire professionnels des intéressés.
• L’entraînement des forces permet des applications nombreuses pour l’utilisation de l’IA. Les systèmes d’armes modernes offrent en effet une large palette de capacités d’entraînement virtuelles, par simulation. L’IA peut ainsi générer des scénarios d’exercices plus ou moins complexes et potentiellement tirés de situations réelles, mais également animer des « ennemis » (plastrons, automates…) avec des réactions graduées en fonction du niveau tactique requis (16). Dans le cas de systèmes d’armes embarquant de l’IA, par exemple au niveau des interfaces homme-machine, les séances de simulation profiteront non seulement à l’équipage humain, mais également à l’IA embarquée afin qu’elle apprenne à interagir avec ses collaborateurs de chair et d’os, et se confronte à des scénarios de crise et des systèmes d’armes adverses. Le Man Machine Teaming (17) pourra donc commencer avant la mise en situation réelle, en environnement simulé.
L’apport de l’IA dans l’entraînement s’exprimera également dans les capacités d’analyses de mises en situation. En effet, le traitement de la quantité massive de données qui sera collectée lors de séances d’entraînement ne sera possible que par l’IA. Cette analyse pourra ensuite déboucher sur une certification opérationnelle, la détermination d’axes de progrès, voire des propositions concernant la composition des groupes de combat, en fonction du caractère et des aptitudes des militaires amenés à opérer ensemble.
• Au combat et en opérations, là encore, les apports de l’IA sont, en théorie, multiples. Directement sur le champ de bataille, de très nombreux systèmes d’armes, des plus simples (équipements individuels) au plus complexes (chars de combat, aéronefs) peuvent se voir doter d’une IA : interfaces homme-machine sophistiquées avec une ergonomie personnalisée pour chaque opérateur humain (IAL), robots sentinelles pour des gardes statiques, mini-drones évoluant en essaim au comportement coordonné (18), drones de combat terrestres, maritimes ou aériens, équipiers artificiels intelligents au service de plateformes habitées (IAC), etc.
Concernant ces dernières applications, deux remarques peuvent être faites quant à leur efficacité sur le champ de bataille. D’une part, l’IA peut démultiplier les capacités d’un seul opérateur humain, soit en le remplaçant complètement (sentinelle, drone…) soit en augmentant fortement ses capacités (commandement d’un essaim…), en tout cas en le déchargeant au maximum de tâches à faible valeur ajoutée. Les effectifs, le nombre de « poitrines » humaines à opposer à l’adversaire, peuvent donc être relativement compensés par le nombre de robots ou de drones « accompagnateurs ». D’autre part, la qualité technologique du système d’armes (puissance des munitions, finesse des senseurs, solidité de la protection, agilité et furtivité du vecteur…), source de coûts de plus en plus importants dans les engins de combat moderne, peut donc également être compensée par la qualité de l’intelligence, individuelle ou collective de l’IA. Dans le domaine des capteurs par exemple, le traitement par l’IA du signal de plusieurs senseurs de qualité standard peut s’avérer plus rentable et de qualité équivalente par rapport à l’exploitation sans IA d’un capteur de très haute technologie beaucoup plus coûteux.
L’apport de l’IA sur le champ de bataille n’est cependant pas limité aux systèmes d’armes. Tandis que les capteurs de renseignement, grâce en particulier aux progrès de la miniaturisation, produisent des données brutes dans des quantités toujours plus importantes, l’IA permettra de trier cette masse de recueil en laissant les analystes humains se concentrer sur les informations les plus pertinentes (19). Dans les états-majors de tous niveaux, l’IA pourra ainsi aider au choix de plans d’opération, en testant différentes options face aux modes d’actions ennemis les plus probables ou les plus dangereux (wargames (20)). Ces options ne se borneraient pas à un simple « jeu » entre deux unités où entrerait une part de hasard, simulé aujourd’hui par un jet de dés, mais prendrait en compte à la fois des paramètres psychologiques, sociologiques, économiques, doctrinaux et des données historiques (21). Les avantages des applications militaires de l’IA sont donc conséquents, et les investissements massifs en la matière peuvent être considérés comme un moyen de rattrapage, pour des puissances qui feraient face à des compétiteurs supérieurs en effectifs ou en technologie.
IA et systèmes stratégiques
Les fonctions stratégiques sont définies, pour la France, dans le Livre blanc de 2013 et réaffirmées dans la Revue stratégique de 2017 (dissuasion, protection, connaissance et anticipation, intervention, prévention) : « interdépendantes, leur équilibre garantit la cohérence et la crédibilité de nos forces » (22). Elles ont été déclinées en aptitudes opérationnelles (23), parmi lesquelles la mise en œuvre de la posture de dissuasion nucléaire et la défense antimissile (24) peuvent bénéficier d’un éclairage complémentaire sous l’angle de l’IA. Si les applications militaires de l’IA sont déjà un sujet de polémique, la perspective d’une présence de l’IA dans des systèmes d’armes nucléaires, et plus généralement stratégiques, pourrait alimenter de vifs débats éthiques. Des œuvres de fiction (25) ont largement décrit les risques qu’il y aurait à confier à une machine plus ou moins autonome, le soin de lancer des armes capables d’anéantir l’humanité.
Les apports potentiels de l’IA dans la réussite des missions nucléaires
Malgré leur caractère « exorbitant », lié à l’emploi d’armes avec un pouvoir de destruction sans équivalent, et en dépit de procédures, de règles d’engagement et de chaînes de commandement et de contrôle (C2) particulières, la réussite des missions nucléaires repose également sur des systèmes et des savoir-faire tactiques identiques en grande partie aux missions conventionnelles, singulièrement celles du haut de l’échelle. Ainsi, le succès d’un raid nucléaire aéroporté nécessite de survivre à des défenses ennemies, chasseurs ou batteries de missiles surface-air, tout comme un raid classique.
À titre d’exemple, pour pénétrer les « bulles » de défense aérienne composées de systèmes à longue portée et multicouches (26), des tactiques de saturation grâce à des essaims de drones pilotés par de l’IA peuvent être envisagées. De la même manière, une patrouille de sous-marin nucléaire lanceur d’engins (SNLE) s’appuie sur l’ensemble des savoir-faire des missions sous-marines : mise en œuvre du bateau, techniques de pistage et de dilution… Enfin, pour la réussite de la mission elle-même, les systèmes d’armes stratégiques s’appuient sur des moyens conventionnels (27), soit pour ouvrir des couloirs de passage, soit pour produire des raids de diversion. En conséquence, l’ensemble des apports de l’IA aux systèmes militaires conventionnels décrits plus haut est également susceptible d’accroître l’efficacité des missions nucléaires.
La place de l’IA dans les espaces cyber et exo-atmosphérique
Les missions des forces armées sont dépendantes des espaces partagés que sont l’espace exo-atmosphérique et le cyberespace. Même si les composantes stratégiques se veulent les plus résilientes possible, des attaques cyber massives dégraderaient vraisemblablement leur efficacité. De la même manière, des actions militaires antisatellites auraient un impact potentiel sur au moins quatre segments stratégiques : la navigation et son corollaire, fondamental pour les systèmes modernes, la synchronisation temporelle à grande précision, l’observation de la terre (reconnaissance stratégique), les transmissions à longue distance et enfin, les systèmes d’alerte avancée (28). Or, les applications de l’IA dans ces deux espaces, en particulier pour des applications offensives, sont prometteuses.
Dans le domaine cyber, l’IA sera utilisée pour mettre au point des attaques sophistiquées, par exemple en usurpant des identités réelles, en déchiffrant les mots de passe les plus complexes ou en coordonnant des actions offensives à la fois massives et très rapides. Dans le domaine spatial, les progrès en robotique seront appliqués à des satellites « butineurs », capables de s’arrimer à d’autres satellites pour provoquer des dégâts plus ou moins réversibles, les brouiller ou les désorbiter sans crainte de générer des débris qui nuiraient aussi à l’agresseur. Les travaux de développement d’une telle capacité peuvent être conduits avec une certaine impunité, sous couvert de mise au point de systèmes de régénération des constellations en orbite pour en augmenter la durée de vie.
La place de l’IA dans les C2 nucléaire et de défense antimissile : l’IA et les fonctions stratégiques défensives
La capacité d’une structure C2 à réagir plus rapidement que celle de l’ennemi est considérée comme un facteur de succès décisif : c’est l’apport des théories de Boyd (29) sur la boucle OODA (Observation-Orientation-Decision-Action), mises en valeur depuis la première guerre d’Irak. Ce facteur temps est particulièrement critique dans les systèmes stratégiques, qu’il s’agisse des postes de commandement (PC) de forces nucléaires ou de ceux de défense antimissile, lorsqu’il est question de réagir à une frappe ennemie. Dans le cas d’un tir de missile intercontinental par exemple, l’échelon militaire ne dispose au mieux que de quelques minutes pour évaluer la situation (30), la transmettre à l’échelon politique avec des options de riposte défensive (mise en œuvre de la défense antimissile (31), alerte aux populations…), voire offensive (frappe nucléaire en second) et déclencher celles-ci.
Dans ces conditions, toute aide de la part d’une IA pour analyser la situation et en faciliter la présentation aux autorités (transmission d’une interface visuelle en temps réel, animations avec différents scénarios…) permet de gagner sur le dialogue, le temps d’analyse, voire les demandes d’explication avec le camp adverse (système, lorsqu’il existe, de type « téléphone rouge »). L’IA peut également tenir un rôle préliminaire fondamental grâce à son apport dans les analyses de renseignement décrites supra, en particulier le repérage et le suivi des systèmes stratégiques ennemis et de leurs vecteurs et plateformes (lanceurs, aéronefs y compris furtifs, sous-marins…) avec une efficacité très supérieure aux capacités actuelles.
Les tentations liées à une autonomie complète de l’IA
Une utilisation théorique extrême de l’IA serait de la substituer entièrement à la décision humaine pour décider du lancement d’une frappe de représailles, suite à une première attaque « de décapitation ». Au moins un système automatisé de ce type avait été prévu par l’Union soviétique pendant la guerre froide (système « Périmètre » (32)). Une telle utilisation, en France, est évidemment impensable. C’est le sens de l’engagement en matière d’éthique pris par la ministre des Armées, qui vient rappeler les trois points suivants :
• Aussi sûres puissent-elles être, malgré leur sophistication, leurs mécanismes de redondance et leur imperméabilité à toute subjectivité, les machines font des erreurs. À titre d’exemple, le système de défense américain sol-air Patriot dispose de modes de tir automatiques, afin d’être le plus réactif possible dans des environnements tactiques denses. Or, le Patriot, malgré sa très grande sophistication et de multiples précautions dans les règles d’engagements suite à des antécédents dramatiques, est responsable d’au moins un tir fratricide en mode automatique le 2 avril 2003 au Koweït, sur un chasseur F-18 de l’US Navy (33).
• La supervision humaine d’armes stratégiques a en revanche permis d’éviter des frappes accidentelles, alors que des systèmes informatiques auraient probablement déclenché l’ouverture du feu. L’exemple le plus fameux est celui du 26 septembre 1983, lorsque l’officier de garde d’un centre d’alerte avancé soviétique, qui détectait une salve de missiles intercontinentaux américains, a décidé de son propre chef, et contre un certain nombre d’évidences, qu’il s’agissait en réalité d’une fausse alarme. Il avait bien évidemment raison (34).
• Une IA « embarquée », responsable sans supervision humaine de toute une mission nucléaire (par exemple dans un véhicule de type drone océanique, aéroportée, voire terrestre), qui effectuerait la mission nucléaire de bout en bout, ne peut être acceptée dans la doctrine française (35), sans qu’il soit possible de savoir quelles orientations seront prises en la matière par d’autres puissances (36). Couplée à un système de C2 lui aussi autonome, une telle architecture ferait peser une incertitude majeure sur la fiabilité globale du système.
L’IA, un facteur d’ambiguïté en matière de dissuasion
L’efficacité de la dissuasion nucléaire repose sur une triple crédibilité politique (avec une volonté affirmée du décideur, en France, le président de la République), technique et opérationnelle (les armes doivent être fiables, leur potentiel de destruction assuré, avec une chaîne de commandement sûre une fois la décision politique prise). Elle s’appuie également sur une dialectique de l’incertitude dans le message politique, garante, dans le cas français, de la liberté de manœuvre du Président face à l’adversaire potentiel en cas de crise. Par exemple, le périmètre exact de nos intérêts vitaux, dont l’atteinte justifierait une riposte nucléaire, n’est que suggéré dans notre doctrine.
Au regard des exemples précédents, le caractère stabilisateur ou déstabilisateur de l’IA dans les rapports de dissuasion peut donc sembler délicat à définir (37). L’IA est en effet bénéfique à la mise en œuvre des capacités de frappes nucléaires, mais elle permet grâce à d’autres applications d’accroître également l’efficacité des systèmes défensifs. Toutefois, une puissance dotée qui n’investirait pas dans l’IA ou qui refuserait de l’intégrer même dans des fonctions sans aucun rapport avec les systèmes d’armes nucléaires (C2, renseignement, systèmes de défense antimissile…) prendrait le risque de voir certains moyens tactiques au service de sa dissuasion perdre leur crédibilité, au risque de fragiliser la dissuasion elle-même, en particulier face à un adversaire disposant en plus de capacités offensives dans les espaces cyber et exo-atmosphérique.
À l’extrême enfin, la France pourrait être confrontée à des puissances qui communiqueraient agressivement sur la place de l’IA dans leurs systèmes de dissuasion (vecteurs, armes, outils de renseignement, chaîne C2…). Une erreur d’appréciation sur les règles d’engagement ennemies (doctrine d’emploi, seuil nucléaire), du niveau effectif de délégation à l’IA par rapport à la supervision humaine, pourrait entraîner de notre part un phénomène d’auto-dissuasion, par crainte de provoquer une escalade incontrôlée face à un système supposé instable. L’ambiguïté concernant le rôle effectif de l’IA du côté adverse, dans ce cas, jouerait alors le rôle d’un facteur supplémentaire dans sa dissuasion (38).
IA, équilibres stratégiques et partenariats : conséquences pour la France
Comme le souligne Joseph Henrotin dans un numéro récent de DSI, il est difficile d’évaluer les efforts internationaux en matière d’IA militaire (39), en raison de la discrétion des États sur le sujet, mais également parce que l’IA est un domaine fortement dual. Cependant, en partant du principe que les avantages de l’IA comme potentiel de domination opérationnelle sont bien compris par les États investisseurs, il est vraisemblable que des applications concrètes seront effectivement développées et que l’IA sera utilisée comme un outil de dialogue stratégique, par exemple dans le domaine de l’arms control. Dans tous les cas, la France devra être en mesure d’adopter une posture et une doctrine cohérente de ses intérêts.
Le jeu des puissances américaine et chinoise
Les États-Unis et la Chine sont entrés dans une compétition stratégique dans laquelle l’IA joue un rôle majeur, avec une stratégie déclaratoire appuyée par des investissements financiers et industriels conséquents (40).
Ainsi, les États-Unis ont affiché leurs ambitions, le 12 février dernier, avec la parution de l’Artificial Intelligence Strategy (41), qui s’insère plus globalement dans la doctrine de Third Offset Initiative lancée en 2014. Portée par la puissance financière et institutionnelle de la Defense Advanced Research Program Agency (DARPA), ainsi que par la création récente d’un Joint AI Center doté en 2018, au sein du Department of Defense, d’un budget annuel de 75 millions de dollars (42), les applications médiatisées sont avant tout concentrées sur les processus décisionnels ou de maintenance (enablers), plutôt que sur des tâches de combat (effecteurs) (43).
Des percées dans ces domaines pourraient malgré tout avoir des conséquences importantes pour les systèmes stratégiques américains, par exemple pour les composantes C2 de défense antimissile, avec des applications aussi bien défensives (boucliers de missiles antimissile) qu’offensives (systèmes de frappes préemptives, voire préventives mettant en œuvre le concept de prompt global strike) (44). De tels progrès, légitimement défendus par les États-Unis au nom de leurs responsabilités en matière de dissuasion élargie (45), pourraient relancer des discussions au sein de l’Otan sur le poids relatif des différentes composantes de la dissuasion de l’alliance (basée sur un équilibre entre forces nucléaires, défense antimissile et forces conventionnelles), objet à l’heure actuelle d’un consensus évolutif entre les 29 États-membres et porteur d’enjeux industriels conséquents dans le domaine de l’armement (46).
La Chine, de son côté, est également engagée dans une politique volontariste en matière d’IA, avec des niveaux d’investissements massifs (150 Mds $ annoncés entre 2017 et 2030), des résultats concrets traduits en nombre de brevets (15 745 déposés en 2016, soit la deuxième production derrière les États-Unis) et la poursuite active de fusions-acquisitions à l’étranger. Concernant les applications militaires, le discours chinois se veut rassurant, tourné vers la promotion de la paix et du contrôle des armements, y compris en matière d’IA. Il s’agit là d’une rhétorique classique de la part de Pékin, rodée dans d’autres domaines dont celui de la dissuasion nucléaire.
Son caractère lénifiant, qui doit évidemment être opportunément exploité chaque fois que possible, est à mettre en regard d’éléments plus inquiétants sur la manière dont un régime peut utiliser la technologie de manière décomplexée (47). Par ailleurs, des observateurs avertis de la stratégie chinoise soulignent le caractère « irrationnel » de l’engouement des militaires de l’Armée populaire de libération (APL) pour les potentialités de l’IA (48).
Plus concrètement, l’affirmation de la puissance chinoise en mer de Chine passe par exemple, entre autres, par des recherches avancées en matière de robots sous-marins, à des fins de renseignement et de contre-mesure face à la menace des groupes aéronavals américains (49). Les ruptures à long terme que ce type de développements pourrait provoquer, avec des conséquences sur nos propres intérêts dans la zone, nécessitent une vigilance particulière dans le cadre du dialogue stratégique « lucide et exigeant » avec Pékin prôné par la revue stratégique de 2017.
L’IA comme technologie de compensation : les cas russe et israélien
La Russie développe également une stratégie déclaratoire abondante concernant l’IA (50) qui se concrétise certes par des investissements modestes comparés aux puissances américaine et chinoise (estimés pour 2019 à 12,5 M $) mais également par des expérimentations sur le terrain (robot de combat Uran-9 en Syrie ou le robot humanoïde Fedor). Si l’efficacité réelle et le degré d’autonomie de ces systèmes doivent être confirmés, ces exemples témoignent de la volonté du Kremlin de démontrer ses capacités en la matière sans s’encombrer de débats éthiques, y compris concernant des systèmes de dissuasion nucléaire (cf. supra).
Confrontées à une équation capacitaire complexe mêlant un territoire immense à défendre, des compétiteurs technologiquement plus avancés, une modernisation ralentie par la crise économique, des effectifs minés par l’évolution démographique et un ralentissement des vocations, les armées russes pourraient voir en l’IA la possibilité de pallier une partie de leurs difficultés grâce à l’autonomisation de leurs systèmes. Tout comme pour d’autres niches d’excellence russes (systèmes sol-air par exemple), le développement de ces systèmes, leur déploiement face à l’Otan ou leur dissémination par l’exportation d’armement doivent être surveillés.
De la même manière, les développements en matière d’IA peuvent séduire d’autres États confrontés à des difficultés de profondeur stratégique ou d’infériorité numérique. Israël, acteur déjà très actif dans les domaines du cyber et de l’IA, a déjà prouvé par le passé son aptitude à explorer et à mettre en service des capacités de rupture à base des dernières technologies, comme le système anti-projectile et antimissile Iron Dome, qui bénéficie par ailleurs d’un très large soutien américain. Les déstabilisations qui pourraient se produire par rupture des équilibres militaires dans la région, dans le contexte de recomposition actuel du Proche et Moyen-Orient, et en l’absence de règlement du conflit israélo-palestinien, auraient des conséquences stratégiques majeures pour notre pays et l’ensemble du continent européen. De plus, comme pour les exemples précédemment cités, la concurrence d’Israël à l’export, face à nos propres systèmes, mérite d’être anticipée.
Les partenaires européens de la France
Les partenariats avec l’Allemagne, le Royaume-Uni et l’Italie dans le domaine militaire, s’incarnent déjà dans de nombreuses réalisations opérationnelles concrètes (brigade franco-allemande et unité aérienne commune d’avions de transport C130-J, corps expéditionnaire franco-britannique, formations communes – Tigre, A400M, opérations en bande sahélo-saharienne…) ou en matière de développements capacitaires (programme de missiles). Dans ces deux champs, comme vu supra, les apports de l’IA seront importants, et constitueront donc un sujet supplémentaire de discussion dans la maîtrise d’ouvrage de projets déjà fort complexes. Il est en outre évident que les difficultés récentes d’exportation de matériel de guerre franco-allemand ne pourraient être qu’exacerbées par des malentendus sur l’intégration de l’IA, dans un contexte de positionnement politique différent, notamment sur les questions éthiques.
Le Royaume-Uni et l’Allemagne ont chacun publié leur doctrine en matière d’IA (tous domaines confondus), respectivement en avril et en novembre 2018. Les investissements annoncés sont de l’ordre du milliard d’euros (51), avec des axes forts en recherche et développement, ainsi que sur le volet industriel. L’Allemagne est restrictive sur le volet militaire, tandis que le Royaume-Uni est sur une position plus proche de celle de la France, avec une certaine avance et un écosystème de start-up jugé plus développé.
Dotée elle aussi à présent d’une feuille de route sur son volet militaire (52), d’un plan d’investissement ainsi que d’une doctrine en matière éthique, la France est donc en mesure de travailler le plus efficacement possible avec ses partenaires majeurs sur les systèmes de combat terrestre et aérien futurs ou sur les missiles de prochaine génération, entre autres. L’ensemble de ces systèmes aura bien évidemment des capacités létales. Ils contribueront pour certains aux dissuasions nucléaires française et britannique, ainsi qu’à celle de l’Otan (53), à laquelle participe l’Allemagne. La définition d’une position commune acceptable sur l’éthique de l’IA, comme celle exprimée lors du 5 avril dernier, est un préalable fondamental pour aborder les discussions complexes qui auront lieu pour chaque application concrète.
L’Europe : une place potentielle de numéro 3
Les Nations européennes dotées des budgets militaires les plus conséquents constituent donc déjà une « force de frappe » potentielle en matière d’investissement dans l’IA, avec des synergies et un arrimage possible dans les coopérations déjà existantes. Dans le cadre institutionnel de l’Union européenne (UE), des outils sont également en train de se mettre en place pour accompagner le mouvement.
L’action de l’UE se veut régulatrice, en utilisant sa puissance normative, à l’instar de ce qui est déjà à l’œuvre en matière de cyberdéfense. Pour cela, l’Union européenne s’est dotée d’une doctrine en décembre 2018, et promet d’augmenter son budget annuel IA en le faisant passer de 500 M € au milliard d’ici 2020 et au moins jusqu’en 2027 (projet « Horizon Europe »). La Norvège et la Suisse seraient intégrées à ces développements. Le projet européen a été repris par Florence Parly, le 5 avril dernier, avec une mention des instruments spécifiquement lancés autour de la coopération de défense (fonds européen de défense). La place future du Royaume-Uni dans ces coopérations, avec le contexte post-Brexit, restera toutefois un sujet difficile, tandis que cet État restera incontournable si l’on souhaite l’atteinte par l’Europe d’un degré de puissance significatif en matière d’IA.
Budgets nationaux et institutionnels confondus, l’Europe au sens large est donc en mesure de constituer, derrière les États-Unis et la Chine, la troisième puissance en matière d’IA. Elle pourrait se présenter comme un pôle d’utilisation responsable de l’IA, tournée vers l’éthique, le respect du citoyen et avec le souci de promouvoir la sécurité et la stabilité. Cette approche est déjà celle qui fixe les politiques en matière de développement des réseaux et de Big Data.
Conséquences pour la France : conserver l’initiative et anticiper les dilemmes stratégiques
La dissuasion est d’abord une dialectique et un rapport de force entre deux volontés politiques. Forte d’une doctrine solide en la matière, la France, au sein de l’Europe, est donc en mesure de répondre aux interrogations portées par l’IA en démontrant sa qualité de puissance responsable, attachée au droit international, au multilatéralisme et à la stabilité stratégique. En particulier, la robustesse de sa chaîne de commandement et ses choix assumés en matière de contrôle gouvernemental, qui impliquent nécessairement une supervision humaine, doivent être rappelés. Ce travail doctrinal permettra de prévenir toute mise en difficulté de notre stratégie de défense, en délégitimant les choix de puissances qui ne respecteraient pas nos préoccupations morales.
Sur le plan capacitaire, les investissements ambitieux envisagés par la France témoignent de la prise de conscience sur le sujet. Les équilibres en matière de coopération en IA seront basés sur les fondamentaux du discours du 5 avril. En plus des coopérations européennes, de nouvelles opportunités pourront se dégager : les récents investissements français au Canada ou le dialogue stratégique avec le Japon seront poursuivis, d’autant plus si ces deux puissances de la zone Pacifique souhaitent diversifier leurs partenariats vis-à-vis de la domination sino-américaine.
Enfin, la France doit occuper une place prépondérante dans les discussions sur la maîtrise des armements en matière d’IA, non seulement afin d’asseoir les deux enjeux – conserver l’initiative et anticiper les dilemmes stratégiques – mais également afin de prévenir toute rupture stratégique. En effet, l’IA, nouveau champ d’investissement et de compétition entre les deux grandes puissances, outil de rattrapage pour d’autres dans l’ensemble des espaces de conflictualité, pourrait provoquer une future course aux armements nuisible à nos intérêts de sécurité.
Éléments de bibliographie
Ganascia Jean-Gabriel, Le mythe de la singularité. Faut-il craindre l’intelligence artificielle ?, Édition du Seuil, 2017, 144 pages.
Ganay (de) Claude, député, et Gillot Dominique, sénatrice, Pour une intelligence artificielle maîtrisée, utile et démystifiée (Rapport n° 464), Office parlementaire des choix scientifiques et technologiques, rapport déposé le 15 mars 2017 (www.senat.fr/notice-rapport/2016/r16-464-1-notice.html).
Henrotin Joseph, « Vers la prolifération des intelligences artificielles militaires ? », Défense et sécurité internationale, hors-série n° 65, avril-mai 2019.
Noël Jean-Christophe, « Intelligence artificielle : vers une nouvelle révolution militaire ? », Focus stratégique, n° 84, Ifri, octobre 2018 (www.ifri.org/).
Scharre Paul, Army of None: Autonomous Weapons and the Future of War, WW. Northon & Co, mars 2018, 448 pages.
Vandier Pierre, La dissuasion au troisième âge nucléaire, Éditions du Rocher, 2018, 108 pages.
(1) 100 millions d’euros, sans compter les programmes majeurs déjà existants (Rafale, Scorpion, espace, combat naval collaboratif, etc.).
(2) Avec un engagement autour de trois grands principes : respect du droit international, maintien d’un contrôle humain suffisant et permanence de la responsabilité du commandement.
(3) Voir Parly Florence, « Intelligence artificielle (IA) et défense », discours du 5 avril 2019 à Saclay (www.defense.gouv.fr/).
(4) Cf. en particulier § 82, 229, 232, 256 et 289, Revue stratégique de défense et de sécurité nationale 2017, octobre 2017, 109 pages (www.defense.gouv.fr/dgris/presentation/evenements-archives/revue-strategique-de-defense-et-de-securite-nationale-2017).
(5) Vandier Pierre, La dissuasion au troisième âge nucléaire, Éditions du Rocher, 2018, 108 pages.
(6) Ibid., p. 78.
(7) Cf. §149 et suivants, Revue stratégique, op. cit.
(8) Livres blancs successifs, Revue stratégique, discours officiels…
(9) Mazzucchi Nicolas « Les implications stratégiques de l’intelligence artificielle », Revue internationale et stratégique, vol. 2018/2 n° 110, p. 141-152.
(10) La notion de « neurone » en IA ne désigne pas des neurones biologiques ou de synthèses, mais plutôt l’organisation de composants électroniques imitant l’organisation des neurones et des connexions synaptiques que l’on trouve dans les organismes vivants. Différents types d’organisation sont possibles suivant le nombre de « couches » de neurones et leurs interconnections.
(11) La notion de deep learning fait référence à l’utilisation de plusieurs couches de neurones successives, le mécanisme d’apprentissage affectant l’ensemble de ces couches en même temps. Cette méthode se rapproche le plus des mécanismes d’apprentissages des cerveaux biologiques.
(12) Pour une description plus exhaustive de l’IA, Ganay (de) Claude, député, et Gillot Dominique, sénatrice, Pour une intelligence artificielle maîtrisée, utile et démystifiée (Rapport n° 464), Office parlementaire des choix scientifiques et technologiques, 15 mars 2017 (www.senat.fr/).
(13) Ganascia Jean-Gabriel, Le mythe de la singularité. Faut-il craindre l’intelligence artificielle ?, Édition du Seuil, 2017, 144 pages.
(14) Classement International Joint Conference on Artificial Intelligence (IJCAI), in Pour une intelligence artificielle maîtrisée, utile et démystifiée, op. cit., p. 43.
(15) Sur ce sujet, cf. Pappalardo David, « Couple homme-intelligence artificielle : mener le combat aérien de demain », Air actualité, n° 720, avril 2019, p. 16-17 (www.defense.gouv.fr/content/download/558082/9666446/Air_actus_720_Focus_IntelligenceArtificielle.pdf).
(16) De telles possibilités ont déjà des applications dans les simulateurs existant et dans les jeux vidéo du commerce.
(17) Hybridation homme-système, cf. Pappalardo David, « Combat coopératif aérien connecté : vers un “Guerrier Centaure” ailé ? », Défense et Sécurité Internationale, n° 139, janvier-février 2019, p. 70-75.
(18) Concept nommé Low Slow Small (LSS) cf. Pappalardo David, Air actualité, op. cit.
(19) Les IA sont ainsi capables de déceler des tumeurs sur des clichés de radio à une vitesse et avec une performance supérieure aux radiologues humains.
(20) Les bonnes performances d’IA dans des jeux de cartes comme le poker, où l’incertitude est maximale aussi bien dans les capacités objectives de l’adversaire (de quelles cartes dispose-t-il ?) que dans la tactique utilisée (bluffe-t-il ou pas ?), laissent envisager de grandes possibilités en la matière.
(21) Sur l’ensemble de ce sujet cf. Noël Jean-Christophe, « Intelligence artificielle : vers une nouvelle révolution militaire ? », Focus stratégique, n° 84, Institut français des relations internationales, octobre 2018 (www.ifri.org/fr/publications/).
(22) § 238, Revue stratégique, op. cit.
(23) Cf. annexes p. 92 et suivantes, Revue stratégique, op. cit.
(24) Les systèmes de défense antimissile, dans notre doctrine, sont considérés comme complémentaires de la dissuasion nucléaire et concentrés sur la protection des forces. L’Otan, ainsi que la plupart des autres puissances (États-Unis, Russie, Chine, Israël) considèrent également ces systèmes comme des moyens de protection de leur territoire national et de leur population contre une attaque nucléaire.
(25) À noter, dans le domaine cinématographique, les trois films suivants, sortis à des moments particuliers de la guerre froide : Fail Safe (Sidney Lumet, 1964), Wargames (John Badham, 1983), Terminator (James Cameron, 1984). Tous ont pour thème la défaillance d’un système informatique plus ou moins sophistiqué et autonome, avec pour conséquence un échange de tirs ou une guerre nucléaire.
(26) Cf. §146, Revue stratégique, op. cit.
(27) À l’instar des missions SNOWCAT (Support of Nuclear Operations With Conventional Air Tactics) pour les raids nucléaires aéroportés de l’Otan. Cf. par exemple Kristensen Hans M., « NATO Nuclear Exercise Underway With Czech and Polish Participation », Federation of American Scientists, 17 octobre 2017 (https://fas.org/blogs/security/2017/10/steadfast-noon-exercise/).
(28) La France ne dispose pas de tels systèmes mais a financé jusqu’en 2011 le programme d’étude amont Spirale (Système préparatoire infrarouge pour l’alerte), pour la mise au point d’une détection depuis l’espace des tirs de missiles balistiques.
(29) Cf. en particulier Hammond Grant T., « The Essential Boyd », America War (http://americawar.wordpress.com/).
(30) Frappe réelle ou erreur d’appréciation des systèmes d’alerte avancés ? En cas d’attaque avérée, quelles portions du territoire concernées pour quels dégâts estimés ?
(31) Des systèmes de ce type sont mis en œuvre par l’Otan pour couvrir l’ensemble du « territoire et des forces des pays européens », cf. § 37 à 41 Otan, « Déclaration du sommet de Bruxelles », 11 juillet 2018 (www.nato.int/cps/fr/natohq/official_texts_156624.htm).
(32) Cf. Scharre Paul, Army of None: Autonomous Weapons and the Future of War, WW. Northon & Co, mars 2018, chapitre « Deterrence and the dead hand », ainsi que Bender Jeremy, « Russia May Still Have An Automated Nuclear Launch System Aimed Across The Northern Hemisphere », Business Insider, 4 septembre 2014 (www.businessinsider.fr/us/russias-dead-hand-system-may-still-be-active-2014-9).
(33) Sur l’analyse de ce tir et d’autres exemples concernant le Patriot et le système mer-air Aegis, cf. Scharre Paul, op. cit.
(34) Ibid.
(35) Le remplacement des deux composantes nucléaires nationales inclut une composante aéroportée et des sous-marins de 3e génération habités. Cf. en particulier Guibert Nathalie, « Premier contact d’Emmanuel Macron avec les forces de la dissuasion », Le Monde, 4 juillet 2017 (www.lemonde.fr/).
(36) Cf. en particulier le discours de Vladimir Poutine devant le Parlement russe, 1er mars 2018, mentionnant des développements de son pays en matière de drones sous-marins capables de missions nucléaires intercontinentales.
(37) Cf. Scharre Paul, op. cit.
(38) À ce sujet, cf. Noël Jean-Christophe, op. cit.
(39) Cf. Henrotin Joseph, « Vers la prolifération des intelligences artificielles militaires ? », Défense et sécurité internationale, hors-série n° 65, avril-mai 2019.
(40) Ibid.
(41) Department of Defense, Harnessing AI to Advance Our Security and Prosperity, 12 février 2019, 17 pages (https://media.defense.gov/).
(42) L’objectif étant d’atteindre un budget cumulé sur cinq ans de 1,7 milliard de dollars.
(43) Sur la dualité des recherches américaines cf. Scharre Paul, op. cit., chapitre « Inside the puzzle palace ».
(44) Cf. Delory Stéphane, « Les implications de la MDR 2019 », Observatoire de la dissuasion, Fondation pour la recherche stratégique (FRS), mars 2019 (www.frstrategie.org/programmes/observatoire-de-la-dissuasion/les-implications-strategiques-de-la-mdr-2019-63).
(45) Cf. Department of Defense, « 2019 Missile Defense Review », 17 janvier 2019, 81 pages (https://media.defense.gov/).
(46) Cf. Bresson Emmanuel, « Quelles visions dans l’industrie ? », DSI, hors-série n° 65, avril-mai 2019.
(47) Sur l’utilisation chinoise des techniques de Big Data à des fins de contrôle social, cf. par exemple « La Chine se sert du Big Data pour surveiller ses citoyens, un danger pour l’Occident ? », LeBigData.fr, 22 janvier 2018 (www.lebigdata.fr/chine-big-data-danger-occident).
(48) Cf. Kania Elsa B., « Battlefield Singularity. Artificial Intelligence, Military Revolution and China’s Future Military Power », Center for a New American Security, novembre 2017 (www.cnas.org/).
(49) Cf. Allen Gregory C., « Understanding China’s AI Strategy: Clues to Chinese Strategic Thinking on AI and National Security », Center for a New American Security, février 2019 (www.cnas.org/publications/reports/understanding-chinas-ai-strategy). L’IA est vue comme une technologie de rattrapage face à un adversaire potentiel supérieur en matière de haute technologie militaire (puissance de feu, précision, furtivité…).
(50) Cf. Henrotin Joseph, op. cit.
(51) Tous secteurs de l’IA confondus, applications civiles et militaires. Royaume-Uni de l’ordre de 1 Md £ par an, Allemagne 6 Md € (dont 3 Md venant du secteur privé) jusqu’en 2025.
(52) La stratégie française générale ayant été décrite dans le rapport de Villani Cédric, Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne, 28 mars 2018, 233 pages (www.enseignementsup-recherche.gouv.fr/).
(53) Concernant l’intégration de l’IA dans les systèmes militaires, la position de l’Otan, compilation de celles des différentes nations, est exprimée en particulier dans le projet de rapport de Tonin Matej, Intelligence artificielle : impact sur les forces armées de l’Otan, Comité des sciences et des technologies de l’Otan, 5 avril 2019, 15 pages (www.nato-pa.int/fr/document/2019-rapport-stctts-intelligence-artificielle-tonin-088-stctts-19-f).