L’intelligence artificielle (IA) est une technologie qui irrigue nos vies au quotidien. Son intégration au profit des armées est déjà une réalité dans certains pays. Les armées françaises doivent sans plus attendre exploiter le potentiel de l’IA en réunissant les conditions nécessaires à son utilisation : sur le plan technique bien sûr, mais aussi et surtout dans les esprits. Car l’aventure du numérique est avant tout une histoire humaine qui nécessite un véritable changement culturel de nos armées, à tous les échelons. Il y a urgence, car nos compétiteurs ont déjà pris une avance certaine.
Intelligence artificielle et armées françaises : une technologie du présent à mettre en œuvre immédiatement
« L’intelligence artificielle (IA) fait déjà partie de notre quotidien – ce n’est pas de la science-fiction. En plus de nous faciliter la vie, l’IA nous aide à relever certains des plus grands défis mondiaux : traiter les maladies chroniques, lutter contre le changement climatique ou encore anticiper les menaces qui pèsent sur la cybersécurité. À l’instar de la machine à vapeur ou de l’électricité dans le passé, l’IA est en train de transformer notre monde, notre société et notre industrie. La croissance de la puissance de calcul, la disponibilité des données et les progrès réalisés dans les algorithmes ont fait de l’IA l’une des technologies les plus stratégiques du XXIe siècle. Les enjeux ne sauraient être plus élevés. Notre approche de l’IA définira le monde dans lequel nous vivons. (1) » Cette déclaration de la Commission européenne au Parlement européen est intervenue au début de l’année 2018, peu après que la Chine, la Russie, puis les États-Unis ont affiché leurs ambitions en matière d’IA, chacun convenant que cette technologie façonnerait le monde.
Encore trop souvent présentée comme futuriste, l’IA est une technologie du présent et son intégration au profit des armées est déjà une réalité dans certains pays. Pour combler leur retard, les armées françaises doivent sans plus attendre exploiter le potentiel de l’IA qui, bien qu’elle soit souvent présentée comme une technologie du numérique, va révolutionner la totalité du champ de bataille.
Atouts et limites de l’intelligence artificielle
Définition de l’IA
Les définitions de l’IA sont nombreuses et varient avec le temps, les progrès techniques et la perception par l’homme de ce qu’est une action intelligente réalisée par une machine. En effet, ce qui était considéré comme intelligent il y a vingt ans peut aujourd’hui être jugé très rudimentaire compte tenu des progrès techniques réalisés (2). Le Journal officiel propose la définition suivante de l’intelligence artificielle : « Champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel logiciel, à des fins d’assistance ou de substitution à des activités humaines (3). » Celle mentionnée dans la stratégie IA du département de la Défense américain (DoD) (4) est plus concrète : capacité des machines à réaliser des tâches qui requièrent normalement l’intelligence humaine ; comme l’identification de règles, l’apprentissage par l’expérience, la réalisation de prédictions ; que ce soit dans l’espace numérique ou au travers d’un algorithme pilotant un système réel.
D’un point de vue technique, deux écoles apparaissent au commencement des travaux sur l’IA lancés par John McCarthy et Arthur Samuel, deux chercheurs du Massachusetts Institute of Technology, dans les années 1950 (5) : les symbolistes et les connexionnistes. Les premiers basent leur approche sur le raisonnement et la logique : le problème à résoudre est décomposé en une succession d’action logiques simples et programmé pour que la machine puisse les effectuer rapidement. Il s’agit par exemple de la technique utilisée dans les moteurs de recherche. Plus proches de l’empirisme, les connexionnistes s’inspirent des réseaux de neurones du cerveau humain et se fondent sur l’apprentissage à partir de grandes bases de données, comme pour le traitement du langage. Cette technique est symbolisée par l’apprentissage automatique ou Machine Learning. Les deux techniques peuvent être mixées, l’intelligence artificielle symbolique exploitant la connexionniste pour identifier des règles au sein de données non structurées.
Après plusieurs hivers de l’IA (6) liés au manque de performance des machines, les progrès techniques ont permis des avancées importantes à la fin des années 2000 avec l’emblématique Deep Blue, logiciel qui parvient à contrer Garry Kasparov aux échecs grâce à des calculs de 200 000 millions de positions par seconde (7). Un véritable succès pour les connexionnistes alors que dans le même temps les symbolistes réalisent des progrès en matière de reconnaissance des caractères et d’analyse de documents. Quelques années plus tard, les progrès réalisés grâce aux capacités de calcul des Graphic Processing Units (GPU) et le traitement de données massives permettent des avancées spectaculaires qui se traduisent, notamment, par la victoire d’AlphaGo sur Lee Sedol au jeu de Go en mars 2016. Pourtant plus complexe que les échecs, AlphaGo maîtrise le jeu de Go (8) en utilisant plusieurs couches de réseaux neuronaux (Deep Learning) pour apprendre et s’améliorer. L’apprentissage profond permet en effet à la machine d’apprendre uniquement grâce aux règles du jeu (sans que l’homme ne lui ait montré les tactiques) et de s’améliorer en s’entraînant contre des humains et elle-même.
L’intelligence artificielle n’a pas vocation à se substituer à l’homme (9), même si elle travaille pour lui. Elle peut cependant grandement améliorer son efficacité sur un spectre d’action très large. En particulier pour détecter des objets, identifier des données (mots-clés, texte, voix, image, vidéo) et réaliser des analyses prédictives. Elle peut rechercher une corrélation entre des données pour établir des tendances ou au contraire détecter des anomalies, déduire ou diagnostiquer.
L’IA est déjà présente dans notre quotidien : moteurs de recherche, envoi de publicités ciblées, assistants vocaux. Ces usages sont maîtrisés par les grandes entreprises du numérique souvent américaines et chinoises, et se répandent dans le secteur privé tout entier. D’autres applications de l’intelligence artificielle sont encore en cours d’amélioration, comme l’analyse d’images et de vidéos, très utilisées en Chine où l’on estime que fin 2021, 400 millions de caméras de surveillance seront déployées, soit une caméra pour trois citoyens (10). Ces vidéos sont exploitées par des algorithmes de reconnaissance faciale et envoient leurs analyses en temps réel aux autorités gouvernementales (11).
Les applications de l’apprentissage automatique sont effectives et sans limite. Si cette technique peut nous aider à analyser, comprendre voire prédire, elle est également emblématique des limitations actuelles de l’intelligence artificielle.
Limites de l’intelligence artificielle : IA faible et IA forte
Les technologies actuelles issues du symbolisme et du connexionnisme forment l’IA dite faible : la machine exécute des tâches courantes comme les applications de trafic qui se mettent à jour et nous proposent automatiquement des moyens de relier notre destination. Il s’agit cependant de tâches simples et spécifiques : aussi performantes soient-elles, les machines sont encore limitées aux seules fonctions pour lesquelles elles ont été conçues. Elles sont incapables d’appliquer une stratégie ou leurs connaissances à un autre domaine. Ceci est également valable pour les algorithmes les plus sophistiqués (reconnaissance vocale, traducteurs intelligents). Yann LeCun, directeur de la recherche en IA de Facebook, affirmait, d’ailleurs, en 2018 : « l’intelligence artificielle a moins de sens commun qu’un rat (12) ».
Les humains sont forts de capacités uniques pour analyser l’information de manière complexe, comparative et douée d’émotion ; la conscience humaine étant, de loin, la dimension la plus complexe. Le chemin vers l’IA dite forte – qui égalerait la capacité cognitive et les performances du cerveau humain – est encore loin (13), car la technologie actuelle ne permet pas d’envisager de tels développements. Les machines n’ont ni intuition, ni sens commun, ni conscience. Personne ne peut affirmer qu’elles n’auront jamais ces facultés ; mais pour y parvenir il faudrait une rupture technologique majeure, non anticipée aujourd’hui.
Les machines peuvent aussi générer de fausses analyses en utilisant de mauvaises données ou des données non représentatives, un mauvais algorithme, ou encore parce que des biais ont été introduits par l’homme lors de l’injection de ces algorithmes. De plus, l’apprentissage automatique parvient à des résultats difficilement interprétables : la machine propose des solutions mais nul ne sait expliquer comment elle y est parvenue. Se pose, dès lors, la question de la confiance que l’on peut accorder à ces options, en particulier dans les systèmes critiques comme l’aide à la décision. D’autant qu’il est très difficile pour les algorithmes de différencier les intentions saines et justes des comportements pernicieux, voire belliqueux.
Ces considérations limitent l’usage actuel de l’IA dans le domaine opérationnel caractérisé par des milieux ouverts et complexes. Pour autant, la combinaison de l’apprentissage automatique, la cobotique (14), la réalité augmentée, la mise en réseau des systèmes, l’Internet des objets (IoT) vont profondément modifier le champ de bataille et peser sur la supériorité opérationnelle (15). C’est pourquoi les armées de nos partenaires et compétiteurs s’emploient à développer l’IA faible dans différents systèmes.
L’intelligence artificielle : déjà une réalité pour certaines armées étrangères
L’apprentissage automatique appliqué au renseignement : le projet américain MAVEN
Constatant que les forces armées avaient cinq à dix ans de retard sur le secteur privé américain dans les nouvelles technologies, le Pentagone a commencé dès 2017 une série de projets reposant sur l’IA. Parmi ceux-ci figure le projet MAVEN qui utilise l’apprentissage automatique pour exploiter les données générées par les plateformes de renseignement américaines (16). En quinze ans, le DoD a investi plusieurs milliards de dollars pour équiper ses forces de moyens de surveillance et de reconnaissance. Leurs capteurs ont prouvé leur efficacité opérationnelle lors de tous les conflits modernes. Cependant, les attentes en matière d’Intelligence, Surveillance et Reconnaissance (ISR) sont toujours plus grandes et la demande n’est satisfaite qu’à 30 %. Cette situation ne s’explique pas que par un déficit capacitaire : aujourd’hui, seule une fraction du renseignement disponible est exploitée. Les moyens ISR comme le drone Reaper produisent par exemple des heures de Full Motion Video (FMV) dont l’analyse est très gourmande en opérateurs ; en conséquence, seule une petite partie est exploitée. Les nouvelles technologies permettent aux machines de venir en soutien de l’action de l’homme. Ce dernier sera toujours dans la boucle et l’utilisation de l’intelligence artificielle n’a pas vocation à le remplacer, mais à le seconder, pour qu’il puisse se concentrer sur les tâches nobles en apportant son expertise.
En huit mois, une équipe de douze personnes est parvenue à développer des algorithmes imparfaits mais capables d’apprendre sur le terrain. C’est ainsi qu’en décembre 2017, une première capacité MAVEN a été déployée au profit des forces spéciales au Moyen-Orient et en Afrique pour aider les opérateurs à exploiter les vidéos provenant des drones tactiques Scan Eagle (17). La première semaine, l’efficacité du système pour reconnaître les véhicules, les bâtiments et les personnes n’était que de 60 %. Grâce au retour des utilisateurs et aux changements effectués sur les logiciels en boucle courte, le chiffre est monté à 80 % en quelques jours et n’a cessé de s’améliorer depuis. Couplé à un logiciel de géoréférencement, MAVEN est capable d’identifier et de donner une position précise d’objets de manière autonome : l’opérateur peut ainsi se concentrer sur l’analyse et apporter la plus-value liée à son expérience. En trois ans, le Pentagone a étendu l’utilisation de MAVEN à de nombreuses plateformes et à d’autres théâtres opérationnels (18).
Pionnier en matière d’utilisation de l’IA, le succès de MAVEN repose sur une stratégie de développement adaptée aux nouvelles technologies : une équipe resserrée capable de nouer rapidement des partenariats avec l’extérieur pour utiliser des technologies déjà développées pour le secteur privé, un dialogue en boucle courte avec les opérationnels, et le déploiement de développeurs auprès des utilisateurs pour améliorer les algorithmes en temps réel. En somme, un changement d’état d’esprit que les Américains appellent Prototype Warfare, indispensable pour embrasser le monde numérique.
Maintenance prédictive
D’ordinaire, la maintenance des matériels militaires se fait à la fois de manière périodique (entretien préventif) ou après une panne (entretien curatif). Elle nécessite un lot de pièces important, y compris en déploiement opérationnel, et du temps pour que les techniciens réalisent des opérations de contrôle d’usure et de maintenance. L’objectif de la maintenance prédictive est d’exploiter les données enregistrées par les matériels puis d’utiliser des algorithmes d’IA pour déterminer, à l’avance, le moment optimum auquel une pièce doit être changée.
Le Defense Innovation Unit (DIU) est l’entité du DoD installée dans la Silicon Valley pour tirer rapidement profit des innovations technologiques du secteur commercial. Il se concentre sur les start-up qui ont développé des solutions innovantes au profit du secteur privé et qui peuvent être appliquées au monde de la défense. En 2018, le DIU a attribué un contrat à la compagnie C3IoT pour la maintenance prédictive sur avion. Cette société n’avait jamais travaillé ni pour la défense, ni pour le secteur aéronautique. En six mois, la nouvelle plateforme logicielle a pu être utilisée sur AWACS (19) E-3 Sentry et chasseur F-16 pour collecter les grosses quantités de données issues des enregistreurs et des journaux de maintenance des appareils. Ces données sont stockées sur un cloud puis l’intelligence artificielle leur est appliquée afin d’optimiser les actions de maintenance. Déjà exploitée par les compagnies commerciales avec succès, la maintenance prédictive est l’un des domaines qui peut immédiatement profiter de l’apprentissage automatique. Les gains annoncés par C3IoT sur leur site Internet sont substantiels : une baisse moyenne de 20 à 50 % de la maintenance curative, une disponibilité augmentée de 40 %.
Cette nouveauté repose sur la capacité à collecter, trier, structurer et exploiter des quantités importantes de données dont se nourrit la machine. Les flottes récentes génèrent les données compatibles avec ces technologies, mais la quantité de données disponibles n’est pas toujours suffisante. À l’inverse, les flottes anciennes comme celles de F-16, des KC-135 (ravitailleurs) ou des C-130 (transport) ont généré au fil des années des quantités de données en adéquation avec le besoin des machines. C’est cette raison qui a conduit le Pentagone à privilégier les anciennes flottes pour expérimenter la maintenance prédictive sur certaines parties des avions, comme les moteurs. Depuis 2018, la pratique s’est répandue et, en 2020, Raytheon s’est appuyé sur des start-up pour proposer la « maintenance intelligente » sur le véhicule d’infanterie M2 Bradley et le convertible V-22 Osprey utilisé par l’US Navy et le Corps des Marines (USMC) (20).
L’IA au service du commandement et de la conduite des opérations multimilieux
Le terme de commandement et de conduite des opérations multimilieux est apparu dans les armées pour illustrer le besoin, lors des affrontements modernes d’opérer simultanément dans les 5 milieux (terre, mer, air, Espace et cyberespace). Cette faculté ne se borne pas au combat interarmées qui existe déjà depuis des décennies, mais réside dans la capacité à faire circuler l’information et la décision le plus rapidement possible entre les acteurs, du tacticien isolé sur le champ de bataille au décideur et réciproquement. Or, la multiplicité des capteurs et des objets connectés à nos réseaux de combat, qui n’ont en général pas été conçus pour être interopérables, posent la double problématique de compatibilité et de fusionnement de la masse d’informations.
Le général Deptula, à la tête du Mitchell Institute, a conceptualisé la notion de Combat Cloud dans un document produit en 2016 (21), dont les principes sont aujourd’hui repris dans le projet Joint All-Domain Command and Control (JADC2) du Pentagone. Le Combat Cloud fait de la circulation de l’information et de sa maîtrise un objectif à part entière et un instrument de puissance comparable aux outils de défense traditionnels (chars, bateaux, avions). Il s’agit d’utiliser les plateformes non plus seulement comme des effecteurs, mais comme les capteurs et les relais d’un réseau C2 reposant sur l’interconnexion automatique, la transmission de données en importante quantité et, grâce à l’IA, des outils d’aide à la décision.
Mais le combat multimilieux n’est pas simplement un concept exploitant une débauche de nouvelles technologies. C’est avant tout une nouvelle approche intellectuelle des opérations, qui s’appuie sur la puissance des réseaux pour compenser la faiblesse des plateformes prises individuellement : il trouve son efficacité dans le combat collaboratif.
Pour mettre en œuvre le concept de Combat Cloud, il ne s’agit pas de changer tous les systèmes de combat actuels, mais de repenser leur manière d’opérer en créant l’infrastructure et les passerelles nécessaires à leur mise en réseau. Les militaires américains ont adopté une nouvelle architecture C2 ouverte, à l’image des systèmes d’exploitation de nos smartphones. Les acteurs et effecteurs viennent s’y connecter comme des applications à un smartphone. L’intelligence artificielle y tient une place centrale, tant pour fusionner les informations que pour conférer agilité et rapidité de décision au commandeur.
L’US Air Force est l’armée la plus avancée dans ce domaine avec son Advanced Battle Management System (ABMS) qui propose un système de systèmes déployable comprenant le stockage, le tri et l’accès à la donnée (cloudOne), une bibliothèque de données (dataOne), l’infrastructure (platformOne) et l’accès sécurisé aux données classifiées (deviceOne) (22). Véritable colonne vertébrale du C2 multimilieux, l’ABMS présente toutes les qualités pour que puissent y être injectés les algorithmes d’IA, raison pour laquelle le projet MAVEN y a été intégré (23).
En septembre 2020, l’exercice ONRAMP 2 destiné à tester l’ABMS a vu la destruction d’un missile de croisière par un tir tendu d’un obus hypervéloce qui recevait des données balistiques rafraîchies en 5G d’un C2 air. Reproduit tous les 4 mois, il permet de valider de nouveaux concepts comme celui du Cloud et d’expérimenter l’utilisation de l’IA (24).
Autonomie
L’autonomie décrit à la fois les systèmes automatiques ou les objets véritablement automatisés. C’est un domaine dans lequel la Chine concentre son effort en travaillant sur des robots autonomes pour développer de toutes nouvelles capacités. L’effort est en particulier tourné vers l’autonomie dans l’espace virtuel au travers de la gestion de données complexes et les systèmes d’aide à la décision. Les chefs de l’Armée populaire de libération (APL) sont en effet convaincus que ces nouveaux développements de l’IA leur permettront d’identifier les plateformes ennemies, de transformer les informations des capteurs en une image de renseignement globale, et accéléreront le processus décisionnel : ils imaginent de véritables « officiers traitants digitaux » au sein de leurs centres de commandement (25).
Les Anglais, les Australiens et les Américains travaillent, chacun de leur côté, sur le « drone équipier » ou Loyal Wingman, un appareil autonome supervisé par un avion de combat habité, dont le concept s’est imposé dans la majorité des armées de l’air de pointe alliées. L’USAF travaille à la construction de drones autonomes agissant en équipier des chasseurs F-22 Raptor et F-35 Lightning II soit en petit groupe, soit en essaim pour créer l’ubiquité par procuration (26). Ces drones largement automatisés – hors fonction de tir où l’homme restera dans la boucle décisionnelle – sont des systèmes furtifs réutilisables et dits de moindre coût (2 à 3 millions de dollars, à comparer avec celui du F-35 supérieur à 100 M$). Ils présentent l’intérêt d’accentuer la masse dans les contextes où un effet de saturation est nécessaire et peuvent être employés en environnement contesté, en minimisant le risque d’attrition sur les plateformes pilotées. Ils n’ont pas vocation à remplacer les plateformes habitées de sixième génération, mais à les compléter (27). La société américaine Kratos a exposé les prototypes de deux drones armés au Salon du Bourget en 2017. Ils ont un rayon d’action trois fois supérieur à celui du Reaper, de l’ordre de 5 000 km, et sont capables d’atteindre 1 200 km/h. Le premier a volé en mars 2018. Depuis, Boeing, General Atomics et Kratos sont chargés par le Pentagone de créer les prototypes de la future famille de drones autonomes à bas coût (28).
Ces projets sont rendus possibles car les conditions de leurs mises en place sont réunies : architecture, technologie, données, mais aussi état d’esprit et prise de conscience de l’importance d’accélérer l’appropriation des nouvelles technologies.
« Tout retard dans la construction ou le parachèvement d’un écosystème adaptée,
c’est la certitude de manquer des opportunités
et c’est prendre le risque de déjà perdre une bataille (29). »
Emmanuel Macron
Les armées françaises doivent accélérer l’adoption de l’intelligence artificielle
La France possède une stratégie claire en matière d’IA, présentée dans le rapport de la Task-Force IA, qui a identifié la feuille de route du ministère des Armées et les principes directeurs pour une intelligence artificielle de défense maîtrisée. Sept axes d’efforts sont prioritaires : aide à la décision en planification et en conduite, combat collaboratif, cyberdéfense et influence, logistique, soutien et maintien en condition opérationnelle, renseignement, robotique et autonomie, administration et santé (30).
La France dispose également de talents et de pépites pour développer, dès à présent, des savoir-faire dans le domaine. C’est le cas dans sa base industrielle de défense, comme le montre le projet Man Machine Teaming de Dassault Aviation et Thales qui explore la possibilité de développer un système aérien cognitif dans le cadre de la définition du Système de combat aérien futur (Scaf) (31). C’est aussi vrai dans des start-up comme Preligens, qui mène notamment un projet visant à analyser les images satellites pour la Direction du renseignement militaire (DRM) (32).
Impulsées par l’Agence de l’innovation de Défense (AID), les premières initiatives commencent à voir le jour au sein des armées françaises dans plusieurs domaines : ressources humaines, maintenance, formation et même au cœur du commandement des opérations. La difficulté réside dans le caractère isolé de ces initiatives et le passage à l’échelle d’expérimentations très localisées. Enfin, de nombreux projets portent sur des échéances de moyen terme mais, trop peu sont des projets du présent.
De nouvelles entités comme l’Agence numérique de Défense (AND) ou l’AID fédèrent les orientations et la politique générale du ministère. Mais elles ne se substituent pas au rôle des armées qui doivent conserver ou développer en leur sein une capacité à répondre à leurs besoins concernant l’acculturation du personnel, la gestion de la donnée et les applications spécifiques de l’IA.
Pour accélérer l’adoption de l’intelligence artificielle dans les armées, il est nécessaire de mettre en place, dès maintenant, les conditions de son utilisation : déployer à grande échelle les infrastructures permettant l’exploitation de la donnée – ce que le projet Artemis (33) va faciliter – et le développement logiciel. Il faut aussi accélérer la prise de conscience et la compréhension collectives de ces nouvelles technologies. En effet, celles-ci sont encore l’apanage d’une poignée d’experts et le changement culturel qui doit avoir lieu au sein des forces pour en accélérer l’adoption n’a pas encore eu lieu.
Une nécessaire transformation numérique reposant sur la maîtrise de la donnée
L’intelligence artificielle se nourrit de données et nécessite une infrastructure rassemblant les capacités de calcul, de stockage et de circulation de la donnée. Sans maîtrise technique de cette dernière, l’utilisation de l’IA est très difficile et automatiquement limitée à des applications de portée réduite.
Pour gouverner la donnée, le ministère des Armées a lancé des actions à trois niveaux : stratégique pour donner une vision cohérente des données, opérationnel pour décliner les règles de partage et les procédures d’échange, et organisationnel. Pour cela, la Direction générale du numérique et des systèmes d’information et de communication (DGNUM) met en œuvre une politique de la donnée qui doit permettre l’identification des données existantes, de les labelliser et de définir des modèles d’exploitation.
Les armées doivent désormais s’organiser pour développer une architecture au service de la donnée et identifier les acteurs et le rôle de chacun. Car aujourd’hui, la plupart des données sont inexploitables faute de pouvoir les faire circuler dans l’architecture actuelle ou parce qu’elles sont dans un format inadapté. Il y a urgence, tant sur le plan technique que pour mobiliser l’ensemble de la communauté des utilisateurs de la donnée. En effet, la maîtrise de la donnée ne doit pas rester l’apanage d’experts.
La dimension humaine doit jouer un rôle de catalyseur : aspects culturels
Dans les grandes administrations publiques comme dans le secteur privé, la gouvernance, la technologie et le financement des projets sont nécessaires à l’adoption de l’intelligence artificielle. Mais le travail relatif aux données et la mise en place rapide de projets concrets ne relèvent pas d’une simple évolution des usages habituels. Ils relèvent d’une véritable transformation qui doit également être centrée sur la dimension humaine et culturelle de notre ministère. « Sans processus d’acculturation large, sans une intégration et une valorisation durable des profils et des compétences adéquates, le pivotement souhaité peine à s’inscrire dans des horizons de court, moyen et long termes (34). » Une telle transformation ne peut se limiter à un cercle d’initiés. Un processus d’acculturation au numérique doit être lancé, en particulier dans le domaine de la donnée pour que chaque acteur en comprenne le bon usage et puisse garantir sa fiabilité (35).
Pour ce faire, il faut instruire notre personnel aux nouveaux enjeux du numérique lors des étapes clés de sa formation. Pour un officier, il s’agit de son école initiale et des différentes phases de l’enseignement militaire supérieur. Cette formation doit pouvoir se faire en ligne et être adaptée à des niveaux très hétérogènes. À l’image du profil linguistique standardisé qui a permis d’imposer un niveau minimum en langue anglaise au personnel des armées, il faut mettre en place un « profil numérique standardisé » qui permettra l’évaluation du personnel lors de son parcours et d’assurer un socle de connaissances minimum.
Le défi des managers de tout niveau est de réunir les conditions d’un usage généralisé de la donnée et un niveau de compréhension suffisant de ce que l’IA peut apporter pour saisir toutes les opportunités. Dès lors, cette acculturation doit également être faite par le haut et inclure un volet de sensibilisation au numérique lors des séminaires des officiers généraux, ainsi qu’une formation avant prise de poste des officiers en responsabilités dans les domaines capacitaires et financiers.
Faire comprendre le sujet au personnel des armées, à tous les échelons
Pour accélérer la prise de conscience du personnel et aider les armées à identifier leurs carences dans le domaine des nouvelles technologies du numérique, le Congrès américain a mis en place, en 2016, le Defense Innovation Board (DIB). Toujours en activité, ce groupe est chargé d’apporter les innovations technologiques de la Silicon Valley aux forces armées américaines. Il fournit un conseil indépendant et formule des recommandations au secrétaire d’État à la Défense en matière de nouvelles technologies sous trois angles : le personnel et la culture, les organisations, la technologie et le capacitaire. Initialement emmené par Eric Schmidt, ex-président-directeur général de Google, ce petit groupe d’une quinzaine de personnes est composé de dirigeants du domaine des nouvelles technologies (Amazon, Facebook, LinkedIn) et d’éminents universitaires et chercheurs spécialistes des réseaux, de l’autonomie ou de la robotique (36).
Durant la première année, le DIB s’est attaché à réaliser un état des lieux en passant 130 jours au sein du DoD, puis a effectué une première série de recommandations concernant la transformation numérique au sens large, destinées aux autorités du DoD. Le DIB s’est par la suite adressé aux différentes armées sur le même principe. Basé sur des recommandations concrètes, ce travail a permis d’acculturer en profondeur les principales autorités militaires de l’échelon central du Pentagone. Lors de leurs déplacements, les membres du DIB ont également pu sensibiliser les états-majors décentralisés et le personnel rencontré sur le terrain. L’intelligence artificielle tient une place centrale dans les travaux du Board au sens de l’acculturation, des outils techniques à développer et de l’environnement numérique à mettre en œuvre pour l’utiliser. Son travail a très largement contribué à la prise de conscience de l’importance des nouvelles technologies à tous les échelons des armées américaines et de l’urgence à les développer.
Transposer ce modèle est possible en France, sans créer une nouvelle structure mais en réunissant un comité de spécialistes français du numérique issus du monde de l’entreprise et de la recherche. Après avoir réalisé un état des lieux, ce comité pourra conseiller les hautes autorités du ministère dans le domaine du numérique en matière de personnel, de culture, d’organisation et de technologie. Comme aux États-Unis, ce comité permettra de mesurer à quel point, dans les nouveaux domaines du numérique, le secteur privé a de l’avance sur la défense. Pour accélérer les choses, il faudra parfois solliciter des sociétés innovantes qui n’ont jamais travaillé pour la défense mais qui ont développé des algorithmes qui peuvent lui être utiles, comme l’a fait l’USAF pour le projet MAVEN avec Google ou pour la maintenance prédictive avec C3IOT. Le fonds Definvest de notre ministère (37) a vocation à identifier les applications duales dans les domaines clés, mais cette recherche vers le monde civil doit également irriguer la réflexion de nos états-majors grâce à un système de veille pour adopter ce qui existe au sein de nos grandes entreprises et dans les clusters en France (Paris-Saclay) et à l’étranger. Il faudra aussi travailler avec de petites équipes pour gagner en agilité et en vitesse : c’est un véritable changement de modèle ; sans oublier d’exploiter de nouveaux modes de développement des projets.
Déployer les développeurs aux côtés des soldats (DevOps)
Pour développer MAVEN, les programmeurs ont été déployés directement aux côtés des opérateurs et ont fait évoluer le système en boucle courte, voire en temps réel. Ils ont exploité le DevOps, c’est-à-dire l’alignement des initiatives des développeurs avec la cadence des opérations. Les développeurs sont déployés au contact des opérationnels, y compris sur les théâtres d’opérations, pour optimiser la programmation des machines en boucle courte. Compte tenu de la cadence des développements techniques et des progrès réalisés par les informaticiens, les algorithmes d’intelligence artificielle sont considérés comme désuets en trois ou quatre mois : le travail en boucle courte des opérateurs et des développeurs est ainsi devenu incontournable.
Accéléré par la crise sanitaire et l’explosion du télétravail, ce mode de développement a presque doublé dans le secteur privé en cinq ans. Actuellement, 74 % des organisations dont l’activité s’articule autour des données ont recours au DevOps (38). L’accélérer au sein des armées requiert de disposer de développeurs militaires pouvant être projetés. Il s’agit aussi d’éprouver le concept sur la base de projets d’ampleur modeste pour monter en gamme dans un second temps. Cette expérimentation a déjà débuté dans l’Armée de l’air française avec son projet Air DevOps (39).
En marge des changements d’ordre culturels et de la mise en place de nouveaux développements, nos armées doivent aussi appréhender l’indispensable débat éthique au bon niveau, en établissant une régulation adaptée à l’intelligence artificielle faible.
Un débat éthique essentiel mais qui ne doit pas brider le développement de l’IA
Avec l’IA faible et le Machine Learning, l’homme est confronté, pour la première fois de son histoire, à des machines qui montrent une forme d’intelligence. Les ordinateurs peuvent manipuler des données et, dans le même temps, apprendre de leurs erreurs pour devenir meilleurs la fois suivante, d’une manière que nous ne connaissions jusqu’à présent que chez l’animal ou chez l’homme (40).
Conscients des dangers potentiels de l’IA forte, qui égalerait voire surpasserait l’homme, les puissances occidentales se sont lancées dans une réflexion éthique (41) pour tenter de normer son utilisation. Cette réflexion embrasse tous les niveaux de l’intelligence artificielle, de l’IA faible à l’IA forte. Ce débat éthique est souvent biaisé par le « syndrome Terminator » : celui de robots tueurs impitoyables dont l’homme a perdu le contrôle.
Il faut pourtant se rappeler les limitations des algorithmes d’IA, doués d’aptitudes incomparables pour analyser et comprendre, mais incapables de réaliser des fonctions pour lesquelles ils n’ont pas été conçus. L’IA forte est encore très futuriste et pour parvenir à des algorithmes égalant la subtilité du raisonnement humain, ses émotions et sa conscience, de nouvelles ruptures seront nécessaires. L’IA actuelle, dite faible, n’a pas vocation à remplacer l’homme, mais à l’assister sur des tâches simples pour lui permettre de se concentrer sur les fonctions nobles, faisant apparaître un paradoxe contre-intuitif : plus il y aura d’IA, plus l’homme sera capable d’exprimer son plein potentiel (42).
Connaître ces limites permet de relativiser – au moins à un horizon visible – les craintes associées aux développements de l’IA. Dès lors, le débat éthique, essentiel, doit couvrir les enjeux de court et moyen termes posés par l’IA faible. Car après tout, la meilleure manière de parvenir à gérer les dangers de l’IA forte lorsqu’elle sera accessible, n’est-elle pas de parvenir à relever les nombreux défis que pose déjà l’IA faible ?
* * *
La course à l’intelligence artificielle est l’objet d’une compétition planétaire déjà en marche. Dans cette course, « l’enjeu et le rythme sont tels que tout décrochage serait irrémédiable » (43). C’est pourquoi nos armées doivent immédiatement s’approprier ce que le secteur civil a développé, notamment dans les domaines administratifs et les ressources humaines.
Les armées doivent également développer leurs propres algorithmes pour conserver la supériorité en opérations. Cependant, le développement des algorithmes n’est pas le défi le plus difficile à relever (44). L’enjeu le plus complexe est sans doute de réunir les conditions de leur utilisation. D’abord, sur le plan technique pour disposer de l’architecture adéquate et être en capacité d’administrer, de stocker et de faire circuler la donnée ; mais aussi et surtout, sur le plan culturel. L’adoption de cette nouvelle technologie est avant tout une affaire humaine qui doit mobiliser tous les échelons de nos organisations afin d’en réussir la transformation. S’inspirer du travail du Defense Innovation Board américain pourrait grandement faciliter cette entreprise ambitieuse, mais absolument nécessaire.
La France a posé les fondamentaux indispensables à l’adoption de l’IA et dispose des talents et des savoir-faire nécessaires à son développement. Pour combler leur retard, nos armées doivent accélérer la révolution culturelle qu’impose la transition vers l’intelligence artificielle, véritable enjeu de puissance pour notre pays. ♦
(1) Commission européenne, L’intelligence artificielle pour l’Europe, 25 avril 2018 (https://ec.europa.eu/).
(2) Task Force IA, L’intelligence artificielle au service de la défense (rapport), septembre 2019 (www.defense.gouv.fr/).
(3) « Vocabulaire de l’intelligence artificielle », Journal officiel de la République française (JORF) n° 0285, texte n° 58, 9 décembre 2018 (www.legifrance.gouv.fr/).
(4) US Department of Defense, Harnessing AI to Advance Our Security and Prosperity, Summary of the 2018 Department of Defense Artificial Intelligence Strategy, 2018, 17 pages, p. 5 (https://media.defense.gov/).
(5) Noël Jean-Christophe, « Intelligence artificielle : vers une nouvelle révolution militaire ? », Focus stratégique n° 84, Institut français des relations internationales (Ifri), octobre 2018 (www.ifri.org/).
(6) L’expression « hiver de l’IA » représente la période pendant laquelle, en raison des limites technologiques de l’époque, les avancées en matière d’IA ont déçu ; les investissements financiers ont été freinés et le matériel développé, écarté.
(7) Lefer-Palos Caroline, « Le jour où Deep Blue a battu Garry Kasparov aux échecs », CScience IA, 7 août 2020 (www.cscience.ca/).
(8) Abiteboul Serge et Cazenave Tristan, « Go : une belle victoire… des informaticiens ! », The Conversation, 15 mars 2016 (https://theconversation.com/).
(9) Task Force IA, op. cit., p. 3.
(10) Kanaan Michael, T-Minus AI: Humanity’s Countdown to Artificial Intelligence and the New Pursuit of Global Power, Benbella books Inc, 2020, 270 pages.
(11) Ibidem.
(12) Sermodadaz Sarah, « Yann LeCun : “L’intelligence artificielle a moins de sens commun qu’un rat” », Sciences et Avenir, 24 janvier 2018 (www.sciencesetavenir.fr/).
(13) Lefkowitz Larry, « Don’t believe the Hype: Separating AI Fact from Fiction », AdAge, 12 juillet 2018 (https://adage.com).
(14) C’est la robotique collaborative ou la collaboration homme-robot.
(15) Task Force IA, op. cit., p. 4.
(16) Mcleary Paul, « Pentagon’s Big AI Program, MAVEN, Already Hunts Data in Midle East, Africa », Breaking Defense, 1er mai 2018 (https://breakingdefense.com/).
(17) Ibidem.
(18) Hitchens Theresa, « DUSDI Begin: DCGS, TPEDS Slow Intelligence Haring », Breaking Defense, 4 juin 2019 (https://breakingdefense.com/).
(19) Système de détection et de commandement aéroporté.
(20) Freedberg Jr Sydney J, « Raytheon AI: Fix That Part Before It Breaks », 20 mars 2020 (https://breakingdefense.com/).
(21) Deptula David, « Evolving Technologies and Warfare in the 21st Century: Introducing the “Combat Cloud” », The Mitchell Institute, septembre 2016, 10 pages (http://docs.wixstatic.com/).
(22) Hitchens Theresa, « Roper Pushes Moving Project MAVEN to Air Force », Breaking Defense, 11 juin 2020 (https://breakingdefense.com/).
(23) Barnett Jackson, « Air Force Moving Project MAVEN Into ABMS Portfolio », Fedsccop, 10 juin 2020 (www.fedscoop.com/).
(24) Henley Deb, « Advanced Battle Management Sytem OnRamp 2, Accelerating Data-Sharing and Decision-Making », 22 septembre 2020 (www.505ccw.acc.af.mil/).
(25) Bowen Di, Jianwen Zhao et Xiiaohu Qian, « Winning Tommorow’s wars: Informationazed Weapons and Equipment, Intelligentized Innovation marches on » et « “AI Weapons” in Chinese military innovation », Center for Security and Emerging Technology (CENT), avril 2020.
(26) Pappalardo David, « L’intelligence artificielle au service des aviateurs ou comment l’intelligence humaine est l’avenir de l’IA », Cahier de la RDN « Le Bourget 2019 », p. 195-202 (www.defnat.com/).
(27) Gunzinger Mark et Autenried Lukas, « Understanding the promise of Skyborg and low-cost attritable unmanned aerial vehicules », The Mitchell Institute, octobre 2020 (www.mitchellaerospacepower.org/).
(28) Insinna Valerie, « These Three Companies will build Prototypes for the Air Force’s Skyborg Drone », Defense News, 7 décembre 2020 (www.defensenews.com/).
(29) Macron Emmanuel, « Discours du président de la République sur l’intelligence artificielle », Collège de France, 29 mars 2018 (www.elysee.fr/).
(30) Task Force IA, op cit., p. 16-17.
(31) Présentation du projet Man Machine Teaming (https://man-machine-teaming.com/).
(32) Lagneau Laurent, « Le ministère des Armées investit dans l’analyse du renseignement par l’intelligence artificielle », Zone militaire-Opex 360, 19 novembre 2020 (www.opex360.com/).
(33) Task Force IA, op cit., p. 17.
(34) Sarmejan Romain et Picard Margot, « L’usage de la donnée dans les organisations publiques : une aventure avant tout humaine », Conviction RH, février 2021 (www.convictionsrh.com/).
(35) Ibid.
(36) Voir la présentation du Defense Innovation Board sur le site du DoD (https://innovation.defense.gov).
(37) Le fonds Definvest a été créé pour sécuriser le capital d’entreprises d’intérêt stratégique pour le secteur de la défense, pour soutenir leurs développements notamment en matière d’innovation, mais aussi pour participer à des opérations de croissance externe permettant de consolider la filière. Voir sa présentation sur le site Internet de la Banque publique d’investissements (BPI) – (www.bpifrance.fr/).
(38) McKendrick Joe, « L’adoption du DevOps a presque doublé en cinq ans, accélérée par la crise », ZDNet, 1er mars 2021 (www.zdnet.fr/).
(39) Armée de l’air et de l’Espace, « Visite et présentation du système de développement opérationnel numérique au CEMAAE », 5 mars 2021 (www.defense.gouv.fr/).
(40) Kanaan Michael, op. cit.
(41) Maquet Clémence, « Les lois de l’intelligence artificielle : quelle éthique pour l’UE ? », Siècle Digital, 8 octobre 2020 (https://siecledigital.fr/).
(42) Pappalardo David, op. cit.
(43) Task Force IA, op. cit., p. 3.
(44) Hyten John (General, Vice-Chairman of the Joint Chief of Staff), « Remarks to the joint artificial intelligence symposium », septembre 2020 (www.defense.gov/).