Ce Cahier de la RDN fait le point des recherches entreprises par le CREC Saint-Cyr pour analyser le phénomène de robotisation du champ de bataille sous l'angle des sciences sociales. Il s’agit de synthétiser les principaux enseignements de ce programme de recherche et d'envisager de nouvelles voies de développement.
Introduction à la robotisation du champ de bataille
Particulièrement riche, ce Cahier de la RDN aborde la question de la robotisation du champ de bataille. Sur ce thème, dont il n’est pas besoin de souligner les multiples enjeux militaires, scientifiques ou industriels, le Pôle « Mutation des conflits » du Centre de recherche des écoles de Saint-Cyr Coëtquidan (CREC) a lancé en 2010 un programme de recherche auquel ont activement participé les auteurs des différentes contributions qui sont ici rassemblées.
Les raisons pour lesquelles le CREC Saint-Cyr a engagé et poursuivi ce programme de recherche sont principalement au nombre de deux.
La première tient à l’importance des enjeux associés à la robotisation du champ de bataille et au sentiment qu’il était nécessaire de développer un nouvel angle d’approche de la question des robots militaires, celui des sciences humaines, sociales et politiques. Si l’on définit le robot par ses composants, c’est-à-dire une machine mécanique dotée de logiciels qui lui permettent d’interagir avec son environnement par le biais de capteurs et d’effecteurs, on comprend toute l’importance que peuvent présenter pour le développement de ces robots civils ou militaires des disciplines comme la mécanique, l’électronique, l’informatique, l’automatique, les matériaux… Mais, si les découvertes scientifiques et les innovations techniques issues des sciences de l’ingénieur sont fondamentales pour la mise au point et le développement des robots, elles ne nous disent rien des processus d’intégration de ces machines dans les systèmes socio-techniques que sont les organisations militaires. Ces systèmes innovants seront-ils bien reçus et pleinement utilisés par leurs utilisateurs ? Trouveront-ils parfaitement leur place dans l’organisation où ils s’insèrent ? Produiront-ils sur le terrain les effets que l’on peut attendre de leurs performances intrinsèques ? Les multiples travaux réalisés sur ces questions par la psychologie, la sociologie et bien d’autres disciplines des sciences sociales nous montrent que la réponse à ces questions n’est pas toujours celle qui est attendue ou espérée et qu’il faut tenir compte de facteurs multiples, techniques mais aussi psychosociaux et organisationnels, pour comprendre l’impact des nouvelles technologies sur la performance des forces armées. Pour le dire autrement, le programme de recherche lancé sur la robotisation du champ de bataille visait à contrecarrer le risque du « déterminisme technologique » qui n’était pas absent du discours dominant de l’époque.
La seconde raison qui a justifié le lancement de ce programme tenait à la confusion qui caractérisait le domaine de la robotique militaire. Étions-nous en présence d’une véritable « Robolution » susceptible de bouleverser les concepts et les équilibres de la pensée stratégique ? Le « drone » était-il l’archétype ultime de la robotique militaire ? Fallait-il craindre l’arrivée de hordes de robots du type « Terminator » ? Fallait-il s’inspirer des « lois d’Asimov » pour développer des cadres juridiques adaptés à la prolifération des robots militaires ? Fallait-il aller plus loin et les doter d’une personnalité juridique particulière ? Toutes ces questions n’ont pas encore trouvé de réponses définitives mais les recherches menées ont permis de clarifier certaines d’entre elles. Nous en retiendrons deux à titre d’illustration.
• La première est celle du statut juridique du robot. Certains avaient proposé d’en faire une « personne juridique » particulière dotée d’un régime spécifique. Cette proposition a fait long feu tant elle soulevait de fausses questions et n’apportait aucune solution aux problèmes qu’elle entendait traiter, notamment celui de la réparation des dommages éventuellement provoqués par le mauvais fonctionnement de la machine. Face aux dysfonctionnements toujours possibles d’une machine qui interagit avec son environnement, la meilleure protection pour les tiers consiste bien évidemment à considérer le robot comme une machine placée sous la responsabilité d’un gardien et de faire peser sur celui-ci une obligation renforcée du type de celle des gardiens d’animaux. Il suffit de rappeler les termes mêmes du Code civil pour comprendre que, considéré comme un animal ou une machine, le robot ne pose pas de difficulté particulière au regard du traitement des conséquences néfastes dont son usage par des forces armées peut être à l’origine. « Le propriétaire d’un animal, ou celui qui s’en sert, pendant qu’il est à son usage, est responsable du dommage que l’animal a causé, soit que l’animal fût sous sa garde, soit qu’il fût égaré ou échappé ». Nul besoin d’inventer un régime nouveau, dérogatoire, inconnu des juges éventuellement appelés à l’appliquer et dont l’articulation avec les autres régimes de responsabilité civile ou pénale soulèverait de nouvelles interrogations, c’est-à-dire de nouvelles incertitudes pour les victimes.
• La seconde illustration des confusions qui se lèvent progressivement est celle relative aux systèmes d’armes létaux autonomes. Craignant l’apparition prochaine de robots militaires capables, sans aucune forme d’intervention humaine, de définir et de sélectionner leurs cibles puis de décider de les frapper ou non, de nombreuses voix se sont fait entendre pour demander l’interruption immédiate des recherches susceptibles d’aboutir à des robots de ce type, l’interdiction préventive de leur production par l’industrie et la proscription de leur mise en œuvre par les forces armées. Nos travaux ont permis de mettre en lumière deux éléments qui conduisent à ne pas souscrire à ces demandes. Le premier découle des distinctions à opérer entre des notions qui ne sont pas équivalentes et qui sont trop souvent confondues. Sans même évoquer le cas des robots télé-opérés (par exemple les UAV – Unmanned Aerial Vehicle – armés qui sont mis en œuvre sur les théâtres actuels) et qui relèvent d’un contrôle humain constant, il convient de ne pas confondre automatisation plus ou moins poussée de certaines fonctions d’un système d’armes et autonomie proprement dite de ce système. La première, l’automatisation de certaines fonctions, se constate tous les jours et elle est au cœur des processus d’innovation militaire en matière de robotique. La seconde, l’autonomie, relève encore du domaine de la science-fiction et la logique même de l’emploi de la coercition sur le champ de bataille conduit à penser qu’une machine qui serait véritablement autonome, c’est-à-dire susceptible d’agir sans que les acteurs ne sachent ce qu’elle va faire, la rendrait suspecte aux yeux de ceux mêmes qu’elle serait supposée servir. S’agissant de machines qui n’existent pas et d’un besoin militaire hypothétique, la création d’un régime juridique nouveau destiné à en prévenir l’apparition et le développement, serait à la fois inutile, inopérante et dangereuse. Inutile, parce que les innovations de ce type sont déjà encadrées par un dispositif juridique ad hoc qui est connu de toutes les parties prenantes, en l’espèce l’article 36 du Protocole additionnel I (1977) aux Conventions de Genève de 1949. Inopérant, car les partisans d’une interdiction de principe ne s’accordent pas sur la définition de l’objet à interdire, ce qui n’est guère surprenant puisque celui-ci n’existe pas et que ses caractéristiques fondamentales ne sont pas établies. Dangereux, enfin, car instaurer un régime juridique particulier, qui concurrencerait dans une certaine mesure les règles générales de l’article 36, reviendrait à créer des incertitudes importantes sur leurs champs d’application respectifs. Des zones grises ou des zones de friction entre les différents régimes ne manqueraient pas de se créer, donnant aux acteurs plus de liberté qu’ils n’en ont aujourd’hui, ce qui aurait pour conséquence immédiate une moindre sécurité juridique dans l’application des textes et une perte d’effectivité du cadre juridique actuel.
Le programme ainsi développé a-t-il permis de lever toutes les incertitudes et de répondre à toutes les questions ? La réponse est assurément négative compte tenu de la dynamique technologique et, surtout, de la convergence des innovations qui renforce la complexité des problèmes soulevés. Un exemple suffit à lui seul pour illustrer l’ampleur des difficultés qui sont devant nous, celui de l’Intelligence artificielle (IA) dans laquelle nombre d’observateurs voient le futur de la robotique militaire.
L’IA est incontestablement le « buzzword » du moment et il suffit de l’associer avec quelques autres (réseaux neuronaux, « deep learning ») pour l’emporter dans toutes les « bingos réunions » du monde civil ou militaire. Si l’on entend le concept d’« intelligence artificielle » au sens de l’un de ses pères fondateurs, John McCarthy (1927-2011), il est évident que l’institution militaire ne saurait passer à côté de machines capables de remplir des tâches qui sont caractéristiques de l’intelligence humaine : apprentissage, organisation de la mémoire, raisonnement critique… Autrement dit, l’IA est l’avenir de la robotique militaire dans la mesure où elle permet à la machine de renforcer ses capacités à agir dans son environnement. Mais, une fois ce constat d’évidence posé, restent de nombreuses incertitudes et de nombreuses questions ? Les pays les plus avancés dans ce type de technologie seront-ils les « maîtres du monde » comme le clame Vladimir Poutine qui semble ainsi sombrer dans le déterminisme technologique le plus élémentaire. Quelles applications de l’IA faut-il privilégier ? L’intelligence artificielle est-elle de nature à modifier substantiellement la problématique des systèmes d’armes autonomes ? On le voit, les questions se renouvellent et appellent de nouvelles réflexions. Qu’il nous soit permis ici de proposer à la sagacité des lecteurs de la RDN l’une de ces questions que l’institution militaire devra résoudre dans les mois à venir.
Quel domaine d’application de l’intelligence artificielle faut-il prioriser si les ressources sont contraintes ?
Une première possibilité serait de mettre l’accent sur l’IA au service de l’autonomie des systèmes d’armes en postulant que la machine sera ainsi capable de répondre aux conditions posées par le Droit international humanitaire (DIH) quant à l’emploi de la force sur le champ de bataille. Il est permis d’être dubitatif face à cette approche liant IA et autonomie des systèmes d’armes. En effet, l’intelligence artificielle telle qu’elle se développe sous nos yeux est une IA « faible » qui n’est pas en mesure de se conformer aux exigences du DIH. Il y faudrait une IA « forte », laquelle ne semble pas à l’ordre du jour des laboratoires scientifiques même si la réduction des émotions humaines à de purs algorithmes mathématiques est envisagée comme une voie de recherche. Une priorité donnée à des programmes dont le but serait de créer des systèmes d’armes autonomes légitimes et légaux nous semble constituer une impasse dans laquelle il conviendrait de ne pas s’engager.
En revanche, deux champs d’application prometteurs semblent ouverts à l’IA.
• Le premier est celui de la transposition dans le domaine militaire d’applications relevant des missions de soutien des forces : télécommunications, logistique, maintenance… Dans tous ces domaines, le secteur civil produit des applications qui sont source de gains énormes (budgets, temps, personnels…) ou qui créent de nouveaux services dont l’institution militaire pourrait avoir une utilité immédiate moyennant des coûts de transfert extrêmement limités. Il faudrait cependant que deux obstacles soient surmontés pour que cette transposition s’opère efficacement. Le premier relève de la « culture professionnelle militaire » et tient au fait que le secteur de la production et de l’achat des équipements militaires est peu adapté au traitement de systèmes fortement évolutifs, à durée de vie courte, peu coûteux et qui forment des « quasi consommables ». En second lieu, ces applications sont principalement développées par des entreprises émergentes qui disposent de compétences et de modes de fonctionnement différents de ceux des grands groupes. Or, si l’on considère la carte des « licornes », c’est-à-dire des entreprises nées autour de ces applications et qui se sont très rapidement développées, force est de constater qu’elles sont très peu nombreuses en Europe où elles se comptent sur les doigts d’une main. La plupart sont nord-américaines, éventuellement asiatiques ou indiennes, marginalement anglaises, allemandes ou françaises. Dans le domaine de la maintenance prédictive par exemple, où l’intelligence artificielle apporte des gains très importants en termes de taux de disponibilité des matériels et de coût de l’entretien, les plus grandes firmes sont américaines et allemandes. Une seule entreprise française – Blablacar – se glisse dans le « Top 20 » mondial.
• Un second champ prometteur pour les applications militaires de l’intelligence artificielle est la prise de décision. C’est d’ailleurs dans ce domaine où les interactions avec l’environnement physique sont les plus limitées que l’IA produit les résultats les plus spectaculaires. C’est en effet dans le travail d’acquisition des données, de leur traitement complexe ou de l’auto-apprentissage que la machine donne le meilleur d’elle-même. Paradoxalement, alors que le robot est le plus souvent envisagé comme un exécutant, la machine dotée d’intelligence artificielle semble plus adaptée aux travaux de conception et de prise de décision qu’à la mise en œuvre sur le terrain, ce qui revient à dire qu’elle est plus faite pour assister, voire remplacer, un général qu’un sergent-chef. Or, on sent bien le fossé qu’il faudrait franchir pour passer du constat technique objectif (la machine dispose d’une capacité à prendre des décisions supérieure à celle de l’homme) à l’acceptation de ce constat par le système sociotechnique qu’est l’institution militaire. Quel état-major accepterait de se dépouiller de ses prérogatives au profit d’une IA capable de mobiliser l’ensemble de la littérature stratégique ou des retours d’expérience, de prédire le comportement de l’ennemi ou de résoudre des questions complexes d’optimisation sous contraintes ? Quels soldats accepteraient sans réticence d’obéir à des ordres dont ils sauraient qu’ils ont été donnés par une machine raisonnant froidement en termes de coûts et d’avantages ?...
* * *
On le voit, cette livraison de la Revue Défense Nationale, malgré la richesse de ses contributions, ne prétend pas épuiser un sujet qui suscitera encore bien des travaux et des réflexions dans les années à venir. ♦