Pilote d’hélicoptère de combat dans l’Armée de terre et auteur de Dans les griffes du Tigre (Les Belles Lettres, 2013), le lieutenant-colonel Brice Erbland nous livre avec cet essai les fruits de son mémoire de scolarité réalisé en 2017 à l’École de Guerre.
Contrairement à ce que le titre un brin caricatural (1) pourrait laisser penser, il ne s’agit pas ici d’une étude anxiogène sur la déshumanisation de la guerre, mais en réalité d’une solide réflexion sur la meilleure manière de rendre moralement autonomes les SALA (systèmes d’armes létaux autonomes) qui pourraient demain accompagner – et non remplacer – les soldats sur le champ de bataille. Autrement dit, comment transformer les SALA en SALMA (systèmes d’armes létaux moralement autonomes) ? Le sujet mérite en effet qu’on s’y attelle. Car au-delà de la simple question de l’efficacité des SALA – une arme est faite pour tuer, la cause est entendue – c’est toute la question de la manière de faire la guerre qui est en jeu. Le SALA, s’il devient demain une réalité, ne pourra en effet faire l’économie d’une éthique, fût-elle artificielle : à la fois démultiplicateur de puissance et symbole, un SALA mal conçu sur le plan éthique serait un grave échec pour son créateur et son utilisateur.
Fort de ce constat, Brice Erbland se lance en quête de ce qui pourrait être une éthique artificielle, nous offrant à cette occasion une réflexion à la fois accessible et exigeante, soutenue par un style d’une grande clarté.
Avant de poser les fondements d’un module d’éthique artificielle, l’auteur se livre en premier lieu à une mise en parallèle du soldat humain et de la machine, pour voir dans quelle mesure cette dernière peut répliquer les vertus humaines au combat – courage, intuition, créativité, cohésion et discernement émotionnel – tout en s’affranchissant des faiblesses morales du soldat – vengeance, stress, addiction à la destruction. De cette confrontation féconde émane une liste d’exigences pour une éthique artificielle qui soit « non seulement capable de respecter un code de conduite moral, et donc d’estimer la valeur morale d’un acte par rapport à un autre, mais également de construire sa subjectivité morale propre, sa capacité à la clémence selon les situations ».
Vient ensuite le temps de traiter le « comment faire ». Quelle meilleure approche programmatique pour reproduire le processus décisionnel humain ? Et comment s’assurer que l’éthique ainsi programmée est fiable ? Pour y répondre, l’ancien stagiaire de la 24e promotion de l’École de Guerre examine tour à tour la logique déontologique (application de règles supérieures intangibles), l’approche non monotone (plus subtile qui estime les conséquences des actions) et enfin les opportunités offertes par les réseaux de neurones, avant d’en proposer une combinaison optimale pour reproduire au mieux la décision humaine. Cœur de l’ouvrage, cet examen rigoureux des possibilités conceptuelles s’adosse à des exemples simples et parlants grâce auxquels l’auteur transcende avec succès l’aridité de la logique pure et offre ainsi au lecteur un point de vue plongeant sur les potentialités de l’éthique computationnelle.
En dernière analyse, après avoir examiné la problématique de « l’éducation » des SALA, Brice Erbland s’attelle aux conditions de validation d’une éthique artificielle, cette validation devant être selon lui « irrévocable », c’est-à-dire sans aucun angle mort.
Au fil du texte émerge ainsi toute une série de « déductions » qui forment l’ossature d’un cahier des charges des SALA en général et de leur module éthique en particulier. Et, à chaque étape du raisonnement, le rôle primordial de l’humain comme ultime garde-fou est mis en avant.
Officier complet, l’auteur ne manque pas en fin d’ouvrage de quitter les terres de la programmation pour nous offrir un détour par l’univers de la littérature traitant des robots, pour en tirer quelques leçons pertinentes sur les machines, ces machines « dont le véritable problème est qu’elles obéissent toujours » selon la formule de Grégoire Chamayou (2).
Au total, si les machines ne peuvent posséder l’intelligence humaine, au moins peuvent-elles la simuler. De cette possibilité, Brice Erbland tire l’impératif de fixer des limites au SALA dans le domaine moral, à défaut de pouvoir leur donner une conscience. Nul doute que cet ouvrage y contribuera.
(1) L’auteur reconnaît d’ailleurs lui-même qu’il n’aime pas ce titre dicté par les exigences du marketing. Le titre initialement envisagé était Robots-soldats, en quête d’une éthique artificielle. Interview de l’auteur dans DSI n° 136, p. 63.
(2) Grégoire Chamayou : Théorie du drone ; Paris, La Fabrique Éditions, 2013 ; 363 pages.