L’IA sera un véritable atout opérationnel car elle permettra au décideur militaire de mieux évaluer la situation et ainsi de donner les ordres adéquats. Cela exige également une réflexion éthique sur les modalités propres à l’IA, en adéquation avec les règles du droit des conflits armés.
Intelligence artificielle, risques et éthiques
Artificial Intelligence—Risks and Ethics
AI will be a significant operational advantage, since it will mean the decision-maker will be better placed to evaluate a situation and give appropriate orders. That requires ethical thought on the ways AI works and adherence to the law of armed conflict.
Conditionnées par la réalité des combats qu’elles mènent, les armées ont toujours eu besoin de s’adapter rapidement à la nature mouvante des menaces et au contexte évolutif des opérations. Le levier de l’innovation est considéré, non comme une fin en soi, mais comme un moyen quasi consubstantiel aux forces opérationnelles pour gagner. Au moment où les nouvelles potentialités de l’innovation semblent devenir vertigineuses, les armées renforcent leur attention portée à ces enjeux en adoptant une grille d’analyse qui permet d’objectiver la valeur ajoutée d’une innovation.
* * *
Technologie à fort potentiel, l’intelligence artificielle (IA), alliée à la robotique et à l’automatisation, est l’objet de tous les fantasmes. Elle fait naître des peurs irrationnelles et alimente des débats apocalyptiques sur la prise de contrôle par la machine des destinées humaines. Souvent symbolisée par le mythe des « robots tueurs », et caricaturée par le fameux Terminator porté à l’écran sous les traits charismatiques d’un célèbre gouverneur américain, elle annonce la nouvelle ère hégémonique des machines. Même si l’on peut se rappeler que le légendaire Terminator, bien que redoutable de détermination, est dénué de toute émotion, donc de morale, et n’est en réalité mû que par une seule et unique macabre mission qu’il ne sait pas reconfigurer. L’IA porte-t-elle les germes d’un bouleversement de l’éthique des conflits armés et d’une modification radicale des rapports de l’homme à la guerre ? La stratégie européenne en termes d’IA s’est fixé des objectifs ambitieux notamment en termes d’investissements publics et privés (20 milliards d’euros par an y seront consacrés au cours de la prochaine décennie) et les enjeux éthiques n’ont pas été négligés. Un groupe d’experts a été mandaté et a remis à la Commission européenne un premier rapport Ethics guidelines for Trustworthy AI. Il identifie plusieurs domaines de préoccupations liés à ces questions. Les biais portés par cette nouvelle technologie ne sont pas sous-estimés. Ils ont été répertoriés par de nombreuses études et sont classés en plusieurs catégories qu’il est désormais possible d’appréhender dans un continuum paix-crise-guerre. Les premières préoccupations soulevées ont trait, sans surprise, au respect du droit à la protection des données à caractère personnel et à la vie privée. Dans leur dimension organique, les forces armées n’échappent pas à ces considérations alors qu’au quotidien, des fonctions ressources humaines comme le recrutement pourraient utiliser des algorithmes puissants. Les normes et la réglementation existantes aujourd’hui permettent d’être confiant dans la capacité à s’affranchir de ces risques déontologiques partagés à l’échelle européenne et ouvrent des perspectives intéressantes aux gestionnaires de ressources pour l’utilisation de ces technologies. En temps de crise et de guerre, d’autres vulnérabilités portées par l’IA peuvent soulever des questionnements plus importants.
Il reste 74 % de l'article à lire