La dissuasion repose sur un processus décisionnel où l’homme tient la place centrale. Le développement de l’Intelligence artificielle pourrait fragiliser ce principe. En fait, l’IA renforce la dissuasion en permettant de mieux anticiper et d’améliorer le discernement dans la gestion de crise. L’IA ne remplacera pas l’homme mais l’aidera dans la décision.
L’intelligence artificielle est-elle un danger pour notre dissuasion ?
Ou l’épreuve du miroir de Narcisse
Is Artificial Intelligence a Danger for our Deterrent?
Or, the Narcissus Mirror Test
Deterrence depends on a decision-making process in which man retains the central position. The development of artificial intelligence carries a risk of degrading this principle. And yet AI strengthens deterrence through better anticipation, and it improves discrimination in crisis management. AI will not replace man, but will help him in his decision-making.
L’ouverture du Sommet pour l’action sur l’intelligence artificielle organisé par la France à Paris en février dernier (1) a ouvert naturellement une multitude de débats et d’interrogations sur notre avenir avec l’IA qui semble s’ancrer de manière durable dans nos vies. Pourtant, force est de constater que si l’IA pouvait fasciner dans les apports qu’elle offre, comme la démonstration de l’exosquelette de Wandercraft par son cofondateur Jean-Louis Constanza sur les plateaux de BFM TV où son fils atteint d’une maladie neuromusculaire qui l’empêche de marcher, peut désormais se déplacer sans fauteuil « comme par miracle », grâce à l’IA.
Presque comme un accomplissement divin, l’IA nourrit des fantasmes aussi chaotiques que ses pouvoirs peuvent être miraculeux, mais seul le mythe du déclenchement du chaos nucléaire perdure. Hollywood en a rêvé. De Dr Folamour à Terminator, la fiction adore imaginer des machines prenant le contrôle. Ce scénario repose cependant sur un malentendu : une IA ne « pense » pas, elle n’a ni conscience ni volonté stratégique. Alors pourquoi cette idée fascine-t-elle autant et inquiète-t-elle certains analystes ? Parce qu’elle répond à un sujet eschatologique de la dissuasion, celle de l’apocalypse et de la responsabilité de celui qui l’enclenche. En d’autres termes, est-ce que l’IA dépossède l’homme de toute capacité d’agir dans l’ordre d’engagement ? Est-ce que la fin potentielle du monde repose sur un algorithme froid capable de détruire la vie sans remords ? La question, si elle soulève de légitimes interrogations, pose d’emblée le cadre de la réflexion que le politique et le militaire doivent impérativement saisir : pourquoi la dissuasion et pourquoi l’IA ? Une réponse constante doit être donnée : ce sont des moyens et non des finalités. Évitons donc l’écueil du narratif présentant une IA en concurrence de l’homme, l’IA n’a pas d’ego et elle ne convoite ni ne complote contre l’être humain.
Dès lors, il ne s’agit pas tant de savoir si l’IA va remplacer l’humain dans la dissuasion, mais bien de comprendre comment elle s’y intègre. Ce débat ne doit pas être parasité par des peurs irrationnelles, ni par des extrapolations technologiques qui masquent l’essentiel : l’IA, comme la dissuasion, reste un moyen au service d’une finalité stratégique et politique dont il faut garantir la maîtrise par l’humain de l’ultime décision.
Il reste 91 % de l'article à lire
Plan de l'article