Les Systèmes d’armes létaux autonomes (Sala) posent de nombreuses questions quant à leur emploi et aux règles à appliquer. N’excluant pas la responsabilité des utilisateurs et du commandement, il convient de ce fait de poursuivre les réflexions au niveau international pour mieux encadrer ce type d’armement nouveau.
Les systèmes d’armes létaux autonomes : en avoir (peur) ou pas ?
Lethal Autonomous Weapon Systems: to have (Fear) it or not?
The Lethal Autonomous Weapon Systems (LAWS) bring out numerous questions as for their usage and rules to apply. Not excluding the responsibility of the users and the command, it agrees to continue to the reflections at international level to better supervise such type of new weapon.
Les « robots tueurs » n’existent pas. Et les systèmes d’armes létaux autonomes (SALA) – selon la formulation consacrée – ne devraient faire leur apparition sur le champ de bataille ni demain ni dans un futur proche. Si la perspective de « robots tueurs » est très improbable, c’est d’ailleurs moins en raison des limites actuelles de l’intelligence artificielle que de l’absence de volonté des États intéressés d’investir dans des créatures qui échapperaient à une supervision minimale (1). Mais le sujet est à la mode. La société civile a fait de l’interdiction des SALA une nouvelle cause à défendre. Les militants, d’abord, avec la campagne « Stop Killer Robots » initiée par Human Rights Watch et portée par une coalition d’ONG (2). Les savants, ensuite, avec la lettre-pétition signée par plusieurs milliers de personnalités, dont Noam Chomsky ou Stephen Hawking, et appelant à la régulation de telles armes (3). Même les gouvernements s’engagent dans de premières discussions, avec l’organisation, depuis 2014 et à l’initiative de la France, de réunions informelles d’experts dans le cadre de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques (CCAC) (4). Bref, que de mobilisations pour un sujet qui demeure à l’âge spéculatif !
Les débats sont certes nourris par les avancées réelles de la science, mais aussi par des représentations faussées. Des avancées réelles, avec l’arrivée d’outils robotisés, parfois « algorythmisés », dans le domaine civil (de l’aspirateur à la voiture) comme militaire (plus de trente États, par exemple, possèdent des systèmes défensifs autonomes contre des missiles ou chasseurs ennemis comme les modèles Patriot ou Phalanx). On sait également que la recherche en intelligence artificielle et particulièrement en « Deep Learning » fait l’objet d’investissements considérables dans nombre d’États ou de firmes multinationales (chez Google, Apple, Facebook ou Amazon, notamment). Des représentations faussées cependant, par nos angoisses que des processeurs surpassent l’homme, et ce, plus seulement aux échecs ou au jeu de go, et par notre inquiétude que des robots agissent sous l’empire de sentiments humains (la jalousie, l’envie, la prédation, etc.). La littérature ou le septième art reflètent ainsi notre crainte que des machines nous trahissent et nous menacent. Les œuvres de Philip K. Dick (5) ou des films comme 2001 : l’odyssée de l’espace (6) ou la série des Terminator (7) renvoient au mythe de Frankenstein appliqué aux robots (8). Est-ce bien raisonnable ? La science peut-elle engendrer des modèles pleinement autonomes et indépendants, entendus comme ayant une capacité d’action sans l’intervention de l’homme, mais aussi une capacité de protection contre ses ingérences. Peut-on dépasser les systèmes d’armes actuels dans lesquels l’opérateur humain est encore « dans la boucle » ? Rien n’est moins sûr. Les technologies nécessaires ne devraient pas être disponibles avant au mieux plusieurs décennies et on peut se demander de toute façon ce qui pousserait l’homme à inventer de tels systèmes (9). Mais nombreux sont ceux qui évoquent déjà une troisième révolution militaire et stratégique, après l’invention de la poudre et de l’arme nucléaire, sinon une nouvelle menace à la paix et à la sécurité internationales.
Dans ces conditions, il convient déjà de bien s’entendre sur les objets concernés comme sur les enjeux moraux, opérationnels et juridiques qu’ils posent, avant d’adopter une position qui ne peut être aujourd’hui que mesurée.
Il reste 88 % de l'article à lire
Plan de l'article