Malgré sa spécificité : l’autonomie, l’arme robotique est soumise au droit des conflits armés dont les principes qualifiables d’« ethical by humanity » invitent à une subsidiarité des compétences entre le militaire responsable et la machine.
Le droit des conflits armés oblige légalement à des robots militaires « Ethical by Humanity »
Le droit des conflits armés, source d’une éthique « Ethical by Humanity », applicable aux robots militaires
Les Systèmes d’arme létale autonomes (Sala), que certains médias qualifient de « Killer robots », et les systèmes robotiques militaires interrogent le droit des conflits armés chargé de civiliser le recours et l’exercice de la guerre. Ses principes, applicables à tous types d’armes, établiraient une éthique qualifiable d’« Ethical by Humanity » (éthique d’humanité), laquelle serait l’inévitable condition des robots militaires invitant à une subsidiarité entre le robot et le soldat.
La nature « Ethical by Humanity » du droit des conflits armés
Ce droit composé de différentes sources complémentaires (1), circonscrit le plus possible l’acte de guerre avec des armes légales à des zones où le combat est juridiquement possible et non-interdit, entre des personnes juridiquement considérées comme des combattants pour toucher seulement des objectifs militaires, et éviter que des biens ou des personnes non concernés par le conflit soient atteints ; enfin protéger certaines catégories de personnes, de biens et l’environnement. Ce droit repose sur trois principes. Les principes d’humanité (2), de discrimination, de distinction (3) et de proportionnalité, qui concilie le principe d’humanité avec les nécessités militaires. Ils contraignent tant les responsables politiques et militaires que le soldat à effectuer des choix par leur capacité de jugement pour choisir une arme, une cible et apprécier les conséquences de l’acte de guerre.
Au final, ces trois principes obligatoires traduisent le souci éthique de la protection de l’être humain lors d’un conflit armé « civilisé ». En ce sens, le droit des conflits armés est « Ethical by Humanity » et le robot militaire se doit d’être « Ethical by Humanity ».
« Ethical by Humanity », l’inévitable condition d’un robot militaire
Au préalable, on rappellera que la conception d’un robot armé oblige les concepteurs à anticiper les limites à son usage. Cette démarche de nature éthique, anticipative et prédictive d’usages et de normes, généra une géologie (4) de l’éthique appliquée au numérique et donc au robot (5). La « robot-éthique » (6) comprendrait la « Safety by Design » (7), la « Privacy by Design » (8), la « Legal by Design » (9) et l’« Ethical by Design » (10). Ces éthiques, soulignent l’interaction entre l’éthique et le droit ; les nouvelles technologies s’insèrent dans un droit préexistant et génèrent de nouvelles normes juridiques. Tel serait le cas des principes de droit à l’oubli, de droit au déréférencement, du doit à la connexion et à la déconnexion.
Ainsi, le robot militaire se doit d’être « Legal by Design » et donc « Ethical by Humanity », pour garantir sa soumission au droit des conflits armés. Le droit des conflits armés est le droit et l’éthique du robot militaire.
Ceci dit, « Ethical by Humanity » semble une éthique spécifique au sein des éthiques car propre à l’objet robotique militaire. Elle induirait une double éthique. La première concerne le choix responsable d’autoriser l’utilisation d’un robot. La seconde apprécie la conformité des capacités du robot au droit des conflits armés lors de son usage. En conséquence, si le robot se doit d’être « Legal by Design », encore faudra-t-il choisir tous ses usages possibles conformes à « Ethical by Design ».
Cependant, quelle certitude que la transformation de la norme juridique en algorithme ne la dénaturera pas et surtout comment garantir que le jugement logique et mathématique du robot sera aussi juste (11) que le jugement humain dans l’application du droit des conflits armés à une situation concrète (12) ? Dès lors, l’usage de robots militaires dans le cadre du droit des conflits armés suggère la subsidiarité entre le militaire et la machine.
« Ethical by Humanity » implique une subsidiarité entre le militaire et la machine
« Ethical by Humanity » fournirait des critères d’appréciation pour déterminer quelle norme du droit des conflits armés est transformable en algorithme par rapport à la capacité de discernement découlant de l’intelligence artificielle du robot et en garantir le respect. On déterminerait ainsi qui de l’humain ou du robot doit agir dans telle ou telle circonstance. Il y a donc une proportionnalité entre la complexité de la norme, « l’intelligence » du robot et la nature de la tâche robotique à exécuter. Cette proportionnalité aiderait à décider qui du robot ou du soldat agit militairement. Ensuite, on déterminerait, au regard de cette proportionnalité, l’usage du robot dans un cadre stratégique et tactique. Cependant, c’est bien l’être humain et/ou l’État qui endosseront la responsabilité de l’action robotique.
Au final, le droit des conflits armés s’impose au robot ; le robot et le soldat coopéreront selon une échelle de coopération fondée sur la subsidiarité de leurs capacités et efficacités. Cette échelle de coopération reposerait sur l’estimation humaine que telle norme doit être interprétée et appliquée par l’être humain seul, ou bien estimée par l’humain et appliquée par le robot, et enfin estimée, appliquée par le robot lui-même.
On verra ainsi comment « Ethical by Humanity » conditionne l’action robotique et la subsidiarité qui en découle.
La soumission du robot militaire aux principes « Ethical by Humanity » du droit des conflits armés
L’autonomie robotique confrontée aux principes fondamentaux du droit des conflits armés
Pour être « Ethical by Humanity », le robot militaire autonome contribuera au respect du droit des conflits armés. En s’inspirant du droit constitutionnel, l’autonomie robotique serait la capacité juridique, immatérielle (13) et matérielle (14) du robot, de par son « interprétation » (volonté propre (15) ?) de décider, dans le cadre de ses compétences, d’une action juridiquement qualifiable (16), opposable à un tiers et contrôlable (sanctionnable), soit par l’être humain sur l’instant, soit a posteriori lors d’un litige, et pouvant entraîner la mise en cause de la responsabilité d’une personne morale ou physique de droits public ou privé.
Mise en perspective avec l’« Ethical by Humanity » du robot militaire, l’autonomie robotique souligne qu’il sera d’autant plus éthique qu’il est adaptable en permanence pour permettre une appréciation quant à la détermination des cibles, du choix des armes, des forces humaines et de l’évaluation du résultat militaire comparé aux conséquences dommageables. Cette adaptabilité robotique autoriserait le respect du principe de proportionnalité qui conditionne ainsi les deux autres principes.
Cependant, en supposant que la technologie permettrait au robot militaire d’exercer une capacité de discernement, est-il éthiquement acceptable que le robot détermine, par rapport à des critères certes humainement posés mais algorithmiquement appliqués, le nombre et la qualité des morts et la nature des biens détruits pour qualifier l’opération militaire de proportionnelle et donc légale ? Si une réponse positive est certes possible, on répondra par la négative ; l’évaluation de cette proportionnalité est par nature de la responsabilité humaine. L’appréciation humaine de la proportionnalité est aussi le moyen de préserver l’application du principe d’humanité.
En effet, les implications concrètes de ce principe justifient l’action complémentaire du soldat pour garantir un usage du robot conforme à ce principe. Même si l’on voit mal comment le robot lui-même utiliserait une munition interdite, causerait un mal excessif, pratiquerait la discrimination entre les personnes, attenterait à leur dignité ou les torturerait. Au contraire, ne faudrait-il pas doter le robot de la capacité de discerner quand son usage par le soldat conduit à de telles infractions (est-ce techniquement possible) ?
Le principe de distinction suppose une fine intelligence artificielle pour discerner les différentes situations juridiques. Tout reposera sur la capacité à transformer des normes juridiques en algorithmes. La garantie de ce principe reposerait d’abord sur l’être humain qui interviendrait soit pour discriminer les cibles au regard du droit, soit pour valider les choix mathématiques du robot. De même, ne revient-il pas à l’être humain soit de stopper une action robotique, soit de valider l’arrêt de celle-ci, dès lors que l’un des deux constate un changement de circonstances qui remettrait en cause les principes de proportionnalité ou d’humanité ?
En conséquence, ces principes sont des contraintes légales, et éthiques, en articulant intelligence humaine et IA. Ainsi, un robot militaire sera éthique dès lors que ses capacités matérielles et cognitives seront adaptées à l’action de guerre envisagée et à la cible. En somme, il s’agit de disposer du robot juste matériellement et cognitivement adapté, proportionnel à l’action militaire. Cela impliquerait de concevoir des systèmes robotiques à l’autonomie variable en allant de l’automate au robot autonome et éviter que leur usage ne devienne illégal notamment par une trop grande efficacité.
La perfidie, le « pas de quartier » et le robot
Le robot serait-il une arme déloyale et perfide ?
Recourir au robot militaire serait aussi déloyal que l’usage de l’arme à feu des fantassins contre les nobles chevaliers d’Europe ou lors de la bataille de Nagashimo le 29 juin 1575 au Japon. Ainsi, tuer à distance et efficacement serait fourbe et malhonnête. Le robot militaire serait-il déloyal parce qu’il symbolise le combat inégal entre l’être humain et la machine intelligente ? Pourtant, cette inégalité ne semble pas contraire au droit des conflits armés au contraire de la perfidie. Le robot militaire serait-il une arme perfide ?
Au contraire de la ruse (17), la perfidie est interdite selon l’article 37 du Protocole additionnel sur la protection des victimes de conflits armés du 8 juin 1977. Elle consiste en « … des actes faisant appel, avec l’intention de la tromper, à la bonne foi d’un adversaire pour lui faire croire qu’il a le droit de recevoir ou l’obligation d’accorder la protection prévue par les règles du droit international applicable dans les conflits armés ». Comme l’indique l’article 37, feindre des négociations, de disposer du statut de non combattant ou de civil, d’un statut protégé comme prêtre, journaliste, médecin, ou encore utiliser des symboles protégés (croix, cristal et croissant rouge, drapeau blanc, uniforme…) (18) sont des exemples de perfidie. Elle peut constituer un crime de guerre dès lors qu’elle entraîne la mort ou des atteintes graves à la personne (19).
En conséquence, la perfidie, par nature, n’est pas robotique (20) et seul l’usage perfide du robot sera interdit. Par exemple en revêtant le robot des signes de la partie adverse, ou d’un symbole offrant une protection dans le but de tromper l’adversaire et de le détruire. Par contre, point de perfidie pour un robot paré des mêmes symboles (et donc protégé) pour assurer le transport de personnes protégées ou recevant la mission surveiller des biens culturels par exemple. Sinon le robot en tant que chose peut allégrement être détruit par des soldats blessés ou non, ou par d’autres robots.
Cependant, le robot contribuerait-il à commettre un crime ou un délit de guerre ?
L’efficacité robotique revient-elle à ne pas « faire de quartier » ?
L’article 461-8 du Code pénal (21) dispose que : « Le fait d’ordonner qu’il n’y ait pas de survivants ou d’en menacer l’adversaire est puni de la réclusion criminelle à perpétuité. » En conséquence, l’usage délibéré des robots pour systématiquement tuer des adversaires serait critiquable légalement en raison de la technologie au contraire du soldat qui a le choix de tuer ou non. Peut-être faudra-t-il, avant d’user du robot, évaluer la probabilité de survie de l’adversaire pour éviter un usage disproportionné de l’arme robotique ?
En conclusion, l’usage éthique du robot militaire dépendra du type de robot, des circonstances de combat, de l’objectif et du résultat militaire attendu. Ainsi, éthique dans telle circonstance particulière de combat, le robot ne le sera pas dans une autre. Cette approche laisse entrevoir la nécessaire subsidiarité entre la responsabilité humaine et l’action robotique induite par l’éthique du droit des conflits armés.
« Ethical by Humanity » conditionne la subsidiarité entre responsabilité humaine et action robotique
L’évaluation humaine et permanente de la subsidiarité entre l’action robotique éthique et le militaire
Parce que le robot est un système de coopération entre la machine, la société et l’être humain (22), l’introduction du robot militaire dans l’art de la guerre oblige à penser le partage de compétences entre le robot et le militaire. Les principes de subsidiarité et de proportionnalité (23) fourniraient un modèle transposable aux relations entre les responsables politiques et militaires, et le robot (24). De la sorte, ces principes détermineraient le niveau de partage de responsabilité (25), de compétences (26), d’autorité des uns par rapport aux autres, et d’efficacité (27) attendus entre le robot et l’être humain. Le niveau d’autonomie utile pour l’action robotique découlerait de ces principes pour respecter le droit des conflits armés.
On évaluerait ainsi quelles actions militaires peuvent être confiées à un robot particulièrement autonome car ne nécessitant qu’une intervention humaine très limitée, celles qui reposent sur une coopération étroite, en distinguant les situations juridiques qui impliquent que l’être humain conditionne étroitement l’action robotique, de celles où la garantie des principes du droit des conflits armés reposerait en partie sur la capacité du robot à alerter l’être humain sur une possible infraction. On verra quelques exemples.
D’abord, les cas où le robot agirait seul, l’action militaire à effectuer ne demandant pas de jugement de sa nature légale ou illégale. Par exemple, transporter du matériel, des troupes ou des personnes protégées d’un point à un autre, effectuer des missions de reconnaissances. Le robot assurerait la surveillance de prisonniers (28) et ne tirerait pas sur un combattant à terre car supposé mort ou blessé.
Ensuite, viennent les actions robotiques qui, par leur nature, supposent un partage de compétences avec l’être humain et donc de niveau de décision au regard de l’enjeu et de l’efficacité de l’action à effectuer. Par exemple, des actions de tir ou de bombardement proportionnels seraient possibles sur des sites non protégés ou sur des ennemis indubitablement et juridiquement considérés comme des combattants (29). On peut encore choisir l’armement ou des cibles, ou estimer les conséquences de l’action, par un jugement purement humain ; d’abord cela serait humainement acceptable, ensuite pour éviter une erreur potentielle du robot dans l’estimation de la possibilité de faire ou ne pas faire. On retiendra quelques cas issus du Code pénal (30) français inspiré par les interdictions du droit des conflits armés. Par exemple, un robot ne peut être équipé d’armes interdites (31). Ce qui suppose cependant que les autorités compétentes respectent cette contrainte. Le robot ne devrait pas et ne pourrait être utilisé pour blesser ou tuer un combattant ayant rendu les armes et ne disposant plus de moyens de se défendre (32). Le robot avertirait l’autorité compétente qu’une attaque concerne une personne protégée (33) et s’arrêterait d’agir ou bien le soldat assistant le robot en arrêterait le fonctionnement.
Même principe en ce qui concerne les personnes protégées de l’article 461-2 du Code pénal et également sa non-utilisation contre les libertés des personnes (art. 461-6) (34). De même, le robot devrait pouvoir constater qu’il est utilisé contre des personnes ou des lieux protégés tels que des bâtiments religieux, culturels, d’enseignement, des hôpitaux ou des lieux rassemblant des personnes blessées, ou contre des biens civils qui ne sont pas des objectifs militaires (art. 461-13 et 461-14). Mais une IA est-elle aujourd’hui capable de cette performance ? Même question en ce qui concerne les attaques interdites contre la population civile (art. 461-9). Enfin, le robot disposerait-il de la capacité d’identifier une attaque délibérée et disproportionnée selon les art. 461-27 et 28 du Code pénal ?
Ces quelques exemples montrent que le respect du droit des conflits armés repose sur une capacité humaine de jugement des autorités compétentes dont le chef militaire, du plus haut au plus bas niveau de décision et d’action. Cependant, dans la mesure où un robot sera à même de discerner techniquement des situations juridiques, se posera la question de savoir comment partager les compétences et donc le pouvoir de décision et d’action avec l’être humain. Le principe de subsidiarité aidera à le déterminer mais la question sera jusqu’à quel niveau de « responsabilité » est-il humainement acceptable de confier des missions d’évaluation, de décision et d’action au robot ?
En conclusion, on retiendra que, selon les progrès technologiques, le robot militaire sera d’autant plus « Ethical by Humanity » qu’il contribuera au respect du droit des conflits armés et qu’il disposera à ces fins des compétences de discernement, de décision et d’action. Cependant, aussi « intelligent » qu’il soit, le robot restera une « simple » machine dont les décisions et les actions entraîneront la seule responsabilité humaine et d’institutions étatiques ou privées.
L’inévitable responsabilité humaine lors du recours au robot militaire
Sans déresponsabiliser l’être humain, le recours subsidiaire du robot militaire peut nuancer sa responsabilité lors de son usage. En effet, le droit des conflits armés par son objectif humaniste et les limites qu’il pose dans la manière de guerroyer, repose fondamentalement sur la mise en cause de la responsabilité humaine, dans la décision de la mise en œuvre du robot et la délégation à ce dernier de tâches à effectuer de façon autonome, dans la décision d’utiliser ou non un type d’armement, et de déterminer une cible.
Le commandement sera responsable de la légalité de la décision d’utiliser un robot équipé de telle ou telle arme pour exécuter telle ou telle mission dans tel contexte. Le servant du robot sera responsable des décisions en lien avec celles du commandement qu’il prendra dans son accompagnement en l’empêchant ou non, de faire une action interdite ou permise. En conséquence, un robot qui enfreindrait le droit des conflits armés entraînerait la recherche des responsables civils et militaires impliqués par cette infraction. Sauf que l’autonomie robotique impliquera aussi d’imputer la part de responsabilité des concepteurs et des fabricants du robot. Dès lors que les responsables civils et militaires seront à même de démontrer que l’infraction au droit des conflits armés résulte d’un défaut de conception, de fabrication, entraînant un comportement robotique dommageable pour une personne, alors la responsabilité des concepteurs et des fabricants serait engagée. Comment déterminer la responsabilité liée au fonctionnement autonome pour la distinguer de celle de la décision d’utiliser et de mettre en œuvre le robot ?
On proposera deux pistes (35) complémentaires.
La première renvoie à la détermination du lien entre l’éthique et la responsabilité juridique des concepteurs de l’autonomie robotique qui conditionnent juridiquement l’étendue de celle-ci. L’autonomie, parce qu’elle induit la substitution de l’action robotique à celle de l’être humain, contraint inévitablement le scientifique à anticiper raisonnablement toutes les situations auxquelles le robot sera confronté, y compris celles dont la solution revient à résoudre un dilemme (36). Si la responsabilité du scientifique va jusqu’à envisager une telle situation et à la signaler à l’utilisateur lui revient-il de la résoudre (37) ? N’est-ce pas plutôt à l’utilisateur averti par le robot d’un tel dilemme, d’assumer juridiquement le choix de la solution la moins pire pour le résoudre devant la société et un juge ? Le droit et donc la justice à partir de principes généraux et particuliers apprécient dans quelle mesure la solution retenue est juridiquement acceptable et évaluent la réparation du préjudice.
La seconde, à partir du principe de la responsabilité du gardien de la chose, consiste à s’interroger non pas sur le gardien matériel du robot mais sur le gardien de « l’immatérialité » robotique : son intelligence artificielle. Ainsi, les décideurs civils et militaires du robot seraient responsables de son usage matériel tandis que les concepteurs et fabricants seraient les responsables de « l’immatérialité » robotique, donc de son autonomie ; ces derniers seraient maîtres du mode autonome de la machine et donc responsables à proportion de celui-ci (38), lorsqu’il est activé ; sauf à ce qu’ils démontrent un usage anormal ou inapproprié qui aurait influencé le fonctionnement normal de l’autonomie du robot.
En conséquence, l’amplitude technique de l’autonomie robotique serait directement liée à l’étendue de responsabilité raisonnablement acceptable et partageable par les concepteurs et les utilisateurs. Elle induirait aussi qu’un robot entièrement autonome est peut-être bien juridiquement inconcevable car certaines décisions ne peuvent être prises que par un être humain responsable et donc en permanence vigilant quant à l’action de son robot, surtout s’il est destiné à la guerre.
Conclusion : pour une convention internationale relative aux robots militaires éthiques
Au vu de ce qui précède, le robot militaire potentiellement autonome est-il conforme à l’art. 36 du PA I, concernant les armes interdites (39) ?
C’est aux États d’apporter une réponse (40), d’évaluer par des procédures internes si le robot militaire est une arme interdite ou non en toutes circonstances. Un État estimera son robot militaire autorisé. Autorisé mais peut-être pas d’un usage légal, au regard des circonstances. En conséquence, l’art. 36 mais aussi les principes du droit des conflits armés n’obligent-ils pas au regard de la spécificité des robots militaires en raison de leur autonomie, à envisager une convention internationale qui leur soit propre dans le cadre du droit des conflits armés (41) ? Une convention fondée sur la coopération entre scientifiques et juristes en raison notamment de la nature pluridisciplinaire de la robotique. Une telle convention répondrait à la dispute entre partisans et opposants à la robotique militaire (42). Ainsi, arme spécifique, le robot militaire invite à penser son usage humaniste, pour un but militaire et civil dans le cadre d’une société à finalité humaniste contrebalançant sa numérisation et sa robotisation (43). ♦
(1) Il s’agit du droit de la guerre ou dit de La Haye dont les conventions définissent des méthodes de combat acceptables, ou protègent certains biens ; ensuite arrive le droit humanitaire dont ses quatre conventions et les protocoles additionnels, protègent les blessés et les malades, les naufragés, les prisonniers de guerre et les populations civiles ; enfin, vient le droit des armements pour interdire certains types d’armes (chimiques, mines antipersonnel…) ou à limiter leur emploi pour conduire à leur disparition.
(2) Issu de la « Clause Mertens » figurant dans le préambule de la Convention de La Haye concernant les lois et coutumes de la guerre sur terre du 18 octobre 1907.
(3) On se reportera au Manuel du droit des conflits armés du ministère des Armées (www.defense.gouv.fr/).
(4) Ces différentes approches de l’éthique sont apparues au fur et à mesure du développement du numérique.
(5) Fischer Flora (doctorante et chargée de Programme de recherche au Cigref – Club informatique des grandes entreprises françaises), « Une éthique du numérique ? », intervention lors des « Matinées de l’éthique » de la SNCF, 13 janvier 2016 (www.entreprise2020.fr/) ; on consultera aussi : OPECST (Office parlementaire d’évaluation des choix scientifiques et technologiques), Pour une intelligence artificielle, maîtrisée, démystifiée et utile (Rapport du Sénat n° 464/Rapport de l’Assemblée nationale n° 4594), 15 mars 2017, Tome I, 273 pages (www.senat.fr/), p. 162 et s.
(6) De l’anglais « Robot Ethics », « elle désigne l’ensemble des problèmes éthiques nouveaux posés par la fabrication et l’utilisation des robots » in Tisseron Serge, Petit traité de cybernétique, Le Pommier, 2018, 299 pages, p. 139. L’auteur souligne aussi le domaine de l’éthique qui prend en compte les risques de la robotique.
(7) Développée dans le cours des années 1970 en lien avec le développement durable, cette éthique repose sur le développement d’une procédure à même de garantir le bon fonctionnement d’un système, pour éviter la production d’erreurs. Il faut anticiper les risques possibles, proposer une procédure pour les éviter, tester cette procédure, la mettre en œuvre et l’entretenir. De là vient la confiance dans le système mis en place.
(8) Cette éthique vise à développer des normes juridiques qui garantissent la vie privée des utilisateurs du numérique. Ce qui aurait dû aller normalement de soi mais que le droit a dû imposer.
(9) Ici l’éthique recouperait le droit dans le sens ou l’objet numérique, le robot s’insèrent dans un environnement juridique préexistant que leurs concepteurs doivent intégrer dès leur conception pour produire des objets légaux.
(10) Elle désignerait la recherche de la bonne articulation entre l’être humain et la machine par anticipation de tous les usages possibles de celle-ci par ses utilisateurs afin de déterminer ce qu’elle peut ou non faire et ce que l’être humain peut lui demander ou non. On peut donc en déduire des normes. Fischer Flora, op. cit. et Delsol Emmanuelle, « Une “éthique by design” pour interroger l'économie numérique, propose Flora Fischer », L'usine digitale, 19 janvier 2016 (www.usine-digitale.fr/).
(11) En cas de différence d’appréciation, ne faudrait-il pas comparer les deux jugements pour choisir le meilleur ? Mais qui comparera et par rapport à quels critères ?
(12) Si le droit se prête à un raisonnement de forme mathématique, le raisonnement juridique, échappe à la rationalité mathématique. Dans sa formulation, entrent des éléments subjectifs, objectivement pris en compte pour trouver une solution différente. C’est là tout l’art du jugement dont la solution retenue conditionne bien souvent l’élaboration du raisonnement.
(13) On vise ici le processus informatique de « réflexion » du robot pour analyser une situation de fait.
(14) On parle ici de l’action physique du robot : contourner un obstacle, tirer…
(15) On vise ici une volonté issue de la mise en œuvre de sa programmation, laquelle donne à cette machine la capacité à décider seule ou presque, d’une action juridiquement qualifiable.
(16) Identifier une personne, décider d’un tir, s’arrêter à un stop sur la voie publique…
(17) Définie par l’article 37-2 du Protocole additionnel I sur la protection des victimes des conflits armés du 8 juin 1977, elle vise « les actes qui ont pour but d’induire un adversaire en erreur ou de lui faire commettre des imprudences, mais qui n’enfreignent aucune règle du droit international applicable dans les conflits armés et qui, ne faisant pas appel à la bonne foi de l’adversaire en ce qui concerne la protection prévue par ce droit, ne sont pas perfides ».
(18) Voir les art. 37, 38 et 39 du PA I.
(19) On lira les art. 461-23 à 29 du Code pénal et, d’une manière plus générale, les art. 461-1 à 462-11 du Code pénal qui retranscrivent les crimes et délits de guerres issus des conventions internationales.
(20) Pour cela, il faudrait supposer un robot très humanoïde pour cacher sa nature robotique et tromper.
(21) Le Code pénal applique ainsi les conventions internationales dont l’art. 40 du PA I : « Il est interdit d’ordonner qu’il n’y ait pas de survivants, d’en menacer l’adversaire ou de conduire les hostilités en fonction de cette décision ».
(22) À titre d’exemple, Altam Russ, « Distribute AI benefits Fairly », Comment, 28 mai 2015, vol. 521, Nature, p. 417-418 (www.nature.com/).
(23) Ces deux principes sont directement récupérés du fédéralisme et de l’Union européenne en ce qui concerne la mise en œuvre de ses compétences non exclusives (art. 5 du Traité sur l’Union européenne, TUE).
(24) Daups Thierry, « Robots autonomes, société et sécurité publique », Revue de la Gendarmerie nationale, hors-série « Le droit des robots », 2017, p. 123-132 (https://fr.calameo.com/).
(25) On se réfère à l’idée que la dimension de l’action justifie l’intervention d’une autorité supérieure.
(26) Si les compétences sont partagées l’autorité supérieure n’intervient qu’en cas de défaillance de l’autorité inférieure.
(27) C’est parce que l’intervention du robot ou de l’humain sera plus efficace que l’un ou l’autre interviendra.
(28) Là aussi, si on peut imaginer un robot surveillant le comportement de prisonniers pour détecter de possibles évasions, que ferait-il dans ce cas : signaler l’évasion, utiliser un moyen de contrainte pour stopper le prisonnier, ou une autre solution ?
(29) À la condition que les responsables militaires aient au préalable déterminé la nature juridique de la cible et les moyens utilisés pour garantir le respect du droit des conflits armés ; le robot exécuterait une mission strictement matérielle en disposant toutefois du moyen d’arrêter le tir en cas de changement de situation.
(30) Code pénal, art. 461-1 (www.legifrance.gouv.fr/). Constituent des crimes ou des délits de guerre les infractions définies par le présent livre commises, lors d’un conflit armé international ou non international et en relation avec ce conflit, en violation des lois et coutumes de la guerre ou des conventions internationales applicables aux conflits armés, à
l’encontre des personnes ou des biens visés aux art. 461-2 à 461-31 (www.legifrance.gouv.fr/).
(31) Art. 461-23 du Code pénal français.
(32) Art. 416-10 du Code pénal français, à compléter avec l’art. 461-11 interdisant l’usage par traîtrise du robot pour attenter à l’intégrité physique ou la vie d’une personne. L’art. 461-29 complète le précédent et là aussi, il faudrait envisager un usage perfide de la machine.
(33) Voir l’art. 461-2 du Code pénal français qui interdit aussi (art. 461-12) les attaques délibérées contre les bâtiments, le personnel, les unités, les véhicules sanitaires, portant les signes distinctifs à cette fin ; c’est aussi le cas pour les missions d’aide humanitaires ou de maintien de la paix.
(34) Mais cela est-il possible pour un robot de constater une telle infraction et que devrait-il faire en ce cas : avertir l’autorité compétente, s’arrêter de fonctionner, enregistrer… ?
(35) On ne retient pas, ici, l’hypothèse que le traitement de la responsabilité passerait par l’invention d’une personnalité juridique du robot comme le propose le rapport de la députée européenne Mady Delvaux (Commission des affaires juridiques, du 31 mai 2016, PR\1095387FR.doc, p. 13 du projet de rapport – adopté par le Parlement européen le 16 février 2017) et les avocats Alain et Jérémy Bensoussan dans leur ouvrage Droit des robots (Éditions Larcier, 2016, 149 pages).
(36) C’est l’exemple classique où la résolution de la situation passe par le choix effectué par le concepteur de la solution la moins pire (mais pire quand même) du point de vue éthique et aussi juridique.
(37) L’intuition, la morale, le recours à une enquête publique, le vote d’un panel sur des solutions proposées, sont-elles des méthodes légitimes et donc incontestables pour résoudre des dilemmes, au regard de leurs conséquences et la responsabilité pour les scientifiques ?
(38) Daups Thierry, « Le robot, bien ou personne ? Un enjeu de civilisation ? », Les Petites Affiches n° 94, 11 mai 2017, p. 7 et s.
(39) Cet article stipule : « Dans l’étude, la mise au point, l’acquisition ou l’adoption d’une nouvelle arme, de nouveaux moyens ou d’une nouvelle méthode de guerre, une Haute Partie contractante à l’obligation de déterminer si l’emploi en serait interdit, dans certaines circonstances ou en toutes circonstances, par les dispositions du présent Protocole ou par toute autre règle du droit international applicable à cette Haute Partie contractante ».
(40) Cette obligation cependant ne serait qu’une très forte invitation pour les États concernés à procéder à cette évaluation de la légalité de l’arme avant d’envisager les méthodes et les moyens d’usage de l’arme (Comité international de la Croix-Rouge, Commentaire de 1987, art. 36 du PA I ; § 1469 citant le commentaire du rapporteur de la Commission III). Ils n’ont cependant pas l’obligation de communiquer les résultats de ces évaluations qui portent sur un emploi normal de l’arme et non ses abus. Cependant les autres parties peuvent demander si des procédures d’évaluation ont été mises en place.
(41) Sur le plan strictement civil, proposer l’établissement d’une charte constitutionnelle de la robotique et des nouvelles technologies ; OPECST, op. cit., p. 206 sur le sujet d’une charte de l’intelligence artificielle et de la robotique ; Daups Thierry, « Pour une Charte de la robotique et des nouvelles technologies », Les Petites affiches, n° 200, 6 octobre 2017, p. 7 et s.
(42) Par exemple Danet Didier, « Le robot militaire autonome, une voie d’avenir », Constructif n° 42, novembre 2015 (www.constructif.fr/). Depuis 2007, le professeur Noel Sharkey appel à la création d’un cadre juridique international sur le développement des robots autonomes ; l’ONG Article 36 milite pour l’interdiction des robots autonomes, sans oublier l’action de la Human Rights Watch et de la Harvard Law School. L’ONU a réuni en mai 2014 des experts dans le cadre de la Convention sur certaines armes classiques ; à ce sujet, Russell Stuart, « Take a stand on IA Weapons », in Comment, 28 mai 2013, vol. 521, Nature, p. 415-416 (www.nature.com/). Enfin, on rappellera les prises de positions de Stephan Hawking ou d’Elon Musk sur les enjeux de la singularité dans leur lettre ouverte du 12 janvier 2015 (https://futureoflife.org/ai-open-letter/).
(43) Il ne faut pas oublier que la société est faite pour l’être humain naturellement titulaire de droits naturels qu’aucune technologie ne devrait remettre en cause.