Les algorithmes deviennent de plus en plus puissants et ouvrent des champs nouveaux avec des interrogations légitimes sur certaines potentialités de systèmes irrigués par l’IA. D’où le besoin d’une réflexion critique sur les usages de l’IA et les finalités de celle-ci dans la conduite d’activités militaires.
L’IA au risque d’une confiscation du pouvoir par les algorithmes
AI at Risk of Algorithms Taking Over Power
Algorithms are becoming ever more powerful and are opening up new fields of use, in turn prompting legitimate questions regarding the potential of certain systems nourished by AI. Hence the need for critical review of the uses of AI, and how it might affect the conduct of military activity.
L’engouement récent pour l’intelligence artificielle (IA) suscite parfois des fantasmes qui n’épargnent pas la défense. Popularisé par la science-fiction, le concept du robot tueur a longtemps fait partie d’une mythologie qui semble de moins en moins irréaliste, à tel point qu’il ne se passe pas un mois sans qu’une entreprise ne dévoile un nouveau modèle de drone plus ou moins autonome, capable, qui de lancer une grenade, qui de tirer à la kalachnikov. Indépendamment des questions éthiques soulevées par cette course à l’autonomisation des machines à tuer, aucune grande puissance ne peut se permettre de l’ignorer, sous peine de laisser l’avantage à un adversaire potentiel. Osons affirmer que les technologies qui permettent de développer un modèle rudimentaire de robot tueur sont désormais accessibles et que leur déploiement sur les champs de bataille est imminent (1). Les craintes suscitées par cette rupture potentielle ne doivent pas masquer un autre phénomène plus insidieux qui est l’infusion progressive de l’IA dans toutes les strates de la défense. Sans surestimer les risques posés par l’arrivée de ce nouveau compagnon, il convient de prendre conscience de son potentiel et de ses limites, afin
d’exploiter au mieux les algorithmes en évitant qu’ils prennent le pouvoir. Impliqué dans l’expérimentation de ces systèmes, soit directement en codant, soit à l’occasion d’expérimentations menées par des industriels travaillant au profit de la défense, l’auteur de cet article partage ses conclusions (2).
L’informatique s’est entièrement bâtie sur le transistor, un composant dont la seule et unique fonction consiste à prendre sur commande 2 états, 0 ou 1, et ce sont l’imagination et la créativité des ingénieurs qui ont fait le reste. Il convient donc de ne pas sous-estimer le potentiel des systèmes dit d’IA qui ne font essentiellement que de la classification et de la régression. La classification consiste à étiqueter de l’information, c’est la fonctionnalité qui permet de déterminer si une photo représente un panneau « stop » ou un « cédez le passage », si le comportement d’une personne sur un site web est celui d’un client potentiel. La régression permet de prédire une valeur, le prix d’un appartement par exemple, à partir d’autres paramètres tels que sa surface, sa localisation, son âge, etc. Un agent immobilier pourra rétorquer qu’il n’est pas nécessaire de détenir un doctorat en Machine Learning pour calculer le prix d’un appartement, ce à quoi un docteur en « machine learning » pourra répondre qu’il peut prédire le prix d’un appartement sans rien connaître en immobilier. Il pourra même ajouter que sans rien connaître à la musique ou à la peinture, il est capable de jouer comme Mozart et de peindre comme Van Gogh. C’est très exactement là que réside la « magie » du « machine learning » aujourd’hui, dans sa capacité à utiliser les règles cachées dans les données sans qu’il soit nécessaire de les expliciter ; inutile de décrire un chat, la machine le trouvera, inutile de préciser que les appartements du XVIe arrondissement sont plus chers que ceux du XVIIIe, la machine le trouvera, etc. Cette approche est qualifiée de connexionniste et elle s’oppose à l’approche symbolique, celle des systèmes experts, entre autre (3). Toutefois, s’ils peuvent sembler magiques, les algorithmes ne font pas de miracle. Les données qui servent à entraîner un réseau neuronal représentent le passé et les algorithmes effectuent des prédictions à partir du passé dont ils ont eu connaissance. Ainsi, les conséquences de l’ouverture d’un bar de nuit sur le prix des appartements dans son voisinage ne pourront pas être quantifiées par un réseau neuronal si les données qui ont servi à son apprentissage ne contiennent pas un tel événement. Le corollaire de cette limitation est qu’un réseau neuronal sera d’autant plus précis dans ses prédictions qu’il aura été entraîné sur un maximum de cas, donc à partir d’un volume de données important.
Il reste 64 % de l'article à lire