Le développement de l’intelligence artificielle (IA) passe par le degré de confiance accordé à des systèmes utilisant l’IA pour leur fonctionnement. Cela exige d’accroître les facteurs de cette confiance : efficacité, sécurité, responsabilité, l’objectif étant de développer des IA d’emploi dans le champ militaire.
La confiance en l’IA pour une IA d’emploi
Confidence in AI for a Usable AI
The development of artificial intelligence (AI) depends on the degree of confidence held in systems which use AI in order to function. Effectiveness, security and responsibility are all factors of that confidence, and all need to be improved—the goal being to develop usable AI for military purposes.
« Nous avons tendance à surestimer les effets d’une technologie à court terme, et à les sous-estimer à long terme. » Cette assertion, connue sous le nom de loi d’Amara (1) permet de comprendre et d’appréhender tout à la fois les fantasmes et les réticences vis-à-vis des nouvelles technologies, et en particulier quand on parle d’intelligence artificielle (IA). Sans rentrer dans les détails, et pour éviter toute confusion, rappelons tout d’abord ce que l’on entend par IA. L’IA est un domaine scientifique. Regroupant plusieurs disciplines (apprentissage automatique, raisonnement et gestion des connaissances, recherche opérationnelle, systèmes multi-agents, voir encadré 1), il a pour but de réaliser des machines capables de simuler l’intelligence humaine. Dans le langage courant, les systèmes mettant en œuvre une ou plusieurs de ces disciplines sont, par métonymie, appelés des IA. Nous prendrons pour acquis cet usage linguistique.
Encadré 1
Apprentissage automatique : champ d’étude donnant aux algorithmes la capacité d’améliorer leurs performances à résoudre des tâches sans y être explicitement programmés. Les notions de deep learning et de réseaux de neurones font partie de ce champ d’étude.
Raisonnement et gestion des connaissances : champ d’étude donnant aux systèmes la capacité à fournir un résultat en suivant un modèle de raisonnement. Exemple : systèmes experts, arbres décisionnels.
Recherche opérationnelle : modélisation de problèmes complexes présentant de nombreux paramètres d’entrées.
Systèmes multi-agents : coopération entre plusieurs systèmes.
Il reste 92 % de l'article à lire
Plan de l'article