L’IA, gardien moral des sociétés postmodernes ?
Philippe Baumard
Nous avons un panel un peu spécial sur l’IA, intitulé « gardien moral des sociétés postmodernes ». Nous souhaitions aborder ce thème dans les XIIIes Assises nationales de la recherche stratégique, car on entend beaucoup parler d’« intelligence artificielle générative », et il est quelque peu compliqué d’en comprendre les impacts sur la société ainsi que sur la formation et la science.
Il s’agit d’un thème qui m’est particulièrement cher : la dynamique de production de gestion et la sociologie des connaissances dans le monde, entièrement bouleversées par l’arrivée de cette IA générative. Face à ce constat, nous devions organiser un panel qui puisse nous aider à comprendre à la fois ce qui est possible, ce qui ne l’est pas, les limites, les intérêts ou les risques. Nos trois intervenants sont Marc Cavazza, chercheur et professeur à l’Université de Tokyo, qui vient de prendre un poste en Écosse ; Douglas Loverro, ancien responsable du programme d’exploration spatiale de la NASA, qui conclura la session pour nous expliquer le lien entre les chocs technologiques, que nous vivons actuellement et sa relation à l’espace ; ainsi que le professeur Avner Bar-Hen, titulaire de la chaire Big data et statistiques, qui expliquera les transformations de fond.
Marc Cavazza
Dans cette première présentation, je voudrais aborder la question du risque inhérent à la technologie – c’est-à-dire à l’existence même de l’intelligence artificielle. L’IA, en tant que technologie, comporte-t-elle des risques majeurs ? Cet aspect est très différent de celui des mauvais usages qui peuvent être faits de l’IA, des usages criminogènes par exemple. J’ai également une ambition dans cette présentation, celle d’essayer d’améliorer votre compréhension de l’IA et de donner quelques clés de lecture pour analyser les progrès récents en matière d’intelligence artificielle et de leur impact.
Alors, l’idée que l’IA soit un risque existentiel pour l’humanité n’est pas si récente. Il est difficile d’échapper, en allumant n’importe quelle chaîne de télévision, à un débat sur l’IA qui va de ses conséquences sur l’emploi jusqu’à son impact dans l’enseignement. Une des toutes premières annonces publiques mettant en garde contre les dangers potentiels de l’IA et s’inquiétant de ses progrès, a été associée à Stephen Hawking, Elon Musk et Bill Gates, qui tous trois considéraient que le développement de l’IA ferait courir un risque existentiel à l’humanité. Au départ, cette mise en garde n’étant pourtant pas très bien structurée en termes de risques spécifiques ou même de niveau de performance technologique à partir duquel ce risque existerait.
Je ne veux pas vous donner ici une taxonomie supplémentaire de ces risques, car vous êtes probablement saturés par le discours sur l’IA. Ce qui est aussi inquiétant c’est que le discours global qu’on entend sur l’IA, par exemple de la presse généraliste, est souvent assez mauvais et en décalage avec ce qu’on voit vraiment du côté de la recherche. Le discours commun est souvent basé sur des interprétations philosophiques assez naïves de ce qu’est l’intelligence, et en particulier l’intelligence humaine comme modèle, ce qui empêche une analyse fine de l’évolution de l’IA et de ses perspectives. J’ai quand même pris un inventaire récent des risques dans un article de 2023, qui ne fait peut-être pas le plus autorité, mais qui donne une bonne image de ce sur quoi j’insisterai ici.
En effet, les risques de l’IA peuvent se décrire sur un spectre très large, qui va du risque existentiel, que la science-fiction a largement popularisé, à des risques sociétaux variés, comme des discriminations induites par des biais dans les données d’apprentissage, ou même les risques environnementaux, liés aux infrastructures informatiques de l’IA. Il existe cependant un type de risque intermédiaire : le risque démocratique ainsi que celui sur l’emploi et la manière de travailler, c’est-à-dire, notamment, l’automatisation du travail intellectuel. Ce sont des risques qui sont insuffisamment analysés, à la fois en termes quantitatifs et qualitatifs. Il y a néanmoins beaucoup de préconceptions qui empêchent d’analyser les tendances de façon fine.
Une forme un peu plus structurée de l’alerte lancée par Hawking, Elon Musk et Bill Gates se trouve dans le livre de Nick Bostrom intitulé Superintelligence (1), paru il y a bientôt dix ans au Royaume-Uni. Dans ce livre, un philosophe analyse l’hypothèse que l’on connaît sous le nom de singularité, c’est-à-dire une progression des performances de l’intelligence artificielle telle qu’il arrive un moment où l’on peut former une intelligence artificielle générique de type humain, mais qui dépasserait largement les capacités humaines. Alors, quand on dit dépasser, cela ne se traduit pas forcément par une mesure de quotient intellectuel (QI) très élevée : c’est vraiment une « super intelligence », un Léviathan qui, à ce moment-là – et c’est l’hypothèse du livre –, pourrait entrer en compétition avec les humains, un peu à la manière d’une nouvelle espèce plus évoluée qui ferait son apparition sur Terre.
L’IA a une très longue histoire et le discours philosophique la concernant a été pratiquement le même, qu’elle connaisse des succès ou non. Cela fait maintenant 35 ans que je pratique l’IA et on entendait déjà, à l’époque, que le développement de l’IA était impossible car la pensée nécessitait la conscience et que l’on ne saurait pas la faire émerger dans une machine ; donc, pas de conscience, pas d’IA. En revanche, ce discours s’est inversé et, depuis que l’IA fonctionne, on considère qu’une conscience peut émerger, sans avoir davantage d’éléments pour le prouver. Une des propositions de Nick Bostrom pour contrôler cette fameuse superintelligence – en supposant qu’elle devienne une menace – est une approche transhumaniste de fusion de l’IA avec des interfaces neurales, c’est-à-dire des interfaces cerveau-ordinateur. La partie qui lui est consacrée dans le livre de Nick Bostrom n’est pas vraiment rigoureuse techniquement, compte tenu de l’état de l’art dans le domaine et revêt un caractère un peu spectaculaire qui repose sur les interfaces invasives, dont rien ne prouve qu’elles sont une solution efficace en termes d’interfaçage sémantique entre les capacités cognitives de l’humain et des systèmes informatiques (et ce, malgré les annonces de Neuralink, entreprise d’Elon Musk).
Si l’on se replace sur des aspects un peu plus contemporains et analytiques, alors je voudrais essayer d’améliorer votre capacité d’analyse quant aux problématiques de l’IA. Vous avez trois paradigmes qui sont en progression temporelle mais qui ne sont pas forcément exclusifs. Pendant très longtemps, la vision de l’IA était principalement fondée sur le raisonnement et l’on considérait que le modèle de l’intelligence à atteindre était, en quelque sorte, le modèle naïf « une tête bien faite plutôt qu’une tête bien pleine » et l’effort portait sur l’amélioration des performances du raisonnement.
Le jeu d’échecs était évidemment caractéristique de cette vision et quand, en 1997, Garry Kasparov est battu par Deep Blue, nous assistons, en quelque sorte, à une première étape de la prise de pouvoir de l’IA. Elle n’eut toutefois pas d’impact sociétal important, parce que cette victoire de la machine sur l’homme a été vue comme une tâche assez technique qui, d’ailleurs, sur le plan de l’IA, n’était pas extraordinairement sophistiquée et se basait beaucoup sur la puissance de calcul.
Cet événement a conduit Garry Kasparov à écrire un livre, intitulé Deep Thinking (2), dans lequel il avance que la puissance cognitive de l’IA va paradoxalement amener l’humain à se concentrer sur des tâches plus humaines, en particulier créatives, empathiques ou relationnelles. Il est toutefois important de comprendre que ce n’est pas du tout garanti et, qu’au vu des performances récentes dans le domaine de l’IA générative ou de l’informatique affective, cela pourrait même être le contraire.
La deuxième étape de l’IA est, par exemple, le premier système de DeepMind, dédié à l’apprentissage autonome. À l’origine, les systèmes d’IA généraliste étaient difficiles à développer. Il était presque impossible de leur incorporer l’expertise de plusieurs domaines ou d’associer à l’expertise des connaissances même élémentaires de sens commun telles que celles nécessaires à l’interaction. Et voilà le système auto-apprenant de DeepMind, un système à qui l’on donne les jeux d’une console Atari sans instructions, et il bootstrappe, il apprend automatiquement à jouer à partir de principes très simples. Le risque, ici, est de développer une intelligence qui soit susceptible de dévier des normes sociales. Par exemple, si l’on a un système complètement autocentré, auto-apprenant dans une application de maintien de l’ordre ou de défense, voire une application de gestion écologique, elle pourrait, en théorie développer, des concepts qui seraient hyperrationnels, mais qui sont en divergences avec les normes sociales, voire l’intérêt de l’humanité.
Le troisième aspect – et le plus récent – c’est l’IA générative. La vraie rupture tient dans le fait que l’on passe d’un modèle de raisonnement à un modèle de connaissances. On prend toutes les connaissances humaines, principalement sous forme écrite, et l’on leur donne vie dans ce qu’on appelle un foundation model. Il s’agit alors d’un ensemble de connaissances rendues vivantes, et l’on passe du modèle de raisonnement au modèle de connaissance. Comme ce sont des connaissances humaines, cela permet de faire émerger un certain nombre de capacités dites humaines, comme la créativité et la capacité relationnelle. Si vous prenez la totalité des productions textuelles humaines, elles contiennent des exemples de raisonnement et de connaissances ou même la formulation de principes et de théories, selon ce que le philosophe Karl Popper appelle le « Monde 3 ». Cela revient à se dire que, peut-être, les modèles fondationnels sont la clé de l’intelligence artificielle générale. C’est ce que produit cet article qui est très débattu, mais qu’il faut quand même absolument lire, 124 pages cosignées entre autres par Eric Horvitz, directeur scientifique de Microsoft, qui propose notamment que le modèle LLM soit doté de capacités de mentalisation, c’est-à-dire d’attribuer des états mentaux à son interlocuteur. Cette capacité que l’on appelle « théorie de l’esprit » est souvent associée à l’empathie sous le terme d’« empathie cognitive » : on constate bien ce qui est en jeu ici.
L’article montre que le LLM peut répondre de façon satisfaisante au test de Sally et Anne – un test de mentalisation – et ce résultat est susceptible de changer complétement la donne. Alors, il y a évidemment une sorte de coup marketing qui fait des LLM la voie privilégiée vers l’intelligence artificielle générale et une tentative de rendre inévitables ces directions de recherche. Inutile d’insister sur le fait que le débat demeure vif à ce sujet, y compris dans la communauté scientifique. Ce qui est néanmoins intéressant, c’est que l’on a, en quelque sorte, fait le tour : nous sommes partis du raisonnement et du fait que l’IA a été un danger pour l’humain car elle était potentiellement hyperrationnelle et pas du tout humaine et, maintenant, l’IA deviendrait un danger pour l’humain parce qu’elle s’humanise. C’est le vrai paradoxe.
Il faut savoir, si l’on se penche sur la technique, qu’il n’y a pas de consensus au sein de la communauté scientifique. Les gens débattent très vertement et il y a une sorte de mystique qui a voulu faire croire à partir de cette célèbre phrase qu’à partir d’un certain niveau la quantité devient une qualité, à l’émergence de propriétés cognitives dans les très grands LLM. Ici, la taille se caractérise par le nombre de paramètres, donc quand vous avez 170 milliards de paramètres ou plus, certaines propriétés émergent. Certains ont été très critiques sur l’émergence en faisant des études très précises, démontrant, qu’au final, il y a beaucoup d’artefacts statistiques. L’article primé à NeurIPS cette année, une des principales conférences d’IA, portait justement sur une réfutation de l’émergence dans les LLM, en la qualifiant de mirage. Pour revenir à la science-fiction, dans le dernier Terminator, le système Skynet est, en fait, un système d’exploitation et ce n’est pas du tout, dans un premier temps, une armée de robots : on peut donc imaginer un type de risque qui viendrait de la distribution globale de modèles fondationnels dans l’ensemble des systèmes informatiques.
Cependant, le vrai risque, à court terme, à mon sens, est ce paradoxe qui émerge de l’humanisation de l’IA, c’est un risque non pas existentiel, mais sociétal. Un article paru dans la revue médicale de référence, le Journal of the American Medical Association (JAMA), dans lequel les auteurs comparent la perception empathique d’un chatbot à celle d’un médecin, et les résultats sont en faveur du chatbot, même si une analyse statistique plus fine suggère que les utilisateurs ont été en quelque sorte trompés par la forme des réponses plutôt que par leur contenu réellement empathique et adapté. Cette tendance est absolument contre intuitive, et c’est pour cette raison qu’elle est intéressante, parce que le pouvoir de disruption d’une IA humanisée se fait essentiellement dans des tâches intellectuelles, voire relationnelles, avec un potentiel disruptif important au niveau de la société.
Dans le débat public français, notamment, certains ont continué de propager l’idée – à mon avis fausse – de Garry Kasparov, selon laquelle l’IA va permettre aux humains de se concentrer sur les tâches relationnelles et créatives alors, qu’en réalité, au niveau de l’emploi, ce sont précisément les tâches créatives et les tâches relationnelles de niveaux intermédiaires qui vont être le plus menacées ; cependant, nous ne sommes pas du tout préparés à ce type de déstabilisation. Il faut bien comprendre que l’on passe d’une super IA théorique à une IA super pratique, le potentiel de bouleversement peut être quand même important. C’est-à-dire que l’on n’aura probablement pas ce Léviathan technologique qui va gouverner la planète, mais si vous avez un système qui parvienne à avoir l’équivalent d’un QI à 110 capable d’exécuter des tâches de bureau, toutes les professions cléricales intermédiaires sont menacées, et c’est déjà dans le rapport d’Oxford de 2013, qui mentionnait ces tâches cléricales intermédiaires comme une des cibles potentielles de l’automatisation, ce qui est d’autant plus visionnaire qu’il n’y avait pas, à l’époque, ces modèles de langage.
J’espère que j’ai pu faire passer le message que paradoxalement c’est en s’humanisant que l’IA fait courir des risques sociétaux intermédiaires dans le domaine de l’emploi et, bien sûr, dans celui de l’information, puisque si l’IA acquiert une capacité empathique et narrative sophistiquée, on aura des menaces qui n’ont rien à voir avec les fermes à trolls ou avec les deepfakes actuels, mais qui auraient la capacité de mettre en œuvre des manipulations extrêmement sophistiquées.
Douglas Loverro
Good morning, bonjour, I speak un poquito Español, ein bisschen Deutsch, but no French, so I will be speaking in English.
Normally I speak about space, and I thank Philippe for inviting me today to speak about technological shock. I have talked at many military colleges in the United States, and I was at the Navy War College about a month ago where the briefing was ‘How we have been shocked in space by technology’. I illustrated through a history lesson which I hope to provide to you today, about how technological shock can sneak up on us.
This story begins, appropriately enough, in France with Henri-Joseph Paixhans. He was a French military officer and artillery officer. In the early 1800s, the state of the art in artillery was that of iron balls shot out of cannons. He said that we can change that. Instead of shooting iron balls out of cannons, we should be shooting shells that explode on contact. Those shells would be more effective, especially in naval battles because naval ships were made from wood and such ships would be vulnerable to attack by exploding shells. He said in 1822, “wooden ships of the line are not difficult to destroy: they may resist ordinary artillery, but nothing is easier to produce than a kind of artillery which they cannot resist”. Slowly but surely, some combatants started to go ahead and put these kinds of shells on their ships, notably the French and Russian navies. However, in general most navies did not change.
For one of those, the Russians, there was a face off in the Crimean War in 1853 between the Russian navy and the Ottoman Empire in the Battle of Sinope. The Ottoman Empire had land forces, multiple frigates, corvettes, and steamers. The Russian Navy came into port with six ships of the line, but they had exploding shells, and the Ottomans did not.
You can see by the amount of those left dead and wounded what the impact of exploding shells had on war. It was a change in naval warfare for the participants involved- only thirty-seven Russians were killed and two hundred and twenty-nine wounded, versus two thousand nine hundred sixty killed on the Ottoman side. Multiple ships sunk; even the shore batteries were destroyed because they too were made from wood. What Paixhans had predicted in 1822 was true, but unfortunately many navies did not heed his advice.
During this time, the US military was trying to learn about warfare, as they were still very inexperienced. I am sorry to say that we are more skilled in that today, but back then we were not so skilled, and we wanted to learn from the best European armies. Therefore, the US Congress commissioned an individual, Major Richard Delafield to go and study war in Europe. He spent a lot of time (two years) observing the Crimean War, and he saw what happened during the battle of Sinope and he saw what happened in battles following that. He returned to the US saying that they should no longer be building wooden ships, and they should no longer be building ships that sail, they should instead be building ships that are steam powered and that are armored because that is what will win future battles. Unfortunately, the US Navy had put out a contract just a year or two before on fifty wooden ships with sails.
This was the ship of the line at the time —The USS Merrimack. The US said that it was too expensive to change the ship at that time. They argued that they knew how to build wooden ships, that they had a contract already and that they couldn’t afford to go ahead and build different types of ships. So, they had to keep on building the same types of ships, the same as the USS Merrimack.
On the other hand, when the Civil War broke out, the Secretary of the navy for the Confederacy, Stephen Mallory, realized that he was going to have to go ahead and compete with the Union Navy in the Civil War. He knew that the Confederacy did not have the money to build ships as fast as the Union Navy, nor did they have the time to go ahead and build that many ships. So, he said that instead of building wooden ships like the US Navy, trying to compete with them, they should build ships that can be “compensated for by their lower numbers and by their invulnerability”. He said that this should be done “without regard for first cost.” It doesn’t matter how much that first ship costs to build, but if it’s a ship that is superior in every way technologically to the US Navy ships, then maybe we have a chance to go ahead and compete with them. It turned out that he had the unexpected fortune that the USS Merrimack was actually located in Virginia which was a part of the South in the Civil War. When Civil War broke out, and Northern Shipyards were taken over by the Confederacy, the Confederacy was able to capture the USS Merrimack despite the fact that the Union had tried to sink it in Norfolk harbor. In fact, they were able to sink it, but the Confederacy raised it back up. They took it and they noticed that it was a great hull, the hull of the ship was solid, but they wanted to cover it in iron, so they changed the USS Merrimack from a sail-driven, wooden ship to a steam-driven iron ship called the CSS Virginia.
The CSS Virginia engaged in its first battle, the Battle of Hampton Roads on March 8th 1862. That first day of the battle, the Union had multiple wooden ships in the battle against essentially one iron-clad confederate ship. On the second day, the Union Navy, that had built at least one iron ship called the Monitor, brought it into battle. The two iron-clads pounded each other with exploding shells but neither could have the advantage because they had equal technology by that time in the war. But that first day led to the U.S. Navy’s worst defeat until Pearl Harbor. This was because they had the iron-clad USS Virginia against all the frigates in the US Navy which killed two hundred and sixty-one sailors, sunk one frigate, sunk a sloop-of-war and damaged another frigate. The iron-clads walked off the battlefield the next day only slightly damaged.
All this technology was known from the time of Paixhans, but we chose not to change the technology of war because we felt that efficiency and cost was more important for war-time success.
And it so happens that I didn’t just put these slides together to tell a nice story, I put this story together in 2014 because in the year 2000 when we starting to understand what was happening in space and space technology was changing the face of war, the Chinese were also starting to understand this. They said in 2000, that “For countries that could never win a war by using the method of tanks and planes, attacking the U.S. space system may be an irresistible and most tempting choice.” However, we in the US didn’t listen because we knew the kinds of satellites that we were building, and we knew how to build the kind of architectures for satellites that we were building. This was until 2007 when there was an anti-satellite missile test and we realized that we were indeed vulnerable in space. And yet, in 2018 we were still getting ready to build a two-billion-dollar satellite for our nuclear missile warning that was highly vulnerable to attacks by the kinds of things that the Chinese had demonstrated.
So, I went to the head of procurement for the US Military, and I told him the story of Paixhans and the exploding shells and the battle of the Monitor and the Merrimack and the next day he cancelled the procurement of that satellite. We began to go ahead and look at how we can build space systems that are ready for the technological shock that we should have been ready for twenty years ago when the Chinese told us what they were doing.
The future unveils itself slowly, in fits and starts, and we need to recognize that AI is unveiling itself slowly in fits and starts. Some of the changes may not be the most obvious, and often capabilities and doctrines are driven by technology as much as what we can learn in battle. We need to recognize that what we know to build may not be what we should build, because as Secretary Mallory said, economy and military success may dictate the wisdom of change without regard to first cost. This was probably better said by an Italian, not a Frenchman this time, back in 1910, who said that “victory smiles upon those who anticipate the changes in the character of war, not upon those who wait to adopt themselves after the changes occur”. And with that I will conclude my remarks.
Avner Bar-Hen
Je remercie Marc Cavazza d’avoir introduit le thème. L’ordre moral étant pour moi quelque chose d’un peu abscons, j’ai utilisé Internet et découvert qu’il s’agissait, finalement, d’une notion politique assez ancienne et qui ne se caractérise pas par un grand modernisme.
L’humain a toujours eu peur de toutes les révolutions technologiques. Ce que montre l’histoire c’est que toutes ces peurs ont été justifiées mais, qu’en général, on sous-estime les côtés bénéfiques. On craignait, par exemple, l’imprimerie car on avait peur que les églises se vident parce que tout le monde aurait une Bible chez soi… De quoi apporter ici une première réponse : non, l’IA n’est pas un gardien de l’ordre moral des sociétés postmodernes ou de quelconques sociétés, ne serait-ce que parce qu’on parle de choses différentes. L’IA est une technique, on peut parler de l’humanisation de l’IA et on peut aussi se dire que l’on surestime peut-être un peu l’humain – en particulier dans nos activités quotidiennes. La partie créative de mon métier de chercheur représente quand même une partie que je trouve beaucoup trop faible ; et le métier de chercheur, comme beaucoup de métiers mais aussi d’activités, est composé de beaucoup de tâches répétitives. Peut-être que l’IA s’humanise mais, réciproquement, on s’interroge sur ce qui fait la spécificité de l’humain, et tout ce qu’il fait n’est peut-être pas si extraordinaire.
La démocratisation de l’IA me semble être la réelle révolution aujourd’hui. À peu près tout ce que l’on peut faire à l’heure actuelle, on savait le faire dans des labos de recherche il y a dix, quinze ou vingt ans. Je me souviens très bien d’un exposé de Yann Le Cun, quand il était étudiant sur la reconnaissance des chiffres, c’était dans les labos de recherche et même si on faisait légèrement moins bien que maintenant, on était, comme on disait déjà à l’époque NHP, Near Human Performance. Aujourd’hui, on a beaucoup d’IA génératives et ChatGPT en est probablement l’exemple le plus médiatique. Cependant, nous avons vu une quantité astronomique de modèles NLP depuis une vingtaine d’années. En revanche, nous avons vu peu de choses aussi faciles à utiliser qu’aujourd’hui : n’importe qui peut l’utiliser sur son ordinateur, dans son quotidien. Voilà la nouveauté.
Si l’on se penche sur l’aspect démocratique, cela pose des questions de règles et de gouvernance et donc, peut-être, de définition. En effet, quelle est la morale, l’éthique de l’IA (à défaut d’un ordre moral) ? Dans une société, c’est un outil formidable dans l’aide à la décision, mais on confond souvent l’aide à la décision et la décision elle-même : on n’est donc pas obligés de déléguer la décision à l’IA. L’exemple qui, pour moi, est caricatural est que l’IA détecte beaucoup mieux les tumeurs cancéreuses dans les images médicales qu’un docteur. Rappelons, cependant, que le travail du docteur n’est pas de détecter les cancers mais de les soigner ; ce sont deux choses différentes. D’autant plus que l’on a un grand besoin de détection de cancer et ce n’est donc pas grave si l’on a des outils performants, bien au contraire. Il s’agit d’un grand progrès : quand le professeur de médecine expliquait qu’au cours de sa longue expérience il avait vu trois cas d’une maladie par exemple, aujourd’hui on accède à trois mille cas dans n’importe quelle base de données, cela est primordial pour l’aide à la décision.
Parfois, on peut avoir tendance à résumer en se disant que l’on a collecté ce qu’on pouvait et qu’avec ChatGPT il suffit de mettre dans la machine pour avoir un truc génial, car à partir d’un certain moment la quantité devient la qualité. Néanmoins, il y a un vieux principe de statistique qui s’appelle le GIGO et qui signifie Garbage In, Garbage Out, donc quand vous rentrez n’importe quoi en termes de data, vous obtenez n’importe quoi. Si on s’était arrêté à Galilée, on penserait effectivement que la Terre est plate et quelques hurluberlus verraient un système héliocentrique proposé par les Grecs…
Là se pose une question importante : que rentre-t-on comme données ? À titre personnel, peut-être avec mon biais, je trouve que c’est un aspect des choses qui a été trop peu discuté. Cela peut se voir de plusieurs manières : est-ce que l’on rentre le plus de choses possibles dans ces systèmes, ou est-ce que l’on rentre des informations sur des domaines plus précis, notamment dans l’aide à la décision ?
Ce que je voudrais dire, c’est que se poser la question, à la fin, des données, c’est poser les questions dans le mauvais sens. La question des premières données se pose à partir des années 1930, elles sont arrivées avec l’expérimentation de Fisher, l’un des pères de la statistique moderne et, même s’il y a quelques contestations aujourd’hui, certains disaient déjà à l’époque, qu’appeler un statisticien une fois qu’on a fait l’expérience, c’est comme appeler le malade une fois qu’il est mort. Ainsi, se poser la question de l’IA, sans se demander ce qui la nourrit est une vraie question de fond qui gagnerait à être approfondie. ♦
(1) Bostrom Nick, Superintelligence: Path, Danger, Strategy, Oxford University Press, 2014, 328 pages (Dunod, 2017, 464 pages pour l’édition française).
(2) Kasparov Garry, Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins, Public Affairs Press, 2017.