La croissance exponentielle des données rencontre aujourd’hui les puissantes capacités de traitement apportées par l’Intelligence artificielle (IA). Cette convergence alimente la promesse de développements sans précédent comme elle pose aussi des défis considérables en matière de sécurité. La maîtrise des données, des développements algorithmiques et des compétences devient fondamentale. Dans un contexte de dépendances et de volatilité technologiques, le réinvestissement du champ numérique est essentiel pour retrouver des marges de souveraineté ; mais il faut aussi repenser l’organisation de notre sécurité pour faire face à des mutations rapides et conserver les moyens de contrer l’évolution des menaces.
Explosion des données à l’ère de l’IA : affronter les défis sécuritaires
L’explosion des données n’est pas un phénomène nouveau et l’historien américain Robert Darnton rappelle que « chaque âge a été, à sa manière, un âge de l’information » (1), mais la situation que nous connaissons depuis une vingtaine d’années est sans commune mesure avec celles observées jusque-là. Le volume de données générées dans le monde progresse de façon exponentielle. Multiplié par 30 entre 2010 et 2020, il pourrait être mille fois supérieur dans 10 ans (2) avec l’adoption massive des technologies et des équipements numériques, le développement de l’Internet des objets (IoT) et de la 5G. Cette dernière traduit, à elle seule, le changement d’échelle en permettant de connecter 1 million d’objets par kilomètre carré contre seulement 4 000 auparavant.
L’augmentation est massive mais elle ne représente qu’un seul élément dans l’équation de la révolution numérique que nous vivons. La collecte et l’analyse de données par de puissants algorithmes en constituent l’autre dimension. Elles connaissent aujourd’hui des progrès spectaculaires avec l’essor de l’Intelligence artificielle (IA), qui ouvre des perspectives inédites dans les domaines de la recherche, de la connaissance et de l’automatisation. À côté des promesses d’un monde meilleur, elle fait aussi peser sur les États-nations une menace existentielle avec le spectre de cyberattaques dévastatrices, de modifications génétiques incontrôlables ou d’une déstabilisation des démocraties par la manipulation de l’opinion.
Développé en dehors de tout cadre étatique, l’écosystème des données recompose les équilibres géopolitiques avec la domination de grandes entreprises, souvent américaines, qui façonnent un nouveau monde dans lequel le pouvoir dépend autant des informations que l’on possède que de la capacité à les exploiter. Les promesses sont grandes pour les États qui maîtrisent l’ensemble du processus, tout comme le risque d’un déclin inéluctable pèse sur ceux qui marqueront le pas. La compétition entre nations se double d’une course aux armements dans les données, les infrastructures et les compétences que symbolisent les investissements massifs dans l’IA pour rejoindre le cercle des « États dotés ».
Dans ce contexte, les forces de sécurité comme les services de renseignement agissant sur le territoire national sont confrontés à des défis majeurs d’adaptation à de nouveaux usages et à l’utilisation malveillante de ces solutions. L’IA annonce de profonds bouleversements qui menacent tous ceux qui ne sauront pas affronter cette déferlante (3). Face à la puissance des mutations en cours, il est urgent de construire la réponse qui nous permettra d’échapper à la submersion.
Maîtriser les règles du jeu de la datasphère
La réunion des données et les technologies associées à leur production, leur transport et leur exploitation, ainsi que leurs interactions avec le monde physique, humain et politique forment un ensemble spatial que Frédéric Douzet nomme la « datasphère » (4). Ce monde des données, qui régit une grande partie des activités humaines, a donné naissance à de puissantes multinationales qui modifient en profondeur les rapports de force internationaux et entament la capacité des États à assurer de façon autonome la protection des citoyens et la défense des intérêts nationaux, nécessitant de réinvestir massivement le champ de bataille de l’économie numérique.
Au commencement était la donnée
La donnée désigne l’enregistrement d’une observation, d’un objet, d’un fait, destiné à être interprété, traité par l’homme. Elle se présente aujourd’hui massivement sous la forme d’une information numérique ou alphanumérique, codée et lisible par une machine.
Son expansion a logiquement suivi l’informatisation qui s’est opérée dans les administrations et les entreprises avant de s’étendre aux particuliers. L’exploitation des données dans les systèmes informatiques s’est progressivement organisée dans les années 1960-1970 avec les premières bases de données. Par la suite, leur centralisation alimente des analyses notamment à des fins commerciales ou d’administration. L’essor des terminaux mobiles, de l’e-commerce et des réseaux sociaux font exploser, au début des années 2000, le volume des données et montrent les limites des systèmes reposant sur des bases de données relationnelles. Google puis Apache développent alors des algorithmes (MapReduce et Hadoop) qui permettent de traiter des données de nature hétérogène, non structurée et éphémère donnant naissance à la règle des 3V (volume, variété, vélocité) qui caractérise le Big Data (5). La révolution est double. Désormais, l’approche quantitative devient qualitative avec la possibilité de traiter des masses de données jusque-là impossibles en visualisant de manière intelligible des corrélations. Néanmoins, elle introduit aussi une nouvelle logique puisqu’on exploite les résultats de ces liens sans en connaître les causes (6). Des données très nombreuses et au départ abstraites peuvent être liées, organisées et structurées pour fournir une information, qui sera à son tour analysée pour produire de la connaissance puis du savoir dans le processus que les spécialistes des sciences de l’information nomment DIKW (Data, Information, Knowledge, Wisdom).
L’IA est venue renforcer la phase d’analyse par sa capacité, à la différence des algorithmes classiques, à répondre à des situations nouvelles à partir de situations antérieures, en simulant l’intelligence humaine (7). Développée dans les années 1960, elle connaît un nouvel essor avec la combinaison d’algorithmes très élaborés, de fortes puissances de calcul procurées par les processeurs graphiques (GPU - Graphics Processing Unit) et des grands volumes de données disponibles. Elle repose principalement sur l’apprentissage automatique (machine learning) dans lequel les algorithmes apprennent par l’accumulation d’exemples successifs. L’un des procédés utilisés, le deep learning, qui s’appuie sur des réseaux de neurones artificiels, est aujourd’hui dominant. L’imitation du système nerveux s’avère ainsi particulièrement performante pour la reconnaissance de formes ou la compréhension du langage. Le champ des possibles s’est encore étendu avec l’apparition de l’IA générative. En 2017, les travaux des chercheurs de Google ont ouvert la voie aux Large Language Model (LLM) qui produisent des contenus comme du texte ou de l’image en s’appuyant sur un volume gigantesque de données (8). La diffusion de l’innovation dans l’IA est spectaculaire, accentuée par la concurrence, des investissements massifs et un mouvement général d’ouverture de la recherche dans lequel les travaux publiés alimentent un espace florissant en open source.
L’asymétrie des armes
Le développement du numérique bouleverse nos usages, avec des moyens de communication toujours plus évolués et sécurisés, comme il transforme nos modes de vie et le cadre d’action des forces de sécurité. La cybercriminalité progresse chaque année avec la multiplication des attaques par rançongiciels, ce qui renforce la nécessité de protéger nos données au même titre que la protection des biens et des personnes. Le numérique favorise aussi une mutation des formes de criminalité plus traditionnelles en permettant aux individus et aux réseaux d’étoffer leurs capacités, de rapprocher l’offre et la demande, de limiter le coût d’entrée dans la délinquance en maîtrisant mieux les risques (« uberisation » des trafics). On observe ainsi que les moyens longtemps réservés à la criminalité organisée se diffusent largement (généralisation des messageries chiffrées, surveillance ou repérage des victimes à distance). Le vecteur numérique démultiplie les victimes potentielles (raids numériques, escroqueries de masse par courriels). La criminalité organisée, plus moderne et diversifiée, investit désormais les champs à faible intensité pour privilégier la sérialité au gain immédiat, démultipliant les victimes avec une exposition réduite au risque pénal. Elle met à disposition des services en ligne (crime-as-a-service) proposant la revente de leaks, de rançongiciels prêts à l’emploi ou de solutions de blanchiment par cryptoactifs (9). Les forces de sécurité comme les services de renseignement doivent faire face au durcissement des modes d’action adverses. Les investigations sont plus denses et plus complexes, avec des enjeux technologiques qui nécessitent des compétences élevées dans le domaine numérique.
La donnée exploitée dans les missions de sécurité (police judiciaire et administrative, renseignement) est produite par les systèmes d’information eux-mêmes, comme les données de connexion ou de géolocalisation par exemple (exhaust data). Elle peut aussi être recueillie en source ouverte ou collectée à l’occasion d’opérations avant d’être intégrées dans des systèmes d’information. Elle se présente sous des formes hétérogènes (note ou procès-verbal, enregistrement sonore, vidéo, code, etc.) avec des conditions d’accès et de traitement de plus en plus complexes.
Les saisies opérées sur des supports numériques nécessitent aujourd’hui des opérations d’extraction et de traitement de plus en plus longues, avec la multiplicité des équipements et l’augmentation des capacités de stockage. L’écart ne cesse de se creuser entre les données disponibles et la capacité à les traiter. L’affaire EncroChat menée en 2018 par la Gendarmerie nationale en est l’illustration. La neutralisation d’un réseau de téléphonie chiffrée utilisé dans le monde entier par la criminalité organisée conduit à la récupération en quelques semaines de 115 millions de messages issus de 60 000 terminaux, portant principalement sur l’organisation des trafics internationaux de stupéfiants (10). Les données collectées nécessiteront plusieurs mois de traitement pour reconstituer les flux échangés et identifier les détenteurs des téléphones, à l’aide d’une application dédiée. Les services se trouvent désormais confrontés à des volumes de données à la fois conséquents et hétérogènes. Tout l’enjeu est de parvenir à passer d’une masse de données brutes à une information exploitable.
Il faut pour cela franchir la barrière du chiffrement, maintenant omniprésente sur les supports numériques et dans les flux téléphoniques ou informatiques. Les services judiciaires et de renseignement se heurtent à des systèmes de communications sécurisés qui rendent les données illisibles pendant leur transfert d’un point à un autre (chiffrage de bout en bout). La généralisation de cette technologie modifie de fait en profondeur les modes d’action des services qui s’appuient sur le recueil de données informatiques dans les appareils (11) et le renseignement en source ouverte. Ces procédés sont cependant bien loin de compenser la perte d’efficacité, causée par l’utilisation massive du chiffrement des communications et des appareils, qui constitue pour Europol « le dernier refuge des criminels » (12). Impuissants à imposer aux opérateurs de coopérer (13), les États sont contraints d’investir dans des plateformes de déchiffrement (14) et dans l’informatique quantique pour tenter de reprendre la main.
Le déploiement rapide d’une intelligence artificielle accessible au plus grand nombre représente le dernier défi. Elle est déjà employée dans des attaques informatiques massives, des campagnes d’escroqueries ou de désinformation en recourant notamment à des vidéos truquées hyperréalistes (deepfakes) (15). Toutefois, la maturité des technologies disponibles offre aussi l’opportunité d’améliorer la prise de décision et de développer des contre-mesures, à condition de savoir penser les usages. Le recours à l’IA s’avère particulièrement utile dans la phase d’enrichissement de la donnée pour des fonctions de détection, de classement, de prévision et d’orientation. L’intégration de solutions libres de droit accélère en outre le déploiement de nouveaux traitements. L’Agence nationale des forces de sécurité intérieure (Anfsi) a développé des applications d’aide à la qualification d’infractions (PREDNatinf) ou de retranscription d’auditions filmées (Parole). Les LLM suscitent également l’engouement dans le traitement de masses documentaires telles que les procédures judiciaires ou administratives. Des cabinets d’avocats ont déjà recours à ces assistants virtuels pour rechercher des éléments précis dans des dossiers volumineux, faire des synthèses, déceler des failles ou des incohérences de procédures, autant de capacités qui font encore défaut dans les services d’enquête et les tribunaux.
La difficile reconquête de souveraineté
Cette nouvelle ère de la donnée comporte une dimension très politique. Les infrastructures physiques (câbles, satellites, serveurs, routeurs), les opérateurs (centres de formation, de recherches, plateformes) et les flux de données peuvent être cartographiés et forment un paysage stratégique et géopolitique, avec des opportunités et des vulnérabilités (16). Cette géographie permet de comprendre les enjeux de pouvoir à l’échelle mondiale et d’appréhender les questions de sécurité et de souveraineté numérique.
Dans cet écosystème, les grandes entreprises américaines (GAFAM) ou chinoises (BHATX) (17) maîtrisent largement les différentes étapes du cycle des données et la chaîne de valeur, depuis la fabrication des processeurs jusqu’aux applications mises en ligne, en passant par le transport des flux via leurs câbles sous-marins (Dunant pour Alphabet, Amitié pour Meta) ou leurs satellites (Kuiper pour Amazon). Elles ont acquis des positions dominantes sur le principe du « winner takes all » qui rend quasi impossible la concurrence et leur confère un poids économique et politique considérable (18). Cette puissance s’exprime notamment face aux États en ce qui concerne la communication des données de leurs clients. Il est ainsi fait massivement échec aux demandes d’entraide pénale, allant même jusqu’à rejeter celles adressées par les autorités américaines en matière de terrorisme (19).
La souveraineté numérique des États, qui désigne leur capacité autonome d’appréciation, de décision et d’action sur les réseaux de communications électroniques et leurs données, s’avère, dans les faits, très relative. Et pour cause, elle exige de disposer d’une économie numérique, c’est-à-dire de la capacité à produire, stocker et exploiter des données. Or, ces activités ne sont possibles qu’en maîtrisant les technologies, autrement dit les ressources, l’expertise et l’outil industriel. Le rapport de force n’est clairement pas favorable à l’Europe dont l’économie du numérique est deux à trois fois plus faible qu’aux États-Unis. Sur les 100 plus grandes entreprises mondiales, seulement 10 sont européennes (20). Dans ces conditions, il est difficile pour les États européens d’assurer seuls des développements et ils en sont souvent réduits à choisir leurs dépendances. La préservation de notre souveraineté, essentielle dans les usages régaliens, comme la sécurité ou la défense, nécessite de disposer de l’expertise pour évaluer les risques, les offres du marché et si besoin internaliser certaines fonctions (21). C’est notamment le cas en matière d’hébergement des données où l’adoption du Patriot Act puis celle du Cloud Act (22) incitent la France à privilégier des solutions maîtrisées (23).
L’attention se focalise aujourd’hui sur l’IA pour laquelle la France dispose d’atouts par la qualité de sa recherche. Dans le prolongement du rapport Villani (24), le programme France 2030 mobilise 2 milliards d’euros (25), avec un accent porté sur la formation et la captation des talents pour massifier nos compétences et un positionnement voulu sur l’IA embarqué, les plateformes de développement de logiciels et d’applicatifs. La stratégie française cherche à se différencier des modèles américains ou chinois pour parier sur des options maîtrisées et souveraines plus en phase avec ses capacités (26). Cette volonté de rester dans la course s’est exprimée dans les tractations pour l’adoption de l’Artificial Intelligence Act (AIA) dans lesquelles la France a freiné les tentations d’une régulation qui briderait l’innovation et le développement du secteur (27). Le projet adopté par la Commission européenne le 14 juin 2023 doit encore être discuté dans ses modalités. Dans le prolongement des précédents règlements destinés à protéger le citoyen européen et contraindre les plateformes de service (28), il fixera des conditions de commercialisation des systèmes d’IA sur le sol européen en les soumettant au respect de ses droits fondamentaux. En attendant sa mise en œuvre, les États européens multiplient les investissements pour disposer d’une capacité de recherche et de développement. Le succès de ce réarmement est incertain mais il est indispensable pour éviter de creuser encore nos dépendances. Il doit se doubler d’une transformation en profondeur de nos organisations pour qu’elles soient en mesure de détecter au plus tôt les évolutions technologiques, d’évaluer leur impact et de nous doter des moyens de contrer les menaces à notre sécurité.
Repenser la donnée au cœur des stratégies de sécurité
L’interaction de l’Internet des objets connectés (IoT) et de l’IA nous a fait entrer dans la « 4e révolution industrielle » (29). Celle-ci se démarque des précédentes révolutions par la rapidité avec laquelle les technologies se déploient et par la profondeur des changements qu’elle induit avec des effets systémiques, non seulement sur l’économie mais également sur la société dans son ensemble (30). Ce mouvement offre des opportunités inédites de repenser notre manière de travailler, d’apprendre, de créer ou d’administrer, à condition de savoir les saisir. La vitesse à laquelle nous sommes capables de nous approprier ces avancées devient déterminante et favorise le développement de stratégies plus dynamiques.
Les transformations menées dans le secteur privé sont, à ce titre, riches d’enseignements ; elles doivent toutefois être appréciées à la lumière des spécificités de la puissance publique où l’organisation, les contraintes budgétaires et les impulsions politiques conditionnent davantage l’action. Ils montrent l’intérêt d’une démarche agile pour développer plus rapidement des solutions techniques, réorienter l’activité et les projets en fonction des évènements. La réussite des déploiements nécessite une vision claire des objectifs dont la mise en œuvre suppose un cadrage strict, des modes d’organisation transverses servis par une culture interne de la donnée et de solides compétences pour inscrire ces changements dans des horizons de moyen et de long terme (31).
La gouvernance des données, socle des stratégies numériques
La gouvernance des données est devenue primordiale avec l’expansion des volumes de données car elle constitue le préalable et la base des développements de projets. Elle nécessite de maîtriser le cycle complet de vie de la donnée : production et collecte, transmission, stockage, traitement et archivage ou destruction. En veillant à la disponibilité et à la qualité des données, elle crée un cadre de confiance pour les partager et les utiliser dans le respect d’exigences légales et éthiques. La stratégie digitale peut alors s’adosser à cette gouvernance pour piloter en sécurité les projets numériques.
La nécessaire maîtrise du patrimoine numérique
Une grande partie des données collectées n’est souvent pas analysée en raison des difficultés pour en extraire de la valeur, ou simplement parce que les organisations n’ont qu’une connaissance réduite du patrimoine dont elles disposent. Le recensement constitue par conséquent la première brique d’une gouvernance et nécessite de cartographier toutes les bases d’information pour avoir une vue complète des données accessibles et de leurs attributs (format, historique, relations) associée à une terminologie commune. Il permet ensuite de s’attacher à identifier les données génératrices de valeur. La qualité de la donnée est en effet fondamentale car elle influe sur la pertinence des analyses sauf à compenser cette qualité par de très grands volumes. Elle facilite en outre les interactions et l’interopérabilité des systèmes d’information. Enfin, la définition d’outils de représentation s’avère tout aussi importante pour rendre les données lisibles et compréhensibles et faciliter ainsi leur utilisation et leur partage.
L’indispensable protection des données personnelles
L’exercice des missions de sécurité sur le territoire national les soumet à des exigences fortes de protection des droits et de la vie privée qui couvrent celles des données personnelles. Les principes qui encadrent leur utilisation ont été posés il y a près de cinquante ans par la Loi informatique et libertés (32), modifiée en juin 2018 par l’introduction du Règlement 2016/679 sur la protection des données personnelles (RGPD) et la Directive 2016/680 du 27 avril 2016, dite directive « Police-Justice » (33). Les traitements entrant dans le champ pénal ou du renseignement pour des motifs liés à la sûreté de l’État ou à la défense nationale sont soumis à des régimes spécifiques (titre III et IV) tandis que le RGPD s’applique à l’ensemble des traitements de données à caractère personnel (34) dans les secteurs public et privé. Ces différences permettent d’intégrer les impératifs de protection de l’ordre de public et d’efficacité des services qui se traduisent notamment par des limitations s’agissant des droits d’accès des citoyens aux informations collectées ou de l’absence de publication.
Ces traitements sont soumis à une déclaration et doivent respecter des principes de nécessité (finalités poursuivies) et de proportionnalité (adéquation entre les moyens et les objectifs). La loi impose une Analyse d’impact relative à la protection des données (AIPD) dès lors qu’il existe un risque élevé pour les droits et libertés des personnes physiques. La Commission nationale de l’informatique et des libertés (Cnil) rend ainsi des avis sur les cas d’usage qui lui sont présentés avant l’adoption d’une disposition législative ou réglementaire. Les délais d’examen de ces déclarations par l’administration peuvent cependant s’avérer particulièrement longs et freiner le déploiement de solutions techniques. Ces difficultés peuvent être néanmoins surmontées en redimensionnant les services de conformité mais aussi en travaillant en amont sur la formation des directeurs de programme aux exigences légales, ou encore par l’adoption de décrets-cadre permettant de leur rattacher les nouveaux traitements.
L’exigence de confiance dans l’IA
L’intégration de l’intelligence artificielle dans les traitements de données soulève des questions juridiques et éthiques qui limitent encore son utilisation. Elles ont amené la Cnil à préciser, après la consultation d’entreprises et de chercheurs, les conditions de développement des systèmes et de constitution de bases de données pour l’apprentissage des modèles (35). Les algorithmes présentent en effet des limites fréquemment dénoncées. Ils fonctionnent sur des probabilités et peuvent donner des réponses très bien formulées mais fausses (hallucinations). Le choix des données conditionne les résultats (garbage in, garbage out) avec la possibilité de reproduire et d’accentuer des biais discriminatoires par exemple. Enfin, les processus permettant d’aboutir au résultat sont difficilement compréhensibles, ce qui alimente l’idée d’une « boîte noire » (36). Les applications développées en matière de sécurité doivent répondre à ses appréhensions, ce qui suppose de pouvoir auditer les jeux de données, le code mis en œuvre et de développer des tests de robustesse contre les mises en défaut (jailbreaking). Le respect de ces principes légitimes nécessite d’imaginer de nouvelles formes d’auditabilité (37). Les enjeux de fiabilité comme d’explicabilité deviennent désormais aussi importants que la recherche d’efficacité (38). En 2021, ils ont conduit la Gendarmerie nationale à diffuser une charte éthique développant les principes clés qui guident ses travaux.
Les expérimentations peuvent aussi favoriser l’acceptabilité de l’IA. Elles nécessitent le plus souvent une autorisation de la Cnil et l’adoption d’une loi ou d’un décret d’expérimentation. C’est la voie qui a été choisie s’agissant de l’emploi de la vidéo sur la voie publique lors des Jeux olympiques et paralympiques de Paris 2024 afin de dissiper les préventions sur le déploiement de dispositifs de surveillance couplés à de l’IA (39). Huit cas d’usage sont couverts dans un espace géographique défini et pour un temps donné afin de prévenir le risque d’un acte de terrorisme ou d’une atteinte grave à la sécurité des personnes, en permettant la détection d’objets abandonnés, la présence d’armes ou encore la présence d’une personne au sol (40).
Un impérieux besoin d’organisations souples et robustes
La force de l’agilité
La vitesse nécessaire à la direction des projets remet en cause le fonctionnement des organisations pyramidales et hiérarchiques au profit du travail collaboratif. L’organisation des services doit favoriser des développements rapides, ce qui implique de passer d’une logique de conduite de projets planifiée et verticale en cascade à une démarche agile, plus souple et horizontale. Celle-ci se construit avec des équipes pluridisciplinaires rapprochant les profils opérationnels et les développeurs pour réduire le temps entre l’idée et la mise à disposition d’une solution (approche DevOps), en leur assurant une marge d’initiative et la confiance de la hiérarchie (permission/protection).
Cette réunion des compétences sur un projet jugé viable donnera lieu à des évolutions incrémentales et continues dans des boucles courtes (41) avant un passage à l’échelle. Compte tenu des mutations technologiques très rapides, la modularité des solutions s’avère également importante pour intégrer facilement les évolutions des technologies existantes (present forward) et, si possible, celles à venir (futur back). Le succès de ces équipes repose alors sur le croisement des approches, la liberté de mener des expérimentations et l’acceptation de l’échec en veillant à entretenir des connexions avec le secteur privé pour faire émerger les solutions les plus adaptées aux besoins.
Le développement de la recherche interne revêt aussi un intérêt particulier dans le domaine de l’IA qui nécessite une ressource plus experte pour saisir les évolutions, assurer des développements à des conditions maîtrisées et interagir avec les entreprises. L’expertise développée peut contribuer à réduire les dépendances en entretenant une capacité d’appréciation et de maîtrise d’œuvre qui permette de guider les projets, d’identifier les solutions pertinentes et de contrôler davantage les coûts.
L’exploitation des données peut avoir, en retour, des effets sur la structure de l’organisation. Elle confère assurément aux échelons subordonnés davantage d’autonomie et une plus grande faculté d’adaptation aux changements. La technologie réduit le rôle des strates intermédiaires dans la collecte d’information et la coordination. Le taux d’encadrement et le nombre d’échelons peuvent ainsi diminuer et évoluer vers des fonctions d’animation d’équipes plus larges, d’arbitrage et d’allocation des ressources. L’agilité de l’organisation sera alors d’autant plus forte que ses unités disposeront d’objectifs clairement définis, des compétences pour les atteindre en s’appuyant sur des données librement accessibles, avec une direction qui occupe une position plus centrale que sommitale (42).
L’exploitation sécurisée des données
Les infrastructures doivent être conçues pour favoriser ce partage de la donnée en garantissant la cohérence entre stockage, calcul et desserte. L’évolution des systèmes d’information est pour cela essentielle afin de rompre avec la toute-puissance des Directions des systèmes d’information (DSI) au profit d’« écosystèmes imbriqués » (43) permettant une appropriation des données par les directions métier avec des systèmes moins centralisés et le recours à des interfaces ouvertes permettant d’intégrer des services et des applications (API - Application Programming Interface).
L’essor du cloud computing est aussi une tendance forte avec l’avantage qu’il offre de centraliser les capacités de traitement, de stockage et de mise à jour mais il nécessite, en contrepartie, de dimensionner les réseaux pour absorber les flux. Les risques d’atteintes à la confidentialité des données conduisent à une ségrégation en fonction des typologies de données ou de cas d’usage avec des solutions internes, privées ou publiques répondant aux exigences de sécurité fixées par l’Anssi (SecNumCloud). Le choix de recourir à des solutions disponibles sur le marché s’apprécie ainsi en fonction de la nature des données et de la sensibilité des traitements opérés. L’urgence des attentats de 2015 avait conduit la Direction générale de la sécurité intérieure (DGSI) à recourir aux prestations de la société américaine Palantir, qui offrait la capacité de traiter massivement des données avec de puissants algorithmes. Pour prévenir tout risque d’ingérence, la piste de solutions nationales est aujourd’hui retenue (44).
Les développements de projets en matière d’IA se heurtent enfin à des contraintes techniques importantes, l’accès à la puissance de calcul constituant le principal verrou pour entraîner les modèles et traiter de grandes quantités de données. Au regard des investissements nécessaires, le partage des capacités présente là un intérêt majeur. La Gendarmerie s’appuie ainsi sur les capacités du supercalculateur Jean Zay, hébergé et opéré par l’Institut du développement et des ressources en informatique scientifique (IDRIS, qui dépend du CNRS) dans ses travaux de lutte contre la désinformation et les deepfakes. Le ministère des Armées a, quant à lui, fait le choix d’investir près de 300 millions d’euros dans une capacité propre qui pourra profiter à d’autres ministères (45). L’essor des Smart Language Models (SLM), qui reposent sur un nombre plus réduit de paramètres (moins de 100 millions contre plusieurs milliards pour les LLM), suscite des espoirs dans le domaine de l’IA générative en permettant de satisfaire des besoins spécifiques à moindre coût, avec la possibilité de les intégrer dans les systèmes d’information et d’éviter la fuite des données injectées (46).
Le facteur humain, clef indispensable du succès
Développer une culture data
Pour s’inscrire dans la durée, toute transformation nécessite une direction qui orchestre et incarne la volonté de changement. Le constat du dépassement techno-logique sur le champ opérationnel et l’amélioration des conditions de travail dans les fonctions support peuvent soutenir une vision partagée sur l’urgence de penser au quotidien « avec la donnée ». La culture data doit convaincre par le haut et s’illustrer, pour cela, dans des avancées concrètes et rapides des projets, en communiquant sur les « petites victoires » qui auront un effet d’entraînement. Elle doit aussi fédérer et susciter l’adhésion par le bas en s’appuyant sur des sensibilisations et des formations qui permettent aux personnels de comprendre et de savoir manipuler les données disponibles. La formation d’ambassadeurs irriguant massivement l’organisation favorise cette appropriation, sous réserve d’embarquer tous les profils, ceux acquis à la transformation comme les plus réticents.
Relever le défi des compétences
Les services ont besoin de disposer de ressources capables de comprendre les besoins fonctionnels, de les traduire en spécifications, d’apprécier la nature des qualifications techniques à mobiliser mais aussi de développer des solutions le cas échéant. Sur le terrain, les fonctions opérationnelles sont de plus en plus numérisées et il faut savoir exploiter pleinement les capacités des systèmes, saisir les nouveaux usages et interagir avec la population. La démocratisation de l’IA doit nous amener à réfléchir dès à présent à l’équilibre entre tâches humaines et tâches automatisées, pour envisager une forme d’« intelligence hybride » (47). L’encadrement doit être compétent pour « prompter » et guider son utilisation, mais aussi être apte à intégrer ces outils dans la culture, les processus et les objectifs de l’organisation.
Le recrutement s’effectue dans un environnement particulièrement concurrentiel où les meilleurs profils sont captés par le secteur privé. Cette tension du marché de l’emploi a déjà conduit à ajuster la rémunération des personnels contractuels pour renforcer l’attractivité du secteur public et prévenir la concurrence entre les services de l’État. Elle incite aussi privilégier la montée en compétences interne. C’est le choix opéré par la Gendarmerie depuis quelques années avec le recrutement de plus de 40 % de ses cadres basé sur un cursus scientifique et la création en École de sous-officiers des e-compagnies qui ont ainsi vocation à irriguer les unités de terrain ou à armer des postes dans lesquels ils seront amenés à concevoir et déployer des solutions numériques.
En complément de la formation initiale, la formation continue devient essentielle pour adapter la ressource à l’évolution rapide des technologies. Les compétences doivent être plus régulièrement actualisées, les métiers se transforment, à l’image de celui d’analyste qui doit intégrer la gestion de données massives et l’utilisation de l’IA pour automatiser les traitements (48). Les perspectives de progresser techniquement entrent en considération dans le recrutement et la fidélisation des dernières générations moins attachées à l’organisation qu’au métier. Les politiques de ressources humaines (RH) doivent évoluer en intégrant le profil de ces « milléniaux », nés avec les outils numériques, qui se montrent plus sensibles au sens des missions confiées (49) comme à la capacité qu’on leur donne de rester en phase avec une datasphère en perpétuel mouvement.
Conclusion
La révolution des données est en marche et partout les sociétés sont mises au défi des derniers progrès du numérique. L’essor de l’IA générative focalise l’attention mais d’autres ruptures se profilent déjà à l’horizon. L’avènement d’une l’IA forte, dépassant les capacités humaines, pourrait survenir plus rapidement que prévu (50), ravivant ainsi le mythe prométhéen. L’avancée de l’informatique quantique pourrait réduire considérablement les coûts de calcul et sa combinaison avec l’IA forte pourrait, quant à elle, ouvrir un troisième âge de la machine (51). Dans cette course effrénée à l’innovation, l’accumulation des retards est de plus en plus difficile à combler. Il n’y a pourtant pas d’alternative que de se lancer en visant les plus hautes marches. Il faut pour cela s’en donner les moyens en investissant dans les technologies et les compétences qui permettent de tirer le meilleur parti de nos données. Il nous appartient de faire en sorte que l’intelligence collective l’emporte sur celle des algorithmes, alors faisons nôtre sans tarder la formule du baron Pierre de Coubertin pour « voir loin, parler franc, agir ferme ».
(1) Darnton Robert, « An Early Information Society: News and the Media in Eighteenth-Century Paris », The American Historical Review, vol. 105, n° 1, février 2000, p. 1-35 (https://academic.oup.com/ahr/article/105/1/1/64445).
(2) Selon Statista, le volume de données numériques créées ou répliquées à l’échelle mondiale est passé de 2 zettaoctets en 2010 à 64 zettaoctets en 2020 (un zettaoctet équivaut à un milliard de téraoctets, soit mille milliards de gigaoctets) avec une projection supérieure à 180 zettaoctets en 2025 et potentiellement à l’horizon 2035. Gaudiaut Tristan, « Le big bang du big data », Statista, 19 octobre 2021 (https://fr.statista.com/).
(3) Suleyman Mustafa et Bhaskar Michael, La déferlante – Intelligence artificielle, pouvoir : le dilemme majeur du XXIe siècle, Fayard, 2023, 382 pages.
(4) Douzet Frédérick, « Du cyberespace à la datasphère, enjeux stratégiques de la révolution numérique », Hérodote 2020/2, p. 3-15 (https://www.cairn.info/). Frédérick Douzet est professeure à l’Institut français de géopolitique (IFG, Université Paris 8) et directrice de l’IFG qui porte le projet Géopolitique de la Datasphère (Géode).
(5) Perrot Patrick, « La donnée : source d’information ou vecteur de confusion », Revue de la gendarmerie nationale, 4e trimestre 2015 (https://www.researchgate.net/).
(6) Cuckier Kenneth et Mayer-Schönberger Viktor, Big Data – La révolution des données est en marche, Robert Laffont, 2014, 296 pages.
(7) Russel Stuart, Q&A: the future of artificial intelligence, Berkeley, University of California, 2016 (https://people.eecs.berkeley.edu/~russell/research/future/q-and-a.html).
(8) Vaswani Ashish, Uszkoreit Jakob et al., « Attention is all you need », 31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach (Californie), 2017 (https://arxiv.org/).
(9) Albertini Antoine, « Cryptomonnaies : les cybergendarmes démantèlent une plate-forme de blanchiment », Le Monde, 19 janvier 2023.
(10) Follorou Jacques et Untersinger Martin, « Le réseau crypté EncroChat infiltré par les polices européennes : “C’est comme si nous étions à la table des criminels” », Le Monde, 3 juillet 2020.
(11) Ce mode de captation prévu en matière de renseignement à l’article L 853-2 du Code de la sécurité intérieure (https://www.legifrance.gouv.fr/) et en police judiciaire à l’article 706-102-1 du Code de procédure pénale (https://www.legifrance.gouv.fr/), est réservé à des cas particuliers. Son emploi est par ailleurs limité en raison de conditions de mise en œuvre souvent complexes, tant sur le plan technique que tactique.
(12) Bolle (de) Catherine et Vance Cyrus Jr, « The last refuge of the criminal: Encrypted smartphones », Politico, 26 juillet 2021 (https://www.politico.eu/article/the-last-refuge-of-the-criminal-encrypted-smartphones-data-privacy/).
(13) Le Loup Damien, « Imposer aux messageries de donner leurs clés pour déchiffrer les messages est illégal, estime la CEDH », Le Monde, 15 février 2024 (https://www.lemonde.fr/).
(14) EUROPOL, Europol and European Commission Inaugurate New Descryption Platform to Tackle Challenge of Encrypted Material for Law Enforcement, communiqué du 18 décembre 2020 (https://www.europol.europa.eu/).
(15) World Economic Forum, « These are the biggest global risks we face in 2024 and beyond », 10 janvier 2024 (https://www.weforum.org/agenda/2024/01/global-risks-report-2024/).
(16) Cattaruzza Amaël, Géopolitique des données numériques, Pouvoir et conflits à l’heure du Big Data, Le Cavalier Bleu éditions, 2019, p. 62-63.
(17) Google, Apple, Facebook, Amazon, Microsoft, IBM / Baidu, Huawei, Alibaba, Tencent, Xiaomi.
(18) Miailhe Nicolas, « Géopolitique de l’intelligence artificielle, le retour des empires ? », Politique étrangère, vol. 83, n° 3, automne 2018 (https://www.ifri.org/).
(19) Avec AFP, « Attentat de San Bernardino : les enquêteurs ont débloqué l’iPhone du tueur sans l’aide d’Apple », Le Monde, 29 mars 2016 (https://www.lemonde.fr/).
(20) Commission de l’intelligence artificielle, IA : notre ambition pour la France, Odile Jacob, 2024, p. 9.
(21) Warsmann Jean-Luc et Latombe Philippe, Bâtir une souveraineté numérique nationale et européenne, (Rapport d’information n° 4299), 29 juin 2021, Assemblée nationale (https://www.assemblee-nationale.fr/).
(22) Le Patriot Act (https://www.govinfo.gov/), adopté après les attentats du 11 septembre 2001, permet aux autorités américaines d’imposer aux entreprises américaines du numérique de leur transmettre toute information touchant à la sécurité nationale. Le CLOUD (Clarifying Lawful Overseas Use of Data) Act (https://www.congress.gov/) poursuit la même logique en imposant à ces mêmes entreprises de fournir les données stockées sur leurs serveurs, qu’ils soient sur le sol américain ou à l’étranger.
(23) Malletroit Victor, « Le ministère des Armées finalise le lancement de son cloud privé », La Lettre, 11 mars 2024.
(24) Villani Cédric (dir.), Donner un sens à l’intelligence artificielle, pour une stratégie nationale et européenne, mars 2018, 234 pages (https://www.vie-publique.fr/).
(25) La contribution publique s’élève à 577 M€ sur le programme d’investissements d’avenir et 700 M€ sur le programme France 2030.
(26) Jamal Atif, Burgess J. Peter et Ryl Isabelle, Géopolitique de l’IA, Les relations internationales à l’ère de la mise en données du monde, Le Cavalier bleu éditions, 2022, 150 pages.
(27) Piquard Alexandre, « Intelligence artificielle : la France accepte de valider l’AI Act après sept mois d’opposition », Le Monde, 2 février 2024.
(28) Digital Markets Act ou DMA (https://eur-lex.europa.eu/) et Digital Services Act ou DSA (https://eur-lex.europa.eu/) entrés en vigueur à l’automne 2022.
(29) Schwab Klaus, La quatrième révolution industrielle, Dunod, 2017, 208 pages.
(30) Cazzaniga Mauro, Jaumotte Florence, et al., Staff Discussion Note–Gen-AI: Artificial Intelligence and the Future of Work, Fonds monétaire international, janvier 2024 (https://www.imf.org/).
(31) Sarmejean Romain et Picard Margot, « L’usage de la donnée dans les organisations publiques : une aventure avant tout humaine », Convictions RH, février 2021 (https://www.convictionsrh.com/).
(32) Ces principes figurent dès l’article 1er ; « l’informatique doit être au service de chaque citoyen… Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles et publiques ». CNIL, « Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle », Synthèse du débat public, 15 décembre 2017 (https://www.cnil.fr/).
(33) RGPD (https://eur-lex.europa.eu/) et Directive 2016/680 du 27 avril 2016 (https://eur-lex.europa.eu/).
(34) Les données à caractère personnel désignent toute information se rapportant à une personne physique identifiée ou identifiable soit directement (nom) ou indirectement (numéro de téléphone, plaque d’immatriculation mais aussi voix ou image), à partir d’une seule donnée ou du croisement d’un ensemble de données.
(35) Cnil, « IA : la CNIL publie ses premières recommandations sur le développement des systèmes d’intelligence artificielle », 8 avril 2024 (https://www.cnil.fr/).
(36) Abiteboul Serge et Peugeot Valérie, Terra Data, Qu’allons-nous faire des données numériques ?, Le Pommier/Universcience, 2017, 338 pages.
(37) Jean Aurélie, « Il ne faut pas réguler les algorithmes… mais les pratiques ! », Le Point, 15 septembre 2019 (www.lepoint.fr/).
(38) Clemencon Stéphan, « Les mégadonnées et l’essor de l’intelligence artificielle », Cahiers français, n° 419, janvier-février 2021, p. 68-76.
(39) Loi n° 2023-380 du 19 mai 2023 relative aux JOP de 2024 et d’autres dispositions (www.legifrance.gouv.fr/).
(40) Décret n° 2023-828 du 28 août 2023 (https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000048007135).
(41) Direction interministérielle du numérique (Dinum), Une stratégie numérique au service de l’efficacité publique, mars 2023 (https://www.numerique.gouv.fr/uploads/Feuille-de-route-DINUM.pdf).
(42) Pelissie du Rausas Matthieu, Agile et stratège, Décider et agir dans le chaos de l’après-mondialisation, Eyrolles, 2018, p. 155 et suiv.
(43) Rose Philippe, « Reconfigurer les systèmes d’information à l’heure du nuage et de la 4e révolution industrielle », in Bretonès Daniel, Les organisations face aux défis technologiques et sociétaux du XXIe siècle, MA Éditions, 2019, p. 142-160.
(44) Izambard Antoine, « Après le géant Palantir, la DGSI peaufine son outil de big data 100 % français », Challenges, 16 septembre 2023.
(45) Hazan Éric, « IA : il faut accélérer la politique industrielle », Les Échos, 5 mars 2024.
(46) Gendarmerie nationale, « IA & impact environnemental : l’avenir des “Smart Language Models” », Cultur’IA, n° 18, janvier-février 2024 (https://www.calameo.com/read/002719292100338b3e978).
(47) Vinzi Vincenzo, « Réinventer le management : l’ère de l’intelligence hybride », Les Échos, 22 janvier 2024.
(48) Martin Pascal, « La place de l’analyste au sein des services de renseignement avec l’essor de l’intelligence artificielle », Note du CREOGN, n° 97, février 2024 (https://www.calameo.com/read/0027192925c00e39f0e41).
(49) Raybaud Alice, « “J’ai quitté le job le plus sexy du XXIe siècle” : de jeunes “data scientists” en perte de sens », Le Monde, 7 décembre 2021.
(50) Meige Albert, « Q* : Vers une Intelligence artificielle générale chez OpenAI ? », Forbes, 3 décembre 2023 (https://www.forbes.fr/business/q-vers-une-intelligence-artificielle-generale-chez-openai/).
(51) Brynjolfsson Erik et McAfee Andrew, Le deuxième âge de la machine. Travail et prospérité à l’heure de la révolution technologique, Odile Jacob, 2015, 330 pages.