La haute intensité redevient la norme des affrontements actuels et nécessite une réponse appropriée de la part de nos forces. Le modèle actuel reposant sur la qualité, mais avec des quantités réduites pour des questions de coût, est désormais fragilisé. Il est nécessaire et urgent de remonter en puissance et de conserver notre cohérence opérationnelle.
Les défis de la « haute intensité » : enjeu stratégique ou capacitaire ?
La fin de la guerre froide et l’émergence d’un « moment unipolaire » américain, auquel s’est rattachée la plupart des puissances occidentales, ont permis un temps de faire entrevoir la perspective d’une réduction importante de la belligérance. Non pas que la violence organisée ni même l’incidence des conflits armés aient disparu – les guerres civiles et crimes de masse des années 1990 ont témoigné de la vivacité du phénomène, tout autant que les campagnes de lutte contre le terrorisme des années 2000. Cependant, la configuration de l’ordre mondial au cours des trois dernières décennies n’en a pas moins paru sonner le glas des « guerres majeures » (1) – un terme naturellement sujet à débat, mais qui renvoie aux grandes conflagrations du XXe siècle et à la menace de celles de la guerre froide.
À partir du tournant de la dernière décennie toutefois, une transformation profonde est apparue. D’une part, une forme de lassitude impériale s’emparait des États-Unis de Barack Obama, soudain désireux de s’éloigner des « guerres sans fin » tandis que les Européens, enferrés dans la crise budgétaire et une économie anémiée, accéléraient leur déclin militaire. D’autre part, s’affirmaient l’émergence – économique d’abord, politique et ensuite militaire – de la Chine, mais aussi de l’Inde, et dans une moindre mesure du Brésil et de l’Afrique du Sud, le retour stratégique de la Russie – sur ses marches traditionnelles, mais aussi en Méditerranée orientale – et les défis sécuritaires posés par des puissances régionales telles que l’Iran ou la Turquie.
Cette reconfiguration géopolitique majeure est reconnue comme telle dans les documents de stratégie nationale, par exemple la Revue stratégique française de 2017 ou la National Security Strategy américaine de 2018, qui toutes deux annonçaient l’avènement d’une nouvelle compétition stratégique et avec elle le retour possible de guerres majeures. La déclinaison militaire de ces hypothèses géostratégiques est souvent baptisée de « haute intensité » dans la doctrine et la littérature stratégique. Pour autant, le sens à donner à ce terme continue d’être nimbé de confusion. Pour en saisir proprement les enjeux, il convient de revenir sur les définitions possibles de la haute intensité, avant d’explorer les dilemmes qu’elle engendre.
Intensité politique, intensité militaire : de quoi parle-t-on ?
Le glossaire interarmées de terminologie opérationnelle définit les opérations de haute intensité comme celles « où toutes les fonctions opérationnelles sont susceptibles d’être activées pour s’opposer à une violence caractérisée de l’adversaire » (2). Bien que cantonnée au seul échelon opératif, cette définition renvoie à la notion assez clausewitzienne « d’ascension aux extrêmes » (3) dans laquelle les deux adversaires utilisent toutes les ressources à leur disposition pour faire plier l’autre. Avec la complexité des appareils militaires et le développement des formes modernes de gouvernance, la nature de la mobilisation s’étend progressivement à ce qu’il est bientôt convenu d’appeler « l’arrière » : c’est-à-dire aussi bien à l’économie – notamment le système de production – qu’à la société – y compris la vie politique, la culture, les médias, etc. Ce faisant, la haute intensité confine donc à la notion de « guerre totale » (4), impliquant de manière massive tous les aspects de la vie de la nation.
Dans cette perspective, la haute intensité est une notion d’ordre essentiellement politique : elle est intrinsèquement liée à l’évaluation que fait le belligérant des intérêts en jeu, et aux moyens qu’il accepte d’y consacrer en proportion. Plus les enjeux sont élevés, plus l’intensité politique du conflit est grande : tous les moyens humains et matériels sont mis en œuvre. La population est mobilisée, l’économie se transforme en économie de guerre. L’évaluation des enjeux, comme la détermination du degré de mobilisation de la nation relèvent naturellement du seul décideur politique.
Ce modèle s’est évidemment appliqué dans un certain nombre de guerres conventionnelles, à commencer par les guerres de la Révolution et de l’Empire qui en étaient devenues l’étalon pour les contemporains de Clausewitz. La guerre de Sécession aux États-Unis et bien entendu les deux grands conflits mondiaux du XXe siècle en sont par la suite devenus des modèles par excellence qui dominent encore nos imaginaires du fait guerrier. La virulence politico-stratégique de ces conflits a pu être généralement confondue avec une forte intensité capacitaire (cf. infra), puisqu’ils mobilisaient le maximum des moyens militaires existant alors.
Cependant, la haute intensité « politique » s’applique aussi aux guerres irrégulières et notamment aux conflits dits asymétriques où ce qui n’est pour l’un des belligérants qu’une simple opération extérieure ou du maintien de l’ordre, relève pour l’autre d’une lutte à mort où il n’a d’alternative qu’entre la victoire ou la destruction (5). Malgré des capacités parfois extrêmement limitées, le guérillero mobilise toutes ses ressources et mène en ce sens une guerre politiquement bien plus totale, et donc plus « intense », que son adversaire (6).
Pour autant, la guerre totale n’est pas la seule approche de la haute intensité. En effet, il est possible de considérer l’intensité sur un plan purement militaire indépendamment d’intérêts politiques en jeu. La haute intensité désignerait alors la mise en œuvre des capacités les plus avancées ou les plus puissantes – à l’exception probable des armes nucléaires que la nature même renvoie à l’intensité des enjeux politique – et ce, même dans une perspective où les intérêts en jeu restaient limités et ne mobilisaient qu’une petite part des ressources nationales. Parmi les exemples récents, on peut citer la guerre de Corée, de même que la guerre du Golfe pour les États-Unis ou encore la guerre de Géorgie pour la Russie.
Seule cette intensité, de nature essentiellement capacitaire, concerne en première instance les armées. En effet, si les militaires ne savent pas fixer les enjeux ni décider du niveau de mobilisation des ressources nationales, il leur revient en revanche d’arbitrer, dans la mesure des moyens qui leur sont alloués, sur l’éventail capacitaire. C’est toute la question du « format d’armée » (7) qui se pose ici. Une armée orientée vers la « haute intensité » renvoie ainsi communément à un dispositif destiné à opérer dans un environnement opérationnel particulièrement létal, privilégiant en conséquence dans ses attributs les moyens lourds tant en matière de destruction que de protection. Par opposition, une force de « basse intensité » fait écho à des capacités « légères », plutôt axées sur la mobilité que la puissance de feu.
Haute intensité capacitaire et format d’armée : le dilemme masse-technologie
Afin de se doter des moyens de remplir les missions de haute intensité capacitaire, les armées modernes ont dû arbitrer entre deux types d’investissements : la masse – ou haute intensité en effectifs et en nombre de plateforme – et la technologie – ou haute intensité en capital. Si la combinaison des deux offre évidemment la meilleure performance possible, elle ne peut en principe être obtenue que dans des contextes de haute intensité politique (cf. supra), permettant l’allocation d’une part importante des ressources de la nation aux forces armées.
Entre 1870 et 1945, la masse a largement dominé les stratégies capacitaires pour tenir le « haut du spectre » : l’armée la plus puissante était celle aux effectifs les plus importants, avec le plus grand nombre de chars, d’avions, de porte-avions, etc. Dans les premières années de la guerre froide, la République populaire de Chine était encore dans cette perspective, alors que Mao Zedong affirmait la domination du « Vent d’Est » en se fondant essentiellement sur un rapport de force quantitatif.
Pour des raisons à la fois politiques et culturelles, les pays occidentaux ont depuis la fin de la Seconde Guerre mondiale fait le choix de préférer la technologie à la masse – craignant que celle-ci ne les emmène sur la voie d’un État-garnison (8). C’est ainsi que la doctrine du New Look avancée en 1952 par Eisenhower proposait de maintenir une certaine rigueur budgétaire et des effectifs militaires limités grâce à un surinvestissement dans les vecteurs stratégiques et notamment nucléaires permettant de compenser la masse militaire soviétique.
Ce modèle a été remis en avant à la fin des années 1970 et tout au long des années 1980 dans le cadre de ce qui a pu être présenté comme la « seconde stratégie de compensation » (Second Offset Strategy) visant à compenser la supériorité numérique du pacte de Varsovie, cette fois dans le domaine conventionnel via le recours aux technologies de l’information. Il s’agissait de mettre en œuvre un complexe reconnaissance-frappes capable de traiter avec précision des cibles dans toute la profondeur du champ de bataille. C’est cette conception qui a présidé à la doctrine américaine puis otanienne AirLand Battle, laquelle fut appliquée avec succès lors de la guerre du Golfe contre l’Irak de Saddam Hussein.
Pour autant, le choix de la qualité sur la quantité a vite montré ses limites intrinsèques. Déjà en 1984, Norman Augustine, alors Secrétaire à l’US Army et futur PDG de la firme Lockheed Martin, énonçait qu’au « rythme actuel de l’accroissement des coûts, le budget de la défense entier ne permettrait plus aux États-Unis d’acheter qu’un seul avion tactique [en 2054] » (9). Dans cette perspective, le vieil adage attribué à Staline selon lequel « la quantité est une qualité en soi » n’a fait que se vérifier : si une plateforme issue d’une technologie avancée peut se substituer pour une mission donnée à plusieurs plateformes de génération plus ancienne, elle ne saura pas opérer simultanément sur deux théâtres distincts, ni supporter l’attrition caractéristique d’un champ de bataille hautement létal.
Le désir de toucher les « dividendes de la paix », particulièrement prononcé dans l’Europe des années 1990, puis les impératifs budgétaires de la crise économique de 2008 n’ont fait qu’accélérer le croisement des courbes. Entre 1999 et 2014, les pays européens ont eux-mêmes réduit de 66 % leurs parcs de chars de bataille, de 45 % leur aviation de combat et de 25 % leur flotte de bâtiments de surface (10). Inversement, les moyens de projection comme le ravitaillement en vol (+ 6 %) et les moyens de mobilité tactique comme les hélicoptères (+ 27 %) s’accroissaient faisant voir la transition d’un modèle de haute intensité vers un modèle expéditionnaire à « l’empreinte légère ».
La variable de l’ennemi et le retour de la symétrie
Le choix de la technologie sur la masse, et donc de la qualité sur la quantité ne saurait être analysé en dehors du cadre des missions envisagées et des adversaires potentiels. Et pour cause, la réduction continue des effectifs, des stocks et des plateformes au profit de la performance et de la polyvalence a correspondu à l’engagement dans des missions de plus en plus orientées vers la stabilisation, le maintien de la paix ou la contre-insurrection, dans des environnements opérationnels, moins létaux que ceux envisagés par les manuels de la guerre froide. La combinaison de la haute technologie et des missions de basse intensité a certes conduit à un sentiment de « surqualification militaire » : pourquoi employer un avion de quatrième génération et une bombe à guidage laser pour détruire quelques miliciens en pick-up, armés de fusils d’assaut (11) ?
Cela étant, la supériorité technologique a souvent su jouer en faveur de l’infériorité numérique occidentale et des réticences politiques liées à la guerre limitée – notamment la sensibilité aux pertes. Ainsi au Tchad, les opérations Manta puis Épervier dans les années 1980, mirent en évidence l’impact de la supériorité technologique des armées françaises sur les incursions libyennes, systématiquement stoppées par l’intervention des avions Jaguar (12). Ailleurs, la force Licorne a pu s’interposer facilement entre les belligérants et appuyer l’opération des Nations unies en Côte d’Ivoire (ONUCI) grâce à la supériorité de ses équipements. En novembre 2004, après le raid sur Bouaké, les forces aériennes ivoiriennes furent détruites par les forces françaises qui ne rencontrèrent aucune résistance.
Cette situation, d’une supériorité militaire occidentale, a cependant progressivement évolué au fil du temps : le rattrapage économique de certains pays du Sud – singulièrement la Chine, mais également l’Inde ou le Brésil – de même que le rétablissement budgétaire de la Russie après la décennie perdue des années 1990 ont débouché concomitamment sur un « retour de la compétition militaire ». Les investissements militaires de ces nouveaux États-puissances les amènent à un rattrapage progressif de l’avantage technologique occidental – dans certains domaines, tels que la guerre électronique ou la défense sol-air, le croisement des courbes serait même d’ores et déjà réalisé (13).
Cette évolution est de nature à transformer en profondeur l’environnement opérationnel des années futures de même que les scénarios d’engagement. Or, dans un affrontement entre armées de niveau technologique analogue, fût-il contenu par les mécanismes de dissuasion et de défense collective, la qualité ne compense pas nécessairement la quantité. Durant la Seconde Guerre mondiale, les chars allemands de dernière génération (Panther, Tigre I et II) étaient bien supérieurs à leur équivalent américain, le M4 Sherman, ainsi que le reconnaissait lui-même le général Omar Bradley, commandant le groupe d’armées américain en Europe (14). Il fallait en moyenne six Sherman pour détruire un Tigre, mais alors qu’au cours de la guerre les Allemands ne produisirent pas plus de 2 000 chars Tigre, les États-Unis réussirent à faire sortir près de 60 000 Sherman de leurs usines. Leur nombre compensa leur infériorité technologique.
Cet enseignement d’une guerre totale n’en est que plus valable dans des scénarios de guerre limitée, voire de raids stratégiques, où la durée parfois extrêmement restreinte ne donne pas à l’industrie le temps d’une remontée en puissance. Il faut alors raisonner à stocks et parcs constants (« On fait la guerre avec ce qu’on a » disait Joffre). À cet égard, la réduction non seulement du nombre de plateformes, mais aussi des stocks de munitions, pourrait vite faire cesser toute opération où l’adversaire s’avérerait plus résistant que prévu (15). Le retour d’expérience de l’opération Chammal est édifiant à cet égard : alors que les avions de combat de l’Armée de l’air ont vite épuisé leurs stocks de munitions guidées (GBU), impliquant des achats en urgence opérationnelle auprès des Américains, les canons CAESAR (camion équipé d’un système d'artillerie) ont pour leur part souffert d’une usure prématurée des tubes du fait de leur emploi intensif, alors que le maintenancier industriel ne pouvait en remplacer qu’une dizaine par an (16).
À cela s’ajoute la nécessité de prendre en compte la résilience des hommes et des matériels. Si la supériorité technologique offre un avantage solide face à un ennemi qui ne peut en exténuer l’usage, elle peut se révéler un bien précaire contre un adversaire disposant de contre-mesures susceptibles de la neutraliser. C’est typiquement le cas de la supériorité aérienne, incontestée depuis plus de trente ans au point d’en être devenu un impensé aussi bien qu’un présupposé, y compris pour les forces terrestres qui ont pris goût aux appuis qu’elle peut offrir en matière de feu, de mobilité, de renseignement et même d’évacuation sanitaire. L’éventuelle remise en cause d’une telle supériorité nous laisserait demain bien peu de liberté d’action.
La domination du champ informationnel est un autre exemple de la fragilité du modèle actuel lorsque confronté à l’hypothèse de la haute intensité capacitaire. Alors que les armées occidentales – et singulièrement l’Armée de terre française avec la mise en service de Scorpion – se basent sur l’hypothèse d’un commandement déporté au profit d’un combat infovalorisé, il convient plus que jamais de réapprendre les rudiments du « mode dégradé » face à des adversaires qui demain pourront brouiller le spectre électromagnétique et peut-être pénétrer, voler et manipuler des données de nos systèmes d’information.
En l’état actuel de leurs ambitions technologiques, regagner en masse – et donc en résilience – aurait un coût pour les armées occidentales que seuls les États-Unis semblent prêts à assumer. Pour les Européens, la mise en commun d’un certain nombre de projets permettra sans doute de réaliser des économies d’échelle et de retarder encore un temps la réalisation de la prophétie d’Augustine. Mais l’empilement de capacités échantillonnaires ne fait pas une force opérationnelle cohérente. La matière n’est rien si elle n’est animée par l’esprit. ♦
(1) Frédéric Ramel et Jean-Vincent Holeindre : « Penser les guerres majeures », in F. Ramel et J.-V. Holeindre (dir.), La Fin des guerres majeures ? ; Paris, Économica, 2010.
(2) Centre interarmées de concepts de doctrines et d’expérimentations : Glossaire interarmées de terminologie opérationnelle, n° 212 /DEF/CICDE/NP du 16 décembre 2013, amendée le 1er juin 2015, p. 104.
(3) Carl von Clausewitz : De la guerre ; Paris, Éditions de Minuit, 1963, p. 298.
(4) Hew Strachan : « Essay and Reflection: On Total War and Modern War », The International History Review, 2000, vol. 22, n° 2, p. 341-370.
(5) Gérard Chaliand : Pourquoi perd-on la guerre ? Un nouvel art occidental ; Paris, Odile Jacob, 2016.
(6) Voir par exemple le cas du Vietminh étudié par Christopher Goscha : Vietnam. Un État né de la guerre 1945-1954 ; Paris, Armand Colin, 2011.
(7) Étienne de Durand : « Quel format d'armée pour la France ? », Politique Étrangère, 2007, Hiver, n °4, p. 729.
(8) Aaron L. Friedberg : « Why Didn’t the United States Become a Garrison State? », International Security, 1992, vol. 16, n° 4, p. 109-142.
(9) Cité in « Unhappy Birthday: America’s Aerospace Industry at 100 », Aerospace America, février 1997.
(10) Étienne de Durand : « Europe : d’une démilitarisation l’autre », Politique étrangère, 2014/1, p. 103-116.
(11) Michel Goya : « Dix millions de dollars le milicien – La crise du modèle occidental de guerre limitée de haute technologie », Politique étrangère, 2007, Printemps, n° 1, p. 191.
(12) En septembre 1987, la destruction de la base de Maaten-es-Sara, lors d’une attaque tchadienne entraîne une réponse de la Libye qui lance un raid aérien sur les aérodromes de N’Djamena et Abéché. Un Tupolev Tu-22 est abattu au-dessus de N’Djamena par une batterie du 403e régiment d’artillerie.
(13) Jean-Christophe Noël, Morgan Paglia et Élie Tenenbaum, « Les armées françaises face aux menaces antiaériennes de nouvelle génération », Focus stratégique, n° 86, Ifri, décembre 2018.
(14) Omar Bradley : Histoire d’un soldat ; Paris, Gallimard, 1952, p. 52-53.
(15) Nicolas Bays et Nicolas Dhuicq : Rapport d’information sur la filière munitions ; Commission de la défense nationale et des forces armées de l’Assemblée nationale, Paris, 16 décembre 2015.
(16) Laurent Lagneau : « Vers des tensions capacitaires de l’artillerie française après son engagement en Irak ? », Zone militaire, 10 novembre 2017.