Introduction au siècle des menaces
 978-2-7381-9060-4

Table of contents :
TABLE
......Page 553
Prologue......Page 7
La loi fondamentale......Page 13
Vers le couplage composants/ informatique/ télécommunications......Page 15
La connexion universelle......Page 19
Les États-Unis au centre de la société mondiale de l'information
......Page 30
Triomphe de la démesure......Page 33
Le rebond......Page 38
La loi de Moore montera-t-elle jusqu'au ciel ?
......Page 42
Rapidité......Page 51
Saturation......Page 55
Pustulation......Page 64
Réticulation......Page 72
La faille......Page 79
La science, frontière infinie......Page 83
Les relais......Page 88
L'effort de recherche et développement ( RD)......Page 95
Le fossé se creuse......Page 109
La posture des États-Unis
......Page 115
Naissance d'un nouveau paradigme militaire......Page 120
Les fondements du nouveau paradigme : la guerre de l'information......Page 121
Les concepts de base......Page 127
L'officialisation de la doctrine......Page 144
Coup d'oeil sur les systèmes spatiaux employés par le DoD......Page 149
Conclusion en forme d'anticipation......Page 163
La première guerre du Golfe ( Desert Storm)......Page 165
L'affaire de Somalie......Page 170
L'implosion de la Yougoslavie. Première période : la guerre de Bosnie......Page 175
L'implosion de la Yougoslavie. Seconde période : l'opération Allied Force au Kosovo......Page 194
La guerre contre les talibans......Page 202
Coup d'oeil sur le moteur de l'évolution......Page 209
Conclusion......Page 211
Post-scriptum. La seconde guerre d'Irak ( 2003)
......Page 217
Chapitre VI - LE BUNKER AMÉRIQUE......Page 221
La préhistoire de la défense antimissiles......Page 222
La « guerre des étoiles » , ou Strategic Defense Initiative......Page 229
La Missile Defense Agency ( MDA) et ses programmes......Page 234
La guerre dans l'espace......Page 249
Conclusion......Page 259
Politique de puissance......Page 261
L'Europe refuse la politique de puissance......Page 263
La défense de l'Europe après la chute de la Soviétie......Page 270
L'Europe de la défense......Page 289
Aujourd'hui et demain......Page 317
Conclusion......Page 320
Chapitre VIII - LA MENACE......Page 323
LA PROLIFÉRATION PAR LES ÉTATS......Page 326
La législation internationale......Page 328
Quelques exemples de proliférateurs......Page 335
Les pays proliférants......Page 345
La préemption......Page 378
Conclusion......Page 384
Les troupes......Page 387
Netwar : naissance et méthodes......Page 403
Perspectives......Page 439
Chapitre IX - ÉCRIT SUR LE MUR......Page 449
L'équilibre dynamique de la biosphère......Page 450
La sixième extinction......Page 453
La contre-attaque
......Page 457
L'armée en marche......Page 461
LE SIÈCLE DES DÉSASTRES......Page 479
L'énergie......Page 482
L'exploitation des sols......Page 510
L'alimentation des hommes......Page 518
FUIR......Page 531
Liste des abréviations ( ordre alphabétique)......Page 535
Index......Page 543
Remerciements......Page 551

Citation preview

JACQUES BLAMONT

INTRODUCTION AU SIÈCLE DES MENACES

INTRODUCTION AU SIÈCLE DES MENACES

JACQUES BLAMONT

INTRODUCTION AU SIÈCLE DES MENACES

© ODILE JACOB, MAI 2004 15, RUE SOUFFLOT, 75005 PARIS www.odilejacob.fr

ISBN : 978-2-7381-9060-4 Le Code de la propriété intellectuelle n’autorisant, aux termes de l’article L. 122-5, 2° et 3°a, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective » et, d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation ou reproduction intégrale ou partielle faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (art. L. 122-4). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du Code de la propriété intellectuelle.

PROLOGUE

Ni rire, ni pleurer, mais comprendre . SPINOZA

En septembre 1993, je me trouvais au Jet Propulsion Laboratory, le grand centre de la Nasa spécialisé dans l’exploration planétaire, à Pasadena, dans la banlieue de Los Angeles, comme chaque été depuis environ quinze ans. J’étais heureux. La sonde Mars Observer s’approchait de Mars. À bord de ce futur satellite de la planète rouge se trouvait un équipement dont j’étais le père, un relais destiné à recevoir les émissions de l’aérostat français fabriqué par le Centre national d’études spatiales, que j’espérais encore faire lancer dans l’atmosphère martienne par une sonde russe en 1996. Les émissions captées par Mars Observer seraient à leur tour transmises jusqu’au réseau terrestre d’écoute interplanétaire de la Nasa. Oui, j’étais heureux, car après tant d’efforts infructueux vers Vénus et Mars, je croyais enfin atteindre le but que je m’étais fixé près de quarante années auparavant, appartenir au directoire de l’exploration des planètes. Une sonde lancée de la Terre vers Mars suit en général une trajectoire dite de Hohmann qui correspond à la plus faible dépense d’énergie possible. Arrivée au voisinage de la planète, elle doit allumer un moteur pour se placer en orbite. La mise à feu en fut commandée alors que l’état du véhicule paraissait parfait. Aucun signal ne nous en revint jamais. Pendant les semaines qui

8

INTRODUCTION AU SIÈCLE DES MENACES

suivirent, un travail intense rassembla nos forces, nous qui formions l’état-major de l’aventure, pour tirer les conséquences du désastre, et proposer à la Nasa un plan d’action qui permettrait de sauver, non la mission considérée dès le début comme définitivement perdue, mais le programme américain d’exploration planétaire. Immergé avec mes amis dans cette tâche prenante, je n’en lisais pas moins les journaux, et chaque matin le Los Angeles Times. La première page était toujours occupée par un fait divers local. Un couple de marginaux âgés d’environ trente ans vivait dans une voiture avec un bébé de neuf mois et leur rat favori. Dénués de ressources, car le peu qu’ils grappillaient allait à la drogue, ils n’avaient plus rien à se mettre sous la dent. Un jour que le père et la mère étaient partis mendier quelque nourriture, le rongeur, affamé lui aussi, se mit à manger le rejeton. À l’hôpital, les médecins constatèrent la mort de l’enfant et se firent expliquer les circonstances. La police arrêta les parents et exécuta le rat. Jour après jour, le journal revenait sur cette affaire, accumulant les détails sur ses héros, leur vie, leurs déclarations confuses. Je n’étais pas particulièrement ému par une histoire dont l’horreur ne dépassait pas la plupart des ignominies au milieu desquelles nous vivons sans chagrin. Mais le contraste me frappa entre nos préoccupations, mes préoccupations, et le monde. Le monde, c’était cette voiture fermée avec ses occupants, homme, femme et progéniture qui représentaient à mes yeux l’humanité claquemurée sur sa Terre finie, et le rat, comme dans l’arche de Noé, rassemblait en lui la vie animale tout entière. Ce qui me choqua le plus fut que le premier acte de la police avait été de trucider la bête, malheureuse victime de ses maîtres. Et nous, à côté de ce microcosme de misère en quoi se distillait le macrocosme qui nous entoure, nous menions la vie privilégiée qui nous permettait de consacrer, aussi bien notre temps que l’argent du contribuable, à courir après les astres là-haut, notre caprice, contents de nous-mêmes. Nous étions comme des prêtres, non pas occupés par le culte d’un dieu, mais séparés des vicissitudes et des angoisses d’en bas pour poursuivre un but ésotérique au regard de l’immense majorité des hommes, l’établissement d’un modèle cohérent de l’Univers. Objectif noble, langage réservé aux initiés, puissance et orgueil, enfin et surtout protection contre le vulgaire : oui, tout nous apparentait à des prêtres vêtus de lin observant les mortels du haut de leurs murs crénelés. Alors j’ai commencé à douter. Jusqu’alors, j’avais bonne conscience, je croyais que la science apporterait à l’humanité le moyen

PROLOGUE

9

de vaincre sa misère matérielle. Le progrès moral suivrait l’élévation de son niveau de vie. Depuis les années 1950, j’affirmais que les grandes, les nobles affaires, celles qui valaient qu’on se dévouât pour elles, étaient la physique et les Nations unies. Avec fierté, je me disais que la rumeur de la société, les habitudes quotidiennes de mes concitoyens, tout ce qui remplissait les journaux, les médias, la marée des livres éphémères n’avaient aucune importance : la science comptait seule dans le mouvement du siècle. Je découvrais maintenant ma nature de prêtre. Que la lugubre bagnole et ses tristes occupants m’apparussent comme l’autre partie de l’Univers montrait en quel mépris je tenais ce qui n’était pas mon sacerdoce, pur et sans tache. Et donc ce sacerdoce ne se réduisait-il pas à une fabrication, à un discours, à une excuse, à une fuite ? À force de réfléchir sur le rôle que l’espace, mon métier, joue dans notre société, je me suis intéressé aux lignes de force qui commandent l’enchaînement des événements. Il me semble aujourd’hui que quelque chose d’énorme et de mystérieux a commencé pendant les années 1970, quelque chose qui modifie de plus en plus vite le paysage mondial. Dans tout système complexe, de très nombreux éléments interagissent les uns avec les autres. Souvent l’évolution crée une force qui s’oppose à elle-même ; la résultante est alors une oscillation ou un amortissement, c’est-à-dire un arrêt. Ce mécanisme, appelé contre-réaction ou boucle fermée, aboutit à un équilibre où les paramètres qui décrivent l’état des choses s’écartent peu de valeurs moyennes. Si au contraire l’évolution crée une force qui s’exerce dans son propre sens, il en résulte une croissance qui s’accélère dans le temps. Ce mécanisme-là, dit de réaction positive ou de boucle ouverte, cause la destruction du système, si un agent extérieur n’intervient pas. Depuis la fin de la Seconde Guerre mondiale, les progrès de la science et la technique ont engendré une expansion de la population, de la production, du commerce et des transports qui ne présente nulle part la tendance à l’équilibre, caractéristique du passé. Au contraire, le processus s’est emballé : les ingénieurs diraient que le siècle avance en boucle ouverte. À partir de 1960 environ, l’électronique a multiplié par un facteur toujours croissant la faculté qu’a notre espèce de communiquer. La rapidité quasi incroyable de son évolution et la puissance de ses applications, en particulier son rôle dans l’extension des réseaux, en ont fait le moteur de l’Histoire, qui agit sur le monde entier, sur l’exploration planétaire comme sur nos amis au rat, sur les pays dont les habitants disposent en moyenne de

10

INTRODUCTION AU SIÈCLE DES MENACES

50 dollars par jour ou plus, et sur ceux dont les habitants disposent de 1 à 2 dollars par jour ou moins. L’homme à 50 dollars profite pleinement du progrès technique et son revenu augmente régulièrement. Au contraire, celui de l’homme à 1 dollar stagne. L’homme à 50 dollars possède l’intention et le pouvoir de conserver ses privilèges, que les gens à 1 dollar voudraient acquérir eux aussi. Nous retrouverions l’opposition rebattue du riche et du pauvre si la situation n’était dominée par la révolution de la communication, qui établit entre eux des liens paradoxaux. L’homme à 50 dollars engendre des archétypes culturels et des mœurs qui suscitent chez l’homme à 1 dollar aussi bien acceptation que rejet. Les conflits qui les opposent se livrent sous deux nouveaux modes : pour leur Défense les gens à 50 dollars inventent Cyberwar ; les gens à 1 dollar inventent Netwar. Le présent livre s’attache à décrire l’une et l’autre guerre. Les États-Unis, moteurs du mouvement, le nourrissent et l’accélèrent par des investissements en Recherche et Développement (RD) dont le succès les a transformés en hyperpuissance. De cet effort découle entre autres conséquences l’accroissement foudroyant de leurs moyens militaires, structurés aujourd’hui autour de la notion d’Information Dominance, cœur de Cyberwar. Les autres pays riches, c’est-à-dire l’Europe et le Japon, n’estiment pas que les conflits armés constituent une menace à leur bien-être assez forte pour justifier un effort de défense comparable à celui des États-Unis. Le champ libre est ainsi laissé à une domination américaine qui propose et impose dans tous les cas une solution strictement militaire aux crises. La méthode yankee a été résumée le 25 février 1968 par un major américain contemplant les ruines de Hué : « Pour sauver la cité, nous avons dû la détruire. » La création politique a disparu du paysage mondial, comme le montre l’aggravation de la situation locale après la cessation des combats sur les différents théâtres traités par une intervention internationale depuis 1990. Cyberwar atteint là ses limites. Les gens à 1 dollar s’accrochent à un univers qui existait avant le capitalisme cosmopolite, celui des mystères religieux, des communautés hiérarchiques, des traditions contraignantes et de la torpeur historique. En fait ils apportent à la modernité une réponse dialectique dont les caractères à la fois réfléchissent et renforcent les vices et les vertus du monde actuel. Tous les pays pauvres rêvent d’atteindre le niveau de vie américain, que la mondialisation de l’information leur a rendu familier, et ils ne supportent pas plus facilement leur misère que l’arrogance et la domination des pays riches. Ils veulent secouer leurs chaînes, et aussi affirmer violemment leur supériorité spirituelle. Leurs moyens

PROLOGUE

11

d’action sont structurés selon deux modes spécifiques du XXIe siècle : d’une part, certains États qui rejettent l’ordre mondial, développent des armes de destruction massive à l’instar des États industriels ; les mécanismes mis en place dans les quarante dernières années pour empêcher leur prolifération sont en train de céder ; d’autre part, imitant Internet, des réseaux formés d’ennemis irréconciliables des pays riches s’exercent à Netwar, c’est-àdire à une guerre asymétrique où ils mobilisent les ressources des systèmes de communication pour exploiter les faiblesses de leurs adversaires. Ainsi grandit chaque jour une menace multiforme devant laquelle les méthodes classiques de dissuasion n’offrent plus de sécurité, non plus que les structures internationales, alliances ou traités de limitation et d’interdiction, obsolètes et en perte de vitesse. Les conflits armés ne sont pas les seuls périls qui nous guettent. Le facteur principal des crises politico-militaires est l’augmentation incontrôlée de la population dans les pays en développement. Les frustrations dont se nourrit Netwar prennent leur origine dans les villes surpeuplées où grouillent les déracinés. Tout y contribue à ce que les mœurs et les conditions de vie engendrent et nourrissent des maladies inédites, dont on peut prévoir qu’elles sauront déborder les cordons sanitaires. La facilité des voyages et la permissivité des mœurs chez les gens à 50 dollars, couplées avec l’entassement dans de gigantesques mégapoles chez les gens à 1 dollar, amènent à penser que le e XXI siècle sera l’ère classique des épidémies. Les épidémies s’ajouteront aux guerres pour nous frapper. Les effets des unes et les autres seront amplifiés par la dégradation grandissante de notre environnement. Le maintien du niveau de vie atteint par les pays développés et désiré par les multitudes non développées est excessivement dispendieux par rapport aux ressources disponibles sur notre globe. Les dégâts causés à la nature par sa surexploitation conduisent dès aujourd’hui à des modifications climatiques. L’utilisation des sols sans ménagement engendre la croissance du nombre des désastres depuis trente ans. L’eau devient une rareté. Les combustibles fossiles sur lesquels repose l’économie disparaîtront d’ici un siècle. L’agression des hommes envers le règne animal et le règne végétal tout entiers entraîne l’extinction d’environ vingt-cinq mille espèces par an. Au rythme actuel, l’essentiel de ce capital aura été dépensé vers 2050. Le « développement durable », c’est-à-dire une amélioration du sort des pauvres (et il y en a deux milliards) qui respecterait les équilibres de la biosphère, ne dispose ni des ressources naturelles ni des ressources financières qui le rendraient possible.

12

INTRODUCTION AU SIÈCLE DES MENACES

Cette chimère exaspère les rivalités entre un monde développé qui ne renonce pas au pillage organisé à grande échelle, et un monde non développé dont le pillage n’est pas moins nocif. Le livre présente les menaces. Les évolutions qu’il décrit de façon volontairement quantitative sont connues, mais les ouvrages qui leur sont consacrés s’arrêtent en général après le diagnostic et avant le pronostic pour se livrer à l’exercice du Yaka. Tu y succomberas, lecteur. Yaka inventer une nouvelle source d’énergie. Yaka briser les résistances des lobbies. Yaka réformer. Yaka instituer un Ordre mondial. Et nous serons tous des frères. Comme Abel et Caïn, sans doute. Je me refuse ici à tout Yaka. On ne trouvera dans ces pages ni prêche, ni envolée, mais plutôt les éléments d’un dossier. À l’une de mes amies californiennes qui avait été le consulter, son médecin signifia : « Je ne peux rien pour vous. Faites votre testament ; avant trois mois vous serez morte. » L’humanité en est là, peut-être. Les cinquante prochaines années verront s’exacerber les tensions, les maladies, les pénuries ; nous n’avons plus le temps de développer de nouvelles filières, de nouveaux médicaments, de nouvelles règles du jeu. Un poète a décrit la vision du passé dont est sorti un de ses célèbres recueils : « J’eus un rêve : le mur des siècles m’apparut. » Regardant dans l’autre sens, ce livre-ci laisse entrevoir dans le brouillard des incertitudes un autre mur. Il barre, lui, la route du futur.

Chapitre premier

LE MOTEUR DE L’HISTOIRE

La loi fondamentale La fonction d’un dispositif électronique consiste à transformer un signal électrique, par exemple à l’amplifier. Les composants de tels dispositifs étaient des tubes à vide jusqu’au milieu du e XX siècle. En 1948 une révolution partit des Bell Telephone Laboratories, lorsque J. Bardeen, W. Brattain et W. Shockley inventèrent le transistor, constitué de monocristaux semi-conducteurs de silicium et de germanium. Minuscules et peu gourmands d’énergie, ces nouveaux venus, dits composants solides, envahirent le marché, d’autant plus que leur prix de vente baissait au rythme de parfois 50 % l’an1. Ils sont, en général, associés l’un à l’autre pour constituer des ensembles fonctionnels. À partir de 1954, Texas Instruments entame la production commerciale des semi-conducteurs. En 1959, Fairchild met au point le procédé planar, clé de la production en série. Au milieu des années 1960, apparaissent les circuits intégrés, transposition sur un substrat unique de silicium d’un circuit complet, autrefois fabriqué avec des composants discrets soudés sur une carte portant un circuit imprimé. La technologie a, en effet, peu à peu permis de déposer sur ce substrat des composants, de plus en plus petits, en nombre croissant, non plus séparés mais formant tous 1. Les chiffres donnés dans ce chapitre valent pour l’an 2000, sauf contreindication.

14

INTRODUCTION AU SIÈCLE DES MENACES

comme un composant unique. On obtient alors les puces, ou chips, qui vont du simple circuit logique chargé d’une seule opération définie, au microprocesseur qui intègre des fonctions multiples, telles que le calcul, la mémorisation, la commande. Comme les procédés industriels de fabrication des composants solides sont relativement simples, il est facile de créer de nouveaux produits plus performants. La durée de vie des composants est donc brève. Des familles apparaissent et disparaissent dans un monde où prime la flexibilité. Aujourd’hui, le fabricant de composants mène la danse et maîtrise la stratégie des utilisateurs ; la puce contrôle la technologie de l’équipement. Dès 1965, Gordon Moore, cofondateur de la société Intel, le plus important producteur de composants dans le monde, a énoncé une loi qui semble régir très rigoureusement depuis 1962 l’évolution des composants électroniques. Elle s’énonce ainsi : « Les performances des composants augmentent d’un facteur deux tous les dix-huit mois. »

Moore a également noté que la demande, ou marché, et donc la réponse de l’industrie des semi-conducteurs, double aussi tous les dix-huit mois. Dans une première approximation, on peut prendre comme critère de performances le nombre de transistors par centimètre carré de la surface de la puce. D’où un autre énoncé de la loi de Moore : « Le nombre de composants par puce double tous les dix-huit mois2. »

Pourquoi regrouper un très grand nombre de transistors sur une surface extrêmement restreinte ? L’intérêt ne réside pas seulement dans l’addition de leurs capacités ou dans l’abaissement de leur prix, mais dans le temps plus court mis par le courant pour passer d’un circuit à un autre à l’intérieur d’une puce. Les opérations accomplies gagnent donc elles-mêmes en vitesse. L’augmentation du nombre de transistors par centimètre carré s’obtient en réduisant le dessin représentant les circuits à la plus petite dimension possible que l’on peut graver par lithographie sur le substrat. Le progrès principal aujourd’hui s’obtient en diminuant encore cette dimension. 2. La loi de Moore s’exprime mathématiquement par une fonction exponentielle. Une fonction dont le taux d’augmentation par unité de temps est proportionnel à la valeur à un instant donné est en effet appelée exponentielle. L’inverse de la constante de proportionnalité est appelée constante de temps. La valeur de la fonction est multipliée grossièrement par 3 lorsque s’écoule un intervalle égal à la constante de temps. Notre énoncé de la loi de Moore correspond à une constante de temps de 2,16 années et un gain d’un ordre de grandeur en 5 ans.

LE MOTEUR DE L’HISTOIRE

15

Le plus surprenant est que la loi de Moore est désormais acceptée par l’industrie mondiale des semi-conducteurs non plus comme un simple fait d’observation, mais comme une règle qu’il faut suivre ! Telle est en effet la stratégie exposée par le document ITRS (International Technology Roadmap for Semiconductors), qui exprime le consensus des experts délégués des cinq groupes (États-Unis, Europe, Japon, Corée du Sud et Taiwan) représentant depuis 1992 la totalité de la production dans le domaine. Ce document, mis à jour chaque année, affiche comme objectif pour l’industrie des semi-conducteurs le maintien de la réduction annuelle de 25 % du coût par fonction, et une croissance annuelle de 17 % pour le marché des circuits intégrés jusqu’à l’horizon 2015. Ainsi le programme des investissements de l’industrie électronique s’énonce-t-il par la formule choc suivante : « Quelles capacités techniques doivent-elles être développées pour que l’industrie continue à suivre la loi de Moore ? » L’ITRS analyse en détail les points techniques de blocage éventuel sur la route ainsi tracée, appelés murs de briques rouges. Là doivent se porter les investissements. Ils sont suffisamment bien identifiés et les recherches entreprises pour les franchir sont assez prometteuses pour justifier la supposition généralement acceptée que la loi de Moore sera valable au moins jusqu’à 2015 grâce à des techniques classiques. Un ordre de grandeur tous les cinq ans pendant quarante ans conduit à un gain total de huit ordres de grandeur. Incroyable et pourtant vrai ! Et la tendance ne faiblit pas.

Vers le couplage composants/ informatique/télécommunications Le semi-conducteur pénètre dans un nombre croissant d’applications. Confinés il y a quinze ans aux seuls équipements électroniques comme la radiophonie ou la télévision, les composants et la technologie des semi-conducteurs sont présents désormais dans de nombreux débouchés non électroniques comme l’électroménager, l’industrie et les équipements électriques, les avions, les trains et les bateaux ; ainsi, le segment de l’automobile, inexistant il y a quinze ans, a pris de l’ampleur et représente désormais 5 % du marché total des composants, soit à peu près autant que le seul débouché de la télévision. La pénétration des composants à l’intérieur des équipements qui supportent toute la communication des individus, des grou-

16

INTRODUCTION AU SIÈCLE DES MENACES

pes nationaux ou des entités économiques leur a donné en quelques années le rôle de colonne vertébrale de l’activité humaine. Certes, chaque nouvelle génération est plus coûteuse que la précédente puisqu’elle intègre de plus en plus de fonctions, mais le prix de la fonction élémentaire baisse de 25 % par an. En conséquence, dès maintenant, la plupart des équipements électroniques faisant partie des marchés de masse (télévision et enregistrement numérique, jeux vidéo, calculateurs personnels portables, agenda et porte-monnaie électroniques, radiotéléphones), contiennent 50 % de composants électroniques en valeur. La conséquence la plus importante du progrès des composants a été la croissance et le développement de la micro-informatique. Au début des années 1980, l’avènement de cette activité en a fait le moteur du marché dont elle représente aujourd’hui plus de la moitié. À lui seul, le segment des PC (personal computers) compte pour 35 % dans le marché total, soit les trois quarts du marché de l’informatique. On a vendu, dès 1994, plus d’ordinateurs que de voitures ou de téléviseurs. À côté du géant IBM qui avait manqué le départ, de nombreux fabricants de PC se font une concurrence bénéfique. En amont et en aval, deux nouvelles compagnies, Intel, fabricant de composants, et Microsoft, fabricant de logiciels d’exploitation, ont pris les commandes de l’industrie mondiale. L’importance des calculateurs géants comme les CRAY est devenue marginale devant la conquête du public par les calculateurs personnels. L’invasion des PC dans les bureaux d’étude à partir de 1980 a non seulement modifié profondément la méthode de travail de chaque ingénieur, mais surtout créé de nouvelles mœurs dans la gestion des projets, comme l’ingénierie concurrente. En 2002, l’industrie de la micro-informatique franchit le cap du milliard de PC livrés depuis la création de l’Altaïr 8800 vingt-cinq ans auparavant. Aux États-Unis le taux d’équipement des ménages atteint 65 %, en Europe 30 %. Le parc mondial comprend 588 millions de machines opérationnelles aujourd’hui avec un progrès annuel de 11 %, en baisse il est vrai par rapport au taux de 20 % à la fin des années 1990. En dépit de ce ralentissement, la plupart des analystes prédisent que, vers 2008-2010, le nombre de deux milliards de machines pourrait être atteint, grâce à l’accélération de l’équipement dans les pays émergents comme la Chine ou l’Inde. Un des moteurs essentiels de la croissance est le couplage entre la technologie des solides et l’informatique : l’arrivée des ordinateurs a permis de calculer les plans de premiers circuits intégrés, qui ont servi à construire non seulement des ordinateurs plus puissants, mais surtout des ordinateurs plus répandus, les PC, omniprésents dans les laboratoires, capables à leur tour de

LE MOTEUR DE L’HISTOIRE

17

produire des circuits plus complexes encore, et l’on a vu apparaître les puces à millions de transistors. Puis la mise en réseau des ordinateurs a ouvert la voie, non seulement à des calculs de plus en plus élaborés, mais à un renforcement inouï de la démarche scientifique et technique de base, à savoir la mise en commun des savoirs et des savoir-faire. À mesure que les universités et les centres de recherche, étatiques ou industriels, se sont raccordés au réseau, la qualité des travaux et le rythme des découvertes et des développements se sont accélérés avec les échanges d’idées. La micro-informatique dans les entreprises a introduit les réseaux locaux, au grand dam des « téléphonistes » qui pensaient valoriser leurs autocommutateurs privés. Ces réseaux locaux se sont interconnectés, imposant, par la nature particulière du trafic engendré, des équipements, des logiciels d’administration, des protocoles et des applicatifs qui sont presque toujours le fait de nouveaux fournisseurs, la plupart du temps nés aux États-Unis. Si la dissémination universelle de l’informatique, sous l’effet de la micro-informatique, a été pressentie de bonne heure, son influence sur les télécommunications était difficile à prévoir. Elle est venue du fait capital que les composants solides se prêtent aisément à la digitalisation (ou numérisation) des signaux, c’est-à-dire de l’information et de ce qu’elle contient : son, image, nombres ou lettres. Le composant est une sorte de fourneau qui convertit l’information en une suite numérique de zéros et de uns, ou bits. Les satellites, les lignes téléphoniques et les câbles optiques sont les tuyaux qui connectent les fourneaux au reste du monde. On mesure leur performance par la largeur de bande, c’est-à-dire le nombre de zéros et de uns d’un message digital transférés en une seconde3. Les tuyaux, appelés services de télécommunication, sont fournis par des opérateurs, qui ont la charge de faire fonctionner un réseau constitué d’éléments matériels (fils, câbles, satellites) et de terminaux, tous fabriqués par des industriels appelés équipementiers. Ajoutée à l’essor de la micro-informatique, la libéralisation du marché des services de télécommunications a été l’un des phénomènes porteurs les plus puissants de l’évolution. Le démantèlement d’AT&T en 1982 a été le point de départ de cette libéralisation, qui a entraîné la naissance outre-Atlantique d’un grand nombre de réseaux privés. Nous avons même vu les réseaux européens de télécommunications se résoudre à la privatisation dès le début des années 1990. 3. 1 kb/s = mille bits (0 ou 1) par seconde ; 1 Mb/s = un million de bits par seconde ; 1 Gb/s = un milliard de bits par seconde.

18

INTRODUCTION AU SIÈCLE DES MENACES

La très rapide augmentation de la capacité des machines, le développement des logiciels d’exploitation, l’accroissement du débit des réseaux, le tout accompagné par un mouvement irrésistible de baisse des prix, ont amené une fusion de l’électronique, de l’informatique et des télécommunications sous le nom de Nouvelles technologies de l’information et de la communication (NTIC). De nouveaux outils nous sont devenus soudain familiers : calculateurs personnels, modems, téléphones cellulaires, câbles et connexions Internet. Une chaîne motrice s’est formée, s’étendant des fabricants de composants (Intel), aux fabricants d’ordinateurs et PC (IBM, Dell, Compaq, HP, Fujitsu), puis aux fabricants de logiciels (Microsoft), puis aux équipementiers de télécommunications (Motorola, Nokia, Lucent, Alcatel), y compris ceux du câble et des satellites, puis aux opérateurs de télécommunications (NTT, AT&T et les Baby Bells nés de son éclatement, Verizon, Ameritech, BellSouth, les Européens Vodaphone, Deutsche Telekom, France Télécom), puis aux fournisseurs de services sur le réseau (AOL), enfin aux grands groupes de communication qui fabriquent le contenu (Time Warner, Vivendi Universal). La poussée s’est effectuée dans les années 1990 d’une extrémité à l’autre de la chaîne, entraînant une restructuration radicale des industries concernées et stimulant une frénésie d’achats. La conséquence immédiate de cette évolution a été l’augmentation de la quantité d’information totale transmise dans le monde. Son rythme, exponentiel lui aussi, s’est révélé encore plus rapide que la loi de Moore. Le nombre d’octets échangés par mois dans le monde a crû d’un facteur cent entre 1994 et 1996. Les industries de l’information représentent, en l’an 2000, un volume annuel d’activités de l’ordre de 3 000 milliards de dollars dans le monde, dont 1 200 pour le secteur des télécommunications. Leur taux de croissance global a oscillé entre 10 et 15 % par an entre 1980 et 2000. Elles sont marquées aujourd’hui par le développement rapide des services dits « multimédias », qui traitent de manière indifférenciée les informations correspondant aux sons, aux images fixes ou animées et aux données digitales. La dépense mondiale en technologie de l’information a crû une fois et demie plus vite que le PIB depuis les années 1980 et trois fois plus vite dans la seconde moitié des années 1990. Le couplage de l’informatique et des télécommunications abolit les distances, en même temps que le développement simultané du voyage aérien. De ces évolutions est née la « globalisation » ou « mondialisation », phénomène selon lequel des groupes organisés dotés de ressources élaborent leurs objectifs et

LE MOTEUR DE L’HISTOIRE

19

leurs stratégies en référence à des théâtres d’opérations de plus en plus étendus géographiquement. Le phénomène se distingue des interactions caractéristiques des années 1945-1980, car il opère une véritable mutation de la structure du système international, grâce à l’augmentation exponentielle des échanges d’information. Pour la première fois dans l’histoire, les entreprises se voient offrir la possibilité d’établir une stratégie aux dimensions de la Terre. Leurs fusions ou alliances répondent à la réalité d’une concurrence planétaire où les acteurs doivent tirer parti au maximum des économies d’échelle (notamment pour le traitement de l’information), ainsi que des avantages de la taille pour la gestion de la RD et de ses risques. Les « entreprises globales » sont des réseaux souples d’entreprises locales à la fois autonomes et coordonnées. La globalisation est souvent assimilée à un affaissement du pouvoir des États. Ainsi le dictionnaire Penguin des relations internationales donne-t-il la définition suivante : « La globalisation est le processus par lequel les modes de pouvoir et les termes de référence centrés sur les États se dissolvent en faveur d’une structure de relation entre acteurs opérant dans un contexte qui est vraiment global plutôt qu’international. Les acteurs individuels, y compris les États, habitués à exercer la souveraineté ont “perdu le contrôle” de ces processus, donc de leurs conséquences. » Au-delà du champ de l’économie, la globalisation se caractérise par l’importance accrue des organisations non gouvernementales (ONG) qui se préoccupent des questions d’intérêt général, comme les droits de l’homme ou le développement durable. Les ONG s’attaquent à des problèmes naguère considérés comme du ressort exclusif des gouvernements. De la considération des composants nous sommes passés par un chemin continu à celle de la puissance des États. La synergie entre les composants et les moteurs de l’activité mondiale que sont les échanges d’informations et les transports, donne aux premiers un rôle déterminant dans l’ensemble des évolutions non seulement économiques mais aussi géopolitiques. Toute l’activité humaine, toute la perspective historique sont ainsi dominées aujourd’hui par la loi de Moore.

La connexion universelle Le fait majeur est l’impact de la révolution électronique sur les réseaux de communications. À partir de 1990, deux évolutions

20

INTRODUCTION AU SIÈCLE DES MENACES

simultanées bouleversent radicalement la liaison de l’individu avec le monde. INTERNET

En 1969, des chercheurs travaillant pour l’agence chargée d’introduire l’innovation au Département de la Défense des ÉtatsUnis, appelée alors ARPA et aujourd’hui DARPA souhaitaient relier entre eux des ordinateurs de recherche. Ils pensèrent à donner un format et un code à l’information à échanger, ce qui permettait de l’introduire dans un réseau de transmission branché à chacun des ordinateurs intéressés. Le principe de ce qui devait devenir l’Internet était né, sous le nom d’Arpanet : ordinateur + formatage + réseau. Au début, quatre ordinateurs étaient liés par des tuyaux de capacité 50 kb/s. En 1973, deux des responsables d’Arpanet, Vinton Cerf et Bob Kahn, créèrent le concept d’Internet4 en proposant d’interconnecter des réseaux similaires au leur, grâce à un langage commun qui relaierait l’information5 de réseau à réseau. Les parties essentielles de ce langage étaient le « protocole Internet » (IP) et le « protocole de contrôle de transmission » (TCP). L’ensemble fut achevé et mis en place en 1981. À l’origine, plusieurs réseaux cohabitaient. Au cours des années 1980 les réseaux ont l’un après l’autre adopté le « métaprotocole » d’Internet, ce qui leur a permis de s’interconnecter sans devoir changer de logiciel ou de matériel : il superposait simplement aux couches logicielles existantes une nouvelle strate. Le terme Internet signifiait dorénavant un ensemble de réseaux interconnectés utilisant des protocoles (TCP/IP) de communication et d’échanges de données pour faire communiquer des ordinateurs. Puisque, par définition, les réseaux sont divers, la nature de la liaison importe peu (fil, câble, radio au sol ou par satellite). Quelle qu’elle soit, les paramètres importants sont le temps de transmission et la bande passante, l’un et l’autre limités par les caractéristiques de la ligne employée. L’intérêt fondamental du remplacement par un ordinateur des terminaux traditionnels (micros du téléphone, machine à écrire ou fax) réside dans la nature révolutionnaire du support : le message est numérique (on 4. Christian Huitema, Et Dieu créa l’Internet, Paris, Eyrolles, 1995. 5. Dans le mode par paquets employé sur Internet, les conversations sont découpées en petits morceaux, qui transitent emballés dans des « sacs » de bits, de format standard, comportant (entre autres) leur adresse d’origine, leur destination, et leur ordre d’apparition. Cette tâche est du ressort de TCP alors qu’IP est un logiciel chargé de l’acheminement.

LE MOTEUR DE L’HISTOIRE

21

dit aussi digital) et peut donc entrer immédiatement dans un fichier du récepteur et se prêter à classement ou manipulation. Peu à peu naquit et prit forme le projet de connecter tous les ordinateurs du monde et par conséquent tous les utilisateurs. S’imposa bientôt un phénomène décrit en quelques mots par un pionnier de l’Internet, Anthony Rutkowski : Connectivity is its own reward, c’est-à-dire : « La connectivité est sa propre récompense. » Le projet est en voie de réussir pour deux raisons : d’une part, un réseau est d’autant plus utile qu’on peut y joindre davantage d’utilisateurs ; Internet est d’autant plus utile qu’il s’y trouve davantage de fichiers, davantage de logiciels, davantage de bases de données. L’idée a été avancée par Robert Metcalfe, un pionnier des réseaux d’ordinateurs, que la valeur d’un réseau augmente comme le carré du nombre des utilisateurs, d’où la « loi » dite de Metcalfe, selon laquelle le bénéfice de se trouver on-line augmente exponentiellement avec le nombre de connexions. Et donc le nombre des utilisateurs, parce qu’ils sont conscients de ce bénéfice, augmente à son tour de façon exponentielle. D’autre part, il est d’autant plus intéressant de raccorder une base de données au réseau qu’il s’y trouve davantage d’utilisateurs potentiels : plus il y a d’utilisateurs, plus il est intéressant de fournir des services et donc plus il y aura de créateurs de logiciels prêts à servir ces utilisateurs. On verra donc de plus en plus de nouveaux services se mettre en place, lesquels attireront de nouveaux utilisateurs et nourriront la croissance. Cette créativité du réseau est couplée à sa croissance ; cette floraison exponentielle d’idées nouvelles jaillies de la nature même du réseau est un phénomène entièrement original, qui n’existait pas sur les anciens réseaux de télégraphe, téléphone ou fax, et qui constitue un des caractères du XXIe siècle commençant. Le service qui a rendu l’Internet vraiment populaire est le World Wide Web (Web) imaginé en 1989 par Tim Berners-Lee, alors chercheur au CERN. Développé en 1992, il a commencé à se répandre sur l’Internet en 1993. Il repose sur trois idées, la navigation par hypertexte, le support des multimédias et l’intégration des services préexistants. La navigation par hypertexte consiste à informatiser la recherche d’une information au moyen d’un index ou d’une table des matières, en marquant certains mots comme des clés d’accès et en y associant un pointeur pour trouver le mot intéressant dans une autre page, qui n’est pas tenue d’appartenir au même document. Le support des multimédias consiste à insérer dans le texte des images et des illustrations sonores, auxquelles peuvent être d’ailleurs associés des pointeurs vers d’autres pages.

22

INTRODUCTION AU SIÈCLE DES MENACES

La capacité à intégrer des services préexistants explique la vitesse avec laquelle le Web s’est déployé dans l’Internet. En principe, tout service a son propre protocole d’accès, mais il est facile de programmer un logiciel d’accès au Web pour qu’il accepte les différents protocoles. Internet a crû longtemps en doublant tous les six mois, plus rapidement que la loi de Moore. Alors qu’il a fallu au téléphone soixante-quinze années pour atteindre cinquante millions de clients, le Web a atteint le même nombre en quatre années. On peut situer vers 1995 un point de rupture qui coïncide avec le début du « e-commerce ». La croissance exponentielle du réseau est alors devenue une donnée de la vie publique. Il est passé de deux cent treize calculateurs et quelques milliers d’utilisateurs en août 1981 à quatre cent cinquante millions d’utilisateurs au premier trimestre 2001. Le nombre d’ordinateurs possédant une adresse IP dépasse 125 millions et le marché de sites web 8 millions. En 2002 s’est produit il est vrai un accroc sans conséquence durable : l’utilisation du réseau a chuté de 2 % dans les premiers mois de l’année. L’infrastructure (nombre de sites et qualité des connexions) a cependant continué de se développer de sorte que la croissance a repris selon un rythme élevé. En supposant un taux de croissance raisonnable dans les années qui viennent, on peut prévoir qu’en 2006, le trafic véhiculé par Internet atteindra le volume des communications téléphoniques du système téléphonique mondial (600 millions de lignes). La connexion de tous les foyers des pays développés est attendue tôt dans le siècle qui commence. Le commerce, l’éducation, les loisirs, la chirurgie, l’architecture, le tourisme et plus généralement l’accès à l’information seront bouleversés. Internet est devenu un enjeu majeur, non seulement pour les groupes informatiques, mais aussi pour les grands acteurs de l’électronique grand public et des télécommunications. L’évolution technique semble en effet pousser vers l’intégration d’activités jusqu’ici distinctes – téléphone, télévision, informatique, électronique domestique, voire édition –, une convergence qu’exprime le terme « multimédia », et qu’accentue encore l’irruption de techniques utilisables dans plusieurs secteurs, comme la fibre optique, les réseaux de satellites de télécommunication ou la compression numérique des données. La fusion deviendra de plus en plus étroite entre le Web et la télévision, tant du point de vue des contenus que du mode d’accès. Est né le cyberespace6, univers 6. Cyberespace : terme forgé par William Gibson dans son livre désormais classique Neuromancien, Paris, J’ai lu, 2000.

LE MOTEUR DE L’HISTOIRE

23

centré sur Internet et ses fonctions de communication (Web, courriel, forums, messageries, téléchargement de fichiers), puis prolongé par la réalité virtuelle et les jeux vidéo, et en fait intégrant tous les domaines numérisés et mémorisés. Le désir de surmonter l’isolement physique et psychologique apparaît comme un des facteurs principaux de la croissance d’Internet, comme le montre son emploi intensif par les habitants des îles. On peut en conclure que les pays en voie de développement en seront de très grands utilisateurs quand le prix de l’accès aura baissé. L’enseignement à distance balbutie encore, mais il prend rapidement de l’importance dans les pays pauvres, où se trouvent les six plus grandes téléuniversités. Ainsi EDUCOR en Afrique du Sud a-t-il connu une expansion considérable, et emploie à cette date 4 000 professeurs pour enseigner 300 000 étudiants. La téléinformation et les cyberuniversités constituent des cibles évidentes et surtout des enjeux d’influence. En 2000, une étude de la banque d’affaires Merril Lynch a chiffré le marché annuel du e-knowledge à 9,4 milliards de dollars et prédit qu’il pourrait atteindre 53 milliards de dollars en 2003. Actuellement, 84 millions de jeunes gens suivent des études supérieures dans le monde et leur nombre atteindra 160 millions vers 2025. Même si l’éducation en ligne n’attirait que la moitié des nouveaux venus, leur nombre représenterait 40 millions d’individus. Des universités virtuelles rassembleront les masses en quête de savoir, qui auront accès aux mêmes salles de cours virtuelles, aux mêmes professeurs, aux mêmes bibliothèques et obtiendront les mêmes diplômes. Devant l’incroyable croissance des réseaux et la multiplication de ses utilisateurs s’est propagée, au début des années 1990, l’idée que l’ensemble des transactions commerciales pourrait être traité dans la cybersphère. Ainsi naîtrait une nouvelle manière de conduire l’économie mondiale. L’expression « nouvelle économie » a connu une étonnante fortune au cours des années 1990, avant même que son contenu ait été élucidé. On peut lui attribuer deux significations. Il s’agit, d’une part, des conséquences concrètes, sur l’offre de biens et de services, du développement des technologies de l’information. On a parlé de « Net-économie » pour désigner à la fois la création d’activités nouvelles liées au réseau et la transformation de nombreuses activités traditionnelles, tel le commerce devenu le « e-commerce ». D’autre part, le terme désignerait un nouveau régime économique, caractérisé par une accélération des gains de productivité, un rythme de croissance durablement élevé et une atténuation, voire une disparition des cycles économiques.

24

INTRODUCTION AU SIÈCLE DES MENACES

Comme pour prouver le bien-fondé de ces concepts, l’économie américaine a connu une période faste. Le « e-commerce » s’est envolé. On lui promet un niveau annuel de 1 à 3 000 milliards de dollars pour la prochaine décennie. Deux facteurs se sont combinés. D’une part, la baisse rapide et continue des coûts de traitement, de stockage et de transmission de l’information selon la loi de Moore. D’autre part, les « effets de réseau », permettant des rendements croissants, ont été favorisés par l’adoption de standards internationaux dans les techniques de transmission de l’information. Ont joué dans le même sens les mesures de déréglementation des télécommunications adoptées par un grand nombre de pays. Une fois réalisés les investissements d’infrastructure et de RD pour la création de nouveaux produits ou services, le coût de production et de distribution d’un exemplaire supplémentaire est faible, voire nul, ce qui procure un avantage aux fournisseurs déjà installés sur le marché. L’expansion américaine a été soutenue par la puissante progression des investissements en NTIC : ceux-là sont passés, entre 1990 et 2000, de 32 à 54 % des investissements en équipements en volume (et de 40 à 47 % en valeur, le décalage entre l’évolution en volume et en valeur reflétant la baisse des prix relatifs des NTIC). La « nouvelle économie » échapperait-elle pour autant aux cycles ? Certes la variabilité du PIB américain avait nettement baissé, l’écart type passant de 4,8 % dans la période 1969-1983 à 2,2 % dans la période 1985-20007. Si la « nouvelle économie » a été engendrée par la loi de Moore, il faut, pour la comprendre, dépasser une vision d’ingénieur. Son paradigme consiste dans l’informatisation de l’échange, par opposition à une « ancienne économie » dominée par l’informatisation de la production et de la gestion. Lorsque l’ordinateur a été introduit dans les entreprises, il a permis des gains de productivité à l’intérieur de chaque entité. Internet permet d’extérioriser ces gains que l’on avait pris pour règle de se garder pendant plusieurs décennies. Les réussites du commerce électronique se sont construites sur de véritables avantages compétitifs et sur le siphonage des poches de rétention de la productivité. En inventant la commercialisation de PC personnalisés, produits à la commande et livrés en une semaine, la société d’Austin (Texas) Dell Computer Corp a créé un modèle de distribution à très rapide rotation des stocks : Dell n’a que cinq jours de stocks et ses concurrents dix fois plus. Dell est ainsi devenu le premier cons7. Bulletin économique de BNP Paribas, mai 2001.

LE MOTEUR DE L’HISTOIRE

25

tructeur mondial de PC avec 15 % des livraisons en 2002. L’accélération de la rotation des actifs conjuguée à cette innovation de marketing est à la base de la « nouvelle économie ». Le gagnant du monde Internet ne serait-il pas le zéro : zéro délai, zéro stock, zéro structure ? LA TÉLÉPHONIE MOBILE

L’addition à un poste de téléphone d’un émetteur-récepteur de liaison hertzienne a permis à l’usager de se déplacer tout en gardant sa connexion au réseau, dite alors mobile. Le système répandu aujourd’hui est le téléphone cellulaire, ainsi appelé parce que la transmission utilise de nombreuses stations de base qui divisent une zone géographique de service en cellules multiples. Les appels sont transférés automatiquement d’une station de base à une autre quand l’utilisateur se déplace de cellule en cellule. Récemment a été tenté, mais jusqu’à présent sans succès, le remplacement des stations de base par une constellation de satellites en orbite basse. Dès 1947, AT&T demande en vain à l’organisme américain responsable des allocations de fréquence hertzienne, de lui céder un grand nombre de fréquences afin d’encourager le développement du téléphone cellulaire. En 1968, AT&T revenu à la charge, propose d’établir au voisinage de tours des cellules dont chacune aurait utilisé un petit nombre de fréquences. En 1978, les Bell Laboratories-AT&T font des essais à Chicago sur deux mille clients. En 1979, un service semblable démarre au Japon ; en 1981, Motorola et American Radiotelephone établissent un second système américain dans la région de Baltimore-Washington ; en 1982, la Suède et la Finlande lancent le Nordic Mobile Telephone. La même année, le service cellulaire commercial est autorisé aux États-Unis. En dépit d’une forte demande, il a fallu au cellulaire trente-sept ans pour atteindre le consommateur. Son succès est alors stupéfiant. En 1987 le nombre des souscripteurs dépasse le million et le réseau radio est saturé. De nouvelles bandes à 800 MHz, puis, en 1991, à 1 900 MHz doivent être attribuées au cellulaire8. 8. On distingue trois modes d’utilisation de l’onde porteuse : 1- Signal analogique par modulation de fréquence, utilisé au début (1 re génération). 2- Signal digital ou numérique, par codage binaire (2 e génération). Ont été commercialisées trois variantes digitales : — TDMA (Time Division Multiple Access) ou Digital AMPS divise le temps en intervalles auxquels chaque canal a accès à des intervalles réguliers. — CDMA (Code Division Multiple Access) assigne à chaque canal un code spécifique.

26

INTRODUCTION AU SIÈCLE DES MENACES

L’essor du cellulaire a surpris et surprend encore : de 11 millions à la fin de 1991, le nombre d’abonnés est passé à 300 millions vers la fin de 1998. On note la réussite extraordinaire du GSM qui a fait de l’Europe un territoire privilégié du mobile. Le mobile est devenu un marché à part entière : en 1998 il a engendré 155 milliards de dollars de recettes. Cette révolution a concerné aussi bien les pays développés que les autres ; dans les premiers le cellulaire sert de complément aux postes fixes ; dans les seconds, il comble le manque de postes fixes. Certes quatre abonnés sur cinq se trouvent dans les pays développés, mais les avantages de son introduction dans les pays non développés sont tels que l’expansion devrait y être rapide : d’une part l’installation de réseaux mobiles est moins coûteuse et plus facile que celle des réseaux fixes, et, d’autre part, l’accès par carte prépayée est aisé pour les utilisateurs peu solvables. L’accord portant sur la normalisation des équipements de téléphonie mobile signé en juillet 1997 par plus de soixante pays, incluait l’octroi de la licence, l’homologation et les réglementations douanières. Pour uniformiser les réglementations, il s’appuyait sur l’accord élaboré par l’OMC en 1996, qui avait prévu la suppression complète des droits de douane sur les produits informatiques et les produits de télécommunication à partir du 1er janvier 2000. Ce libéralisme intégral d’origine américaine servait naturellement en premier l’industrie dominante et dominatrice des États-Unis. Le téléphone cellulaire mobile a été le premier segment de l’activité télécoms à s’ouvrir au secteur privé et à la concurrence dans de nombreux pays. De ce point de vue, il a joué un rôle moteur dans l’évolution générale du secteur. Un produit dont l’offre était autrefois limitée, le service téléphonique, devenait disponible à toute demande. Un des freins principaux à l’expansion de la demande – une offre insuffisante – se trouvait éliminé. Devant la croissance de la demande, en 1999 tout le monde est persuadé qu’elle n’a pas de limites, car elle n’a pas encore tou– GSM (Global System for Mobile Communication), qui est un TDMA amélioré, a été introduit par les Européens en 1987, sur l’initiative prise en 1982 par la Commission européenne des postes et télécommunications (CEPT) visant à créer un standard permettant de couvrir toute l’Europe ; il est opérationnel aux ÉtatsUnis depuis 1997. Fournissant, en plus de la phonie, comme les autres systèmes digitaux, des services de données (courriers, fax, surf Internet et Intranets), GSM est le seul qui permette d’appeler aussi bien d’Europe que des États-Unis. 3- Signal digital large bande (3 e génération). L’objectif est d’augmenter le débit pour pouvoir procurer de vrais services multimédias mobiles. L’opérateur japonais NTT-DoCoMo a introduit l’i-mode et les Européens travaillent sur UMTS (Universal Mobile Telecommunication System).

LE MOTEUR DE L’HISTOIRE

27

ché les services de transmission de données qui constituent un énorme réservoir potentiel de clientèle. Il faut donc plus de bande, d’où l’urgence du déploiement de l’UMTS, et il faut une extension des cellules au monde entier, d’où l’émergence des constellations spatiales comme Iridium, conçu depuis longtemps et financé par Motorola. Nous assistons au phénomène de la connexion universelle. Pour la première fois, des dispositifs de communication permettent en théorie d’interconnecter individuellement tous les membres dispersés de la famille humaine. LE MARIAGE D’INTERNET ET DE LA TÉLÉPHONIE MOBILE

Qui aurait parié en 1997 qu’un téléphone portable pourrait servir à autre chose qu’à téléphoner ? Pourtant, l’accès à Internet grâce au mobile, dernier mythe de la « nouvelle économie », paraissait devenir une réalité à la suite de l’adoption par l’industrie en juin 1999 d’un standard quasi universel, le WAP (Wireless Applications Protocol). Il permettait dans sa première version (à 9,6 kb/s) de présenter des textes courts et offrait des services proches du Minitel. Sa seconde version à 144 kb/s, introduite en 2000, donnait la possibilité de recevoir des images vidéo. Les promoteurs du mariage entre Internet et le mobile, c’est-à-dire toute la chaîne industrielle des télécommunications soutenue sans faille par le marché financier, voulaient révolutionner l’usage du téléphone en l’ouvrant sur les services et les échanges de données disponibles sur Internet. Le lancement réussi le 22 février 1999 du premier service d’accès à Internet par mobile, l’i-mode, a fait de l’opérateur japonais jailli du néant NTT-DoCoMo une vedette de la Bourse, dont la capitalisation a dépassé en un an celle de sa maison mère, le puissant opérateur NTT. Le service i-mode a conquis en un an 5 millions de clients, sur 50 millions d’abonnés au Japon. Opérateur investissant beaucoup dans la recherche, DoCoMo a développé sa propre technologie de troisième génération W-CDMA, capable de recevoir et de transmettre des images, et l’a commercialisée en 2001. Le nom d’i-mode est devenu en 2002 synonyme d’Internet mobile pour trente millions de Japonais. La surprise est venue du profil des utilisateurs qui s’en sont servis, non pour le commerce style nouvelle économie, mais pour s’amuser : la moitié d’entre eux faisait partie du groupe des personnes âgées de vingt à trente ans, et la moitié des connexions portait sur les jeux, horoscopes et tous services étiquetés divertissements. Personne n’a encore compris la nature de l’impact des NTIC. Les opérateurs

28

INTRODUCTION AU SIÈCLE DES MENACES

ne savent pas qui seront leurs futurs clients. Il est certain que les services du téléphone mobile seront façonnés par l’imagination du public, des gens d’en bas, comme l’ont été les services d’Internet auxquels ils ne ressembleront pas. En Europe, les débuts de la téléphonie mobile de troisième génération ont été chaotiques. Si la folie des exponentielles entraînait vers une hausse endiablée les places boursières fascinées par des taux de croissance jamais vus, une solide réalité industrielle sous-tendait la course en avant. D’une part, l’industrie du mobile était obligée, par le jeu de la concurrence, de baisser régulièrement le tarif des communications. D’autre part, le taux d’équipement des ménages atteignait 50 % (dépassé en France) en mars 2001. Lorsque les équipementiers Nokia et Ericsson soupçonnèrent une saturation du marché GSM dont l’extraordinaire succès les avait enrichis, ils poussèrent l’UMTS comme un successeur capable d’engendrer une nouvelle dynamique. Les marchés financiers et les opérateurs mobiles les suivirent. Ils persuadèrent Bruxelles d’attribuer en Europe des licences pour l’utilisation des fréquences réservées et de fixer la date d’ouverture des services au 1er janvier 2002. L’avenir du mobile semblait passer par Internet et le commerce électronique avec son trio gagnant ordinateurs, livres et disques. Nokia envoyait au Japon des observateurs pour comprendre la réussite d’i-mode et la copier. Le portable deviendrait le vecteur irremplaçable de la connexion universelle, l’instrument indispensable de l’Internet devenu mobile. L’Europe, galvanisée par le succès de son enfant GSM, voit l’avenir fait d’échanges de données complexes avec une qualité bien supérieure à celle des actuels PC : on imagine un univers intégré où la famille utilisera le même appareil, PC le matin, téléphone à midi, télévision le soir. Il faut alors le haut débit ; donc UMTS s’impose comme une étape qu’il est urgent de franchir. L’INFRASTRUCTURE

Dès 1876, Alexander Graham Bell avait voulu que le téléphone se développât à la manière d’un grand réseau reliant entre eux tous les foyers. Cette conception a structuré le déploiement des réseaux téléphoniques autour de la liaison indissociable entre la construction de l’infrastructure et la fourniture du service téléphonique. D’où la mise en œuvre d’un modèle industriel intégré, des équipements aux services. Le modèle économique était simple : facturer au client un temps d’utilisation du réseau proportionnel à la durée et à la distance de l’appel.

LE MOTEUR DE L’HISTOIRE

29

À partir de 1983, le démantèlement d’AT&T et son éclatement en huit entités engendre aux États-Unis une autre dynamique : celle du déploiement de réseaux par des opérateurs tiers qui construisent sans coordination des infrastructures capables de haut débit. Apparaissent les surcapacités dans le transport qui permettent la naissance d’Internet. Durant cette période, l’organisation industrielle se transforme (plusieurs acteurs interviennent désormais dans l’acheminement d’un appel), mais le modèle économique reste le même : la voix demeure le service dominant, et les réseaux interconnectés se facturent mutuellement des coûts de mobilisation de circuits. À partir de 1995, l’accroissement du trafic de données par rapport à la phonie favorise l’apparition d’opérateurs locaux spécialisés, soutenus par les équipementiers télécoms. Au cours de cette période, le développement d’Internet draine aux États-Unis près de 350 milliards de dollars d’investissement dans ce secteur. Les perspectives à moyen terme d’expansion du e-commerce (confortées par l’évolution exponentielle du trafic Internet), et la valorisation associée des actifs d’infrastructures justifient l’investissement. L’industrie des télécommunications vit dans l’idée que le ecommerce représentera, à relativement court terme, une part élevée de la dépense des ménages sur les réseaux à haut débit. Sur cette hypothèse optimiste quant à la croissance du volume des transmissions reposent les évaluations d’actifs et les décisions d’investissement des différents acteurs. Internet n’est pas un réseau indépendant ; il utilise une partie des réseaux existants, téléphoniques ou câblés. Sa croissance a été au début limitée par le faible débit des lignes ; elle s’est traduite, en Europe par des opérations lentes, ou bien, aux États-Unis par un engorgement des réseaux locaux. Les infrastructures n’étaient pas adaptées à l’acheminement d’informations avec un débit élevé vers la plupart des utilisateurs, particuliers et petites entreprises. La ligne téléphonique traditionnelle transporte 64 kb/s, alors que plusieurs Mb/s seraient nécessaires pour tirer parti des possibilités d’un PC moderne. Le réseau a besoin de large bande, parce qu’il transporte beaucoup d’informations, vers beaucoup de clients, et surtout des images dont les exigences en bande passante sont énormes. Anticipant ces tendances, Wall Street encourage les opérateurs à augmenter les capacités des réseaux pour assurer l’accès à Internet à haut débit. Des débits élevés sont offerts aux entreprises et aux particuliers par l’expansion foudroyante du réseau sol, grâce au câble coaxial de la télévision et à l’introduction de la technologie nouvelle à

30

INTRODUCTION AU SIÈCLE DES MENACES

deux longueurs d’ondes simultanément émises par le laser qui double la capacité du câble. Les années 1990 ont ainsi été caractérisées par un extraordinaire dynamisme créé par une conjonction d’événements : l’arrivée de nouveaux opérateurs grâce à la libéralisation des télécommunications, l’essor de la téléphonie mobile, et l’expansion des infrastructures de réseau favorisée par les progrès considérables dans l’utilisation des technologies optiques. Faut-il en conclure, comme Joël de Rosnay, que « le développement des réseaux interactifs multimédias n’est autre que l’ébauche d’un phénomène encore plus profond : la construction progressive d’une sorte de système nerveux de l’organisme sociétal construit par l’humanité à la surface de la planète9 » ?

Les États-Unis au centre de la société mondiale de l’information L’humanité, vraiment ? La diffusion d’Internet n’est pas encore universelle. Les différences culturelles, financières et infrastructurelles sont aujourd’hui telles que seulement un tiers des sociétés dans le monde se structurent autour d’Internet. Deux tiers en sont exclus. Dans les pays membres de l’OCDE, le pourcentage de la population ayant accès au téléphone privé en 1998 est de 72 %, contre 7,8 % ailleurs. Le pourcentage de la population ayant accès à Internet en 2000 est de 8,2 % dans les États de l’OCDE, contre 0,08 % ailleurs, avec des taux particulièrement bas en Amérique du Sud et en Afrique. Le fossé constaté entre l’OCDE et le reste du monde s’élargit. Par exemple, en 1997, la pénétration d’Internet était 267 fois plus forte en Amérique du Nord qu’en Afrique, et 540 fois plus en 2000. Les inégalités créées par les différences d’accès au réseau entraînent aussi une inégalité d’accès aux biens associés au réseau. Un effet de réseau, comme pour le téléphone, favorise les communautés riches : plus la densité de participation augmente, plus les coûts unitaires diminuent. Internet permet un accès bon marché à toutes sortes d’informations et cet accès est un bien intermédiaire pour la production. Entre ceux qui en disposent et ceux qui en sont privés, l’écart des coûts risque de s’aggraver. 9. J. de Rosnay, La Société de l’information au Publication de l’IFRI, Paris, Dunod, 1999.

XX

e

siècle, Paris, Ramsès, 2000,

LE MOTEUR DE L’HISTOIRE

31

Ainsi Internet est-il beaucoup moins utile dans un pays qui ne possède pas les infrastructures complémentaires nécessaires. Un consommateur africain pourra accéder à Amazon, l’entreprise de vente de livres en ligne, mais le coût de transport du livre jusqu’à sa localité est prohibitif. La technologie n’apporte rien en l’absence d’autres infrastructures. Elle accroît la différence d’efficacité entre les pays du Nord et ceux du Sud, au lieu de contribuer à l’atténuer. Manuel Castells note que se trouver en marge d’Internet signifie la marginalisation économique. « Si tout bien ou toute valeur susceptible d’être source de valeur peut être connecté facilement, et, dès qu’il ou elle cesse de l’être, déconnecté tout aussi facilement, le système de production mondial sera composé simultanément d’individus et de lieux très précieux et très productifs, et d’autres qui ne le sont pas, ou plus, mais n’en existent pas moins. En raison du dynamisme et de la compétitivité de la nouvelle économie, les autres formes de production sont déstructurées et finalement éliminées – ou transformées en économies informelles, dépendantes de leurs connexions instables avec la dynamique mondiale10. » Une fracture numérique se forme et s’élargit, mais il s’agit d’une fracture dynamique, entre deux mondes dont le plus faible ne reste pas inactif et s’équipe à son tour, même si le rythme que connaît l’expansion de la communication est chez lui beaucoup plus faible que chez les nantis. À la réunion des dirigeants mondiaux du G-8 qui s’est tenue en 2000 à Okinawa, les politiciens avaient fait leur le thème de la fracture numérique, publié une « Charte sur la société mondiale de l’information » et promis de commencer à combler le fossé entre pays riches et pays pauvres dans le domaine des technologies de l’information – sans mettre en place aucun organisme pour remplir cette tâche, sinon un groupe de travail appelé Dot Force. S’il ne faut rien attendre de ces gesticulations, au moins peut-on constater que les instances internationales et les gouvernements paraissent reconnaître l’existence d’une tendance. Le point essentiel est le centrage d’Internet sur les États-Unis. Qu’on choisisse pour critère la localisation des sites, celle des utilisateurs ou la direction des flux de trafic, ils se taillent la part du lion. Ce fait se reflète dans les processus de décisions puisque toutes les décisions ont jusqu’ici été prises aux États-Unis. « Quand les transactions Internet des États-Unis avec l’Europe pèsent 50 milliards de bits par seconde, avec l’Asie 20 milliards, avec l’Afrique 300 millions, elles ne dépassent pas 300 millions de 10. Manuel Castells, La Galaxie Internet, Paris, Fayard, 2002, p. 321.

32

INTRODUCTION AU SIÈCLE DES MENACES

bits par seconde entre l’Europe et l’Asie. Les échanges économiques entre ces deux continents sont pourtant intenses. Mais les États-Unis sont devenus le carrefour mondial d’Internet11. » L’exemple du Brésil montre que les télécommunications Internet ne reflètent pas les échanges économiques bilatéraux mais obéissent à leur logique propre. « En 1999, la moitié des relations téléphoniques du pays sont tournées vers les États-Unis, 30 % vers l’Europe, 20 % vers le Mercosur. La même année, voici comment se répartit le trafic Internet entre ces trois zones : respectivement 99 %, 0,7 % et 0,3 %. Il n’y a jamais eu un tel monopole dans l’industrie des télécoms12. » Ce déséquilibre est dû aux rendements croissants qui caractérisent l’économie de l’information. « D’après la loi de Metcalfe, plus un réseau est fréquenté, plus il attirera de monde, car il sera nécessairement plus étoffé, plus ramifié, plus riche. Cette croissance n’est pas arithmétique mais exponentielle. Les grands opérateurs américains pionniers d’Internet, comme WorldCom, Sprint, Verizon ou la compagnie régionale Pacific Bell, jouissent de ce fait d’une réelle avance sur tout le monde […]. Comme les gros opérateurs américains fournissent partout dans le monde de la capacité à bas prix, on préfère leur acheter un aller et retour Paris-Dulles, Dulles-Berlin plutôt que de se ruiner en passant par les médiocres routes intereuropéennes. Pire : en Afrique, les communications Internet à l’intérieur d’une même ville passent parfois par les plaques tournantes américaines13. » Ainsi tout le monde ne dispose pas des mêmes atouts sur le « réseau des réseaux ». Citons aussi l’avance d’un petit nombre de grands serveurs américains, Compuserve, America On Line (AOL), Prodigy, qui ont dû offrir l’accès à Internet, même si leur stratégie reste avant tout centrée sur l’autonomie de leur réseau, et sur le renforcement de leur identité éditoriale. Il y a enfin la position des constructeurs informatiques ou des principaux fournisseurs de systèmes d’exploitation et de logiciels, tous américains, qui disposent d’atouts sérieux pour gérer les accès aux réseaux. Et n’oublions pas l’appui donné par les nouveaux systèmes de télécommunications à la langue anglaise. D’après l’Internet Society, 80 % des pages web sont en anglais bien que seulement 57 % des utilisateurs aient l’anglais pour langue maternelle. 11. Solveig Godeluck, La Géopolitique d’Internet, Paris, La Découverte, 2002, p. 25. 12. Philippe Quéau, La Planète des esprits. Pour une politique du cyberespace, Paris, Odile Jacob, 2000, chap. XIII. 13. Solveig Godeluck, op. cit., p. 25.

LE MOTEUR DE L’HISTOIRE

33

La société de l’information, inventée aux États-Unis, apparaît bien ainsi comme l’embryon d’un système nerveux planétaire qui, dans l’esprit des Américains et pour l’instant dans les faits, assure la domination de leur culture et de leur économie sur le monde. Nous verrons14 cependant plus loin que les réseaux multimédias interactifs sur lesquels repose le système se révèlent aussi une arme formidable au service des pays sous-développés, qui se connecteront plus vite qu’on ne pense et sauront s’en servir, non pour leur économie incapable de s’y adapter, mais pour la circulation des idées. La télévision élargit son domaine pendant que la propagande islamiste circule de plus en plus sur Internet et que s’étend l’influence immense sur les masses populaires musulmanes des émissions relayées par les satellites géostationnaires comme Arabsat.

Triomphe de la démesure Première interrogation : ces exponentielles qui décrivent l’évolution, sont-elles robustes ? L’avènement du réseau planétaire a remis en question le modèle techno-économique dominant jusqu’ici dans la microinformatique, et symbolisé par le couple Microsoft-Intel : celui d’une informatique décentralisée, fondée sur des ordinateurs toujours plus puissants et supportant des applications toujours plus sophistiquées. Avec Internet, les ordinateurs tirent leur puissance des réseaux, les logiciels se téléchargent à distance : l’ordinateur devient un produit banal. Aux États-Unis, plusieurs fournisseurs de services et d’accès à Internet, comme InterSquid, Gobi ou DirectWeb, offraient un PC à leurs nouveaux clients. L’équipement s’efface devant son emploi. Pendant les années 1990, le contenu – l’offre accessible par le réseau – se valorisait au détriment du contenant. L’offre de services, d’informations et de divertissements augmenta à coups d’investissements considérables. Plus de 200 milliards de dollars ont été dépensés en 1998 dans la confection et le développement de sites web15, afin de capter et de fidéliser la plus vaste clientèle possible, en pariant sur le développement de deux activités, la publicité et le commerce électronique, qui devaient devenir les principales sources de revenus liées au réseau Internet. On croyait que le chiffre d’affaires du commerce sur Internet représenterait quatre ans plus tard 5 % du total mondial, dont 80 % 14. Voir chapitre VIII . 15. Selon le cabinet new-yorkais Jupiter Communications.

34

INTRODUCTION AU SIÈCLE DES MENACES

sous forme de transactions entre entreprises. La croissance très rapide du commerce électronique était favorisée par l’offre foisonnante de nouveaux services proposés le plus souvent par de nouvelles entreprises créées ad hoc, ou start-ups. Sur le palmarès des sites web les plus fréquentés, dressé chaque mois par la société américaine Mediametrix, figuraient des pionniers d’Internet, comme Yahoo !, inventeur des moteurs de recherche, société fondée par deux étudiants de l’Université de Stanford en avril 1994, et qui atteignit en 2000 quelque 40 milliards de dollars de capitalisation boursière, Lycos (des « annuaires du Web »), e-Trade, créateur de la Bourse « en ligne », ou Amazon, précurseur dans l’activité de librairie électronique. Le plus gros fournisseur américain d’accès à Internet, America On Line (AOL), devait sa réussite à la mise en œuvre d’une stratégie délibérée de croissance externe. Après s’être emparé de Compuserve, son principal concurrent, le groupe absorba la société Netscape, éditeur de Navigator, le plus populaire des logiciels de navigation, puis l’Israélien ICQ (inventeur d’un système de messagerie en direct), ainsi que PersonalLogic (guide d’achat interactif pour le commerce électronique sur Internet), MoviePhone (réservation de places de cinéma), ou encore When (service d’agenda en ligne). Fascinés par l’évolution d’Internet, les opérateurs se lancent dans une course effrénée à la croissance. En 2000, plus de quarante fournisseurs d’infrastructures Internet se bousculent aux États-Unis pour construire rapidement des réseaux de données IP, et six nouveaux réseaux d’un coût total estimé à 18 milliards de dollars sont prévus pour entrer en service dans les deux années suivantes. L’opérateur nouveau venu MCI WorldCom a connu un taux annuel de croissance de 800 % à comparer aux 4 % du trafic de téléphonie. Cependant, les services vocaux constituent encore 80 % du revenu des opérateurs. Ceux-ci, tout en s’endettant jusqu’au cou pour construire les infrastructures nécessaires aux nouvelles applications, doivent continuer à maintenir le service téléphonique de haute qualité qui génère l’essentiel de leur chiffre d’affaires. Non seulement des capacités énormes sont ajoutées aux réseaux, en particulier par le développement démesuré de l’emploi des fibres optiques sans autre justification que la croyance à une continuation indéfinie de l’évolution exponentielle du trafic, mais une boulimie d’achats saisit les grands patrons, convaincus de la nécessité de multiplier les profits par des économies d’échelle. En même temps, chacun se persuade que le public exigera de nouveaux services multimédias et se précipite pour figurer parmi les acteurs de demain.

LE MOTEUR DE L’HISTOIRE

35

Des capitaines d’industrie ont alors considéré Internet comme le transporteur potentiel de toutes les productions audiovisuelles et autres distractions, en fait comme la condition unique au développement de vastes empires, l’atout nécessaire dans la course au gigantisme dans laquelle ils se lançaient. Grâce à la numérisation, Internet deviendrait une immense banque de données multimédias accessible au public qui y trouverait tout en ligne. Autour de la nouvelle technologie, les super-majors de la communication médiatique concentreraient l’édition et les programmes de télévision, la production et la distribution de films de cinéma, des chaînes de télévision autour des réseaux téléphoniques et des sites Internet. AOL fusionna en janvier 2000 avec Time Warner, géant de la presse et des médias. Pour AOL, la fusion consacrait la supériorité du modèle technique et commercial fondé sur Internet. Maîtrisant les outils de communication et de diffusion, elle prétendait transformer l’ADN des fabricants de contenu pour démultiplier le potentiel représenté par la production des journalistes, des scénaristes, des cinéastes et des musiciens de Time Warner. Son président Steve Case vaticinait : « La mission d’AOL est de mettre Internet au centre de la vie, tout comme le font actuellement le téléphone et la télévision. En joignant nos forces à celles de Time Warner nous allons fondamentalement changer la façon dont les gens acquièrent l’information en communiquant entre eux. »

Même démarche de la part de Vivendi qui crée Vivendi Universal par fusion avec Seagram, propriétaire des studios Universal d’Hollywood, reprend les actifs d’USA Networks dans le cinéma et la télévision. Même démarche de la part de Bertelsmann qui, donnant à Internet la fonction de noyau dur du groupe, développe des centrales d’achats de livres et de musique sur le réseau. L’illusion et la mégalomanie triomphent. En 2000-2001, la baisse de l’indicateur boursier des valeurs de « haute technologie », le Nasdaq, est considérée comme un épiphénomène auquel les grands acteurs ne semblent guère attacher d’importance. À ce moment, la grande affaire des télécommunications européennes était la mise aux enchères des licences UMTS, dont les gouvernements n’avaient pas voulu se dessaisir au profit de la Commission de l’Union européenne. Entre 1999 et 2000, la surenchère pour leur acquisition aboutit à des dépenses cumulées d’une centaine de milliards d’euros. À noter que le gouvernement japonais a attribué les licences gratuitement. Personne ne s’était demandé si des clients existeraient en nombre suffisant pour

36

INTRODUCTION AU SIÈCLE DES MENACES

rentabiliser les investissements. On aurait dû s’inquiéter du manque de succès de WAP dont les services lents et peu inspirants ne trouvaient pas d’utilisateurs. En fait c’est la monstrueuse facture des licences qui a jeté le trouble dans l’esprit des boursiers. Les doutes accumulés peu à peu sur la rentabilité d’UMTS ont fait baisser la capitalisation de moitié en moins d’un an en 2000-2001. Mille milliards de dollars disparaissent en fumée. Car l’addition ne se limitait pas à l’achat de licences. Il fallait aussi construire le réseau, pour une quarantaine de milliards, et faire face à d’énormes dépenses de marketing et de publicité. Qui paierait ? Le client bien sûr, mais personne ne savait qui serait prêt à mettre la main à la poche pour s’assurer de futurs services à inventer. Enfin les équipements étaient loin de sortir des laboratoires, moins encore des usines. Les équipementiers qui avaient pressé le mouvement ne se trouvaient pas au rendez-vous. La concurrence entre les opérateurs, tous habités par une logique d’exponentielles, avait provoqué un surinvestissement généralisé dans des technologies non éprouvées, comme UMTS ou la phonie sur protocole Internet, et dans des besoins supposés de clients non identifiés, se traduisant in fine par une offre bien supérieure à la demande. Cette surcapacité entraîne une véritable chute des tarifs : le prix des liaisons louées et des appels internationaux a été divisé par quatre en dix ans ! Trois erreurs ont été commises par tous : la croyance que la valorisation boursière représente la réalité industrielle des entreprises, la mythification de la « nouvelle économie » comme ultime avatar du capitalisme, la mauvaise appréciation du rôle que doivent jouer les États dans un marché déréglementé. Le krach de mars 2000 sur le Nasdaq remet en cause l’hypothèse d’une nouvelle économie fondée sur l’e-commerce. Devant la disparition de leurs abonnés et du trafic qu’ils engendraient ou devaient engendrer, les opérateurs sont confrontés à l’impossibilité de rentabiliser les réseaux de milliers de kilomètres de fibre optique qu’ils ont construits. Les effets de ce krach vont se propager au cours des mois suivants le long de la chaîne : les opérateurs locaux sont les premiers touchés, puis les opérateurs historiques, puis au printemps 2001, les équipementiers et enfin les fabricants de composants. Dès septembre, une première vague de faillites balaie des entreprises trop nombreuses, ruinées par la raréfaction des financements et la faiblesse des revenus publicitaires. Les attentats du 11 septembre 2001 accélèrent la chute. Tous les secteurs d’activité accusent un ralentissement à la fin de 2001, suivi par un manque de dynamisme en 2002 et 2003.

LE MOTEUR DE L’HISTOIRE

37

À l’une des extrémités de la chaîne, à partir de 2001, les équipementiers souffrent de la chute des opérateurs, leurs débouchés. Le marché global perd 27 % pendant le deuxième trimestre 2002. Lucent Technologies, le plus gros fabricant américain de téléphones fixes, conservera 30 000 salariés au lieu de 106 000 en janvier 2000, au terme du plan de restructuration en cours. Sa directrice générale, Patricia Russo, déclare16 : « Nous essayons de piloter un 747 dans la tempête et en même temps de changer les moteurs. » Le Canadien Nortel passera de 95 000 employés au début 2001 à 35 000 à la fin de 2002. Ericsson, Marconi doivent consentir des augmentations de capital et céder tout leur capital à des banques. La perte cumulée de capitalisation boursière subie en deux ans par les équipementiers télécoms atteint au moins 1 500 milliards de dollars, soit un peu plus que le PIB de la France. À l’autre extrémité de la chaîne, déstabilisés par le retournement économique et donc par la baisse des recettes publicitaires, les géants de la communication à leur tour découvrent que le modèle économique qu’ils s’étaient fabriqué autour d’Internet n’est pas fiable et la débâcle les emporte. Le torchon brûle entre AOL et Time Warner. Les patrons de Vivendi et de Bertelsmann sont éliminés. Comment expliquer le krach ? Le processus mis en marche par la loi de Moore dans le domaine de l’information obéit à la description que fait Joseph Schumpeter de la chaîne continue par laquelle les technologies émergentes chassent les anciennes, et qu’il appelle destruction créatrice. Les innovations sont responsables des progrès du système capitaliste. Qu’elles concernent les technologies, les produits, les méthodes de production et de distribution, elles sont le principal moteur de la croissance. La Net-économie s’est traduite par une vague sans précédent de créations de petites entreprises, de start-ups. « L’apparition d’une ou de quelques entreprises est rendue plus facile et, par là, provoque l’apparition d’autres entreprises, et cette apparition provoque elle-même l’apparition d’entreprises différentes et toujours plus nombreuses17. »

Une telle effervescence est aussi une source d’instabilité. Après la formation d’une bulle spéculative boursière, une infime minorité d’entreprises d’e-commerce survivront. À travers Internet, 16. International Herald Tribune, 12 octobre 2002. 17. Joseph Schumpeter, Theory of Economic Development, 3e éd., 1949, Cambridge, Mass., Harvard University Press, traduit de Theorie der Wirtschaftlichen Entwicklung, 1912.

38

INTRODUCTION AU SIÈCLE DES MENACES

le processus de destruction créatrice s’exprime avec une force stupéfiante. Il n’y a pas lieu de s’inquiéter sur l’évolution à long terme. Ce que les forces anciennes de l’économie détruisent, des forces nouvelles le recréent, en plus efficace. La surmortalité des jeunes pousses est un mécanisme naturel dans les phases initiales d’une activité émergente. En 1900, coexistaient plus de cent marques d’automobiles en France, alors qu’aujourd’hui, il n’en subsiste plus que deux. L’aspect « destruction » du modèle de Schumpeter a été négligé dans l’euphorie qui accompagnait la phase ascendante du cycle technologique. En fait l’activité économique reposant sur les NTIC montre qu’elle a atteint l’âge adulte en devenant cyclique à l’exemple des autres, présentant une phase inflationniste suivie d’un rééquilibrage. Après le départ de dirigeants qui, du mégalomane à l’escroc, ont laissé exsangues des entreprises téléphoniques et électriques saines avant leurs méfaits, l’économie se reconstruira autour de l’amélioration des réseaux comme ce fut le cas avec les chemins de fer dans les années 1880. L’effondrement du marché boursier ne nous apprend rien sur le futur des nouvelles technologies ; elles sont toujours là. Mais le nom même de bulle Internet qui a été donné à l’évolution de l’économie mondiale entre 1995 et 2000 montre bien que la loi de Moore y joue désormais un rôle majeur. Si tous les pays industriels ont été frappés par le krach, il faut en attribuer l’entière responsabilité aux opérateurs, aux industriels, aux investisseurs, aux médias, aux autorités gouvernementales des États-Unis, qui en faisant confiance à leur inventivité technique et à la force du marché ont donné libre cours à leur démesure et à leur arrogance. Leçon à méditer devant leur prétention à régenter le monde.

Le rebond Le krach n’est qu’un épisode. Oui, il est vrai que l’industrie des technologies de l’information a décliné de 3 % de 2001 à 2002, dont 2,3 % dans la seule année 2002, après vingt ans de croissance annuelle moyenne de 12 %. Mais Schumpeter à la rescousse ! Les utilisateurs n’ont pas disparu du réseau Internet, pas plus que les entreprises. Le nombre des internautes dans le monde ne cesse de croître et devrait dépasser 725 millions en 2004. De gigantesques volumes de données transitent toujours à travers le monde et la fluidité de leur circulation réclame des routeurs, des logiciels et des services. Non

LE MOTEUR DE L’HISTOIRE

39

seulement le trafic donné ne ralentit pas, mais il devrait s’accélérer avec la démocratisation de l’Internet rapide. Le développement des connexions à haut débit se présente comme une seconde révolution pour Internet. Elles permettent de circuler dix à vingt fois plus vite sur les autoroutes de l’information qu’une connexion classique bas débit. Le cercle vertueux du haut débit se confirme pour la consommation via Internet. D’après Taylor Nelson Sofres, 15 % de l’ensemble des internautes sont devenus en 2002 des cyberconsommateurs à domicile, contre 10 % en 2000. Les achats en ligne ont représenté 169 milliards de dollars en 2002 contre 96 milliards de dollars en 2001. On les attend aux environs de 300 en 2003 et au-delà de 425 en 2004. Ainsi les indicateurs de l’Internet clignotent-ils au vert : nombre d’internautes, nombre d’acheteurs en ligne, nombre d’abonnements à haut débit montrent que le réseau des réseaux avec ce qui l’entoure n’a pas quitté le chemin de la croissance rapide. Les marchands du Net qui ont su s’adapter à leur milieu pour rester les plus forts affichent une santé retrouvée. Amazon, leader du commerce en ligne étendu bien au-delà de la librairie, e-Bay le principal site mondial des ventes aux enchères et le portail d’accès à Internet Yahoo ! relèvent la tête. Le moteur de recherche Google, le plus populaire dans le monde, est passé de cent millions de recherches par jour en 2000 à trois cents millions en 2003. Les banques, l’administration, les services publics, l’industrie, le marketing direct, les agences de voyage, le recrutement sont des domaines où le Net est bien intégré, réduisant les coûts tout en apportant un avantage aux clients. Le fantasme virtuel de société numérique s’inscrit chaque jour davantage dans le fonctionnement réel de notre système comme dans nos mœurs, après avoir acquis dans la crise une teinte de pragmatisme qui lui donne une nouvelle force. La vraie révolution d’Internet, portant sur les achats, la musique, le cinéma, la médecine et les jeux en ligne, le télétravail, l’enseignement, la vidéo reste à venir. Le réseau Wi-Fi (Wireless Fidelity) rendra possible dans les prochaines années une connexion à large bande par Internet de votre laptop au monde entier, grâce à la technologie radionumérique. Un thuriféraire de Wi-Fi ne compare-t-il pas le système à Dieu : Dieu conçu traditionnellement comme omniscient, omniprésent, connecté sans fil à large bande, comme Wi-Fi18. Vous pourrez désormais poser à Google beaucoup de questions que vous posiez à Dieu, mais avec la différence que vous recevrez une réponse. 18. Thomas L. Friedman, International Herald Tribune, 3 juin 2003.

40

INTRODUCTION AU SIÈCLE DES MENACES

La loi de Moore continue à engendrer de nouveaux produits. Aucun expert n’avait vu venir le SMS (Short Messaging Service), ou texto. Il utilise le canal réservé à véhiculer des signaux de contrôle nécessaire dans les communications entre le mobile et le réseau, en parallèle au canal sur lequel circulent les communications. Comme la place sur le canal de signalisation est limitée, le message ne peut dépasser 160 caractères. Le premier d’entre eux a été envoyé en décembre 1992 par un PC vers un mobile sur le réseau britannique de l’opérateur Vodaphone. Ces messages ultracourts envoyés de portable à portable ne figuraient pas dans la palette des services proposés aux utilisateurs de téléphone mobile. Jusqu’en novembre 1999, il était encore impossible en France de faire passer ces petits textes d’un opérateur à un autre. Les jeunes gens sont les adeptes les plus nombreux ; ils inventent un nouveau langage adapté à la bande, et s’amusent à l’utiliser à tout bout de champ, par exemple en classe en narguant les professeurs. Les messages amoureux représentent 40 % du trafic. La prochaine application concernera les objets : le SMS permettra à des machines de communiquer entre elles, par exemple pour envoyer des messages d’alerte. Les équipements isolés qui nécessitent une maintenance ou un relevé périodique tels que les compteurs à relever, les ascenseurs, les distributeurs automatiques de boisson, de fast-food et d’autres biens de consommation courante, signifieront leurs besoins à leurs maîtres sans intervention humaine. Internet a engendré l’e-commerce et l’on peut craindre que SMS engendre l’e-amour dépouillé de vocabulaire, de syntaxe et d’orthographe comme d’autres qualités traditionnelles. L’amourzéro, enfin pas tout à fait, réduit à cent vingt-huit octets. Même dans sa version traditionnelle, le marché de la téléphonie mobile est loin d’être réduit au remplacement. Si en 2003, aux États-Unis et au Japon, deux tiers des habitants possèdent un mobile, les treize cents millions de Chinois ne disposent que de deux cent soixante millions de postes et le milliard d’Indiens de vingt millions. Dans ces pays leur nombre a doublé en un an. La Russie compte trente-trois millions d’utilisateurs (vingt en 2002). Chaque mois un million de Russes et cinq millions de Chinois acquièrent un boîtier. À l’échelle du monde, la croissance exponentielle continue. Le marché des services en téléphonie mobile a augmenté de 45 % de 2000 à 2003. Le chiffre d’affaires en 2003 de la téléphonie mobile atteint 550 milliards de dollars dont 468 pour les opérateurs et 82 pour les équipementiers. Si les opérateurs prospèrent, les équipementiers en sont encore à 25 % de leur niveau de 2000. Sur un marché où la croissance a

LE MOTEUR DE L’HISTOIRE

41

momentanément perdu son caractère exponentiel, la guerre des prix fait rage et les marges ont fondu. Un vaste mouvement de délocalisation s’est fait d’abord au profit des pays de l’Europe de l’Est, véritable pôle de sous-traitance de l’Europe continentale. Une deuxième étape est aujourd’hui franchie au profit de la Chine. Dans ce dernier cas, il ne s’agit pas que de sous-traitance. Des sociétés chinoises ou taiwanaises sont bien décidées à pénétrer à leur tour sur le marché en tant que créateur et fabricant. De grands noms de l’industrie, comme Alcatel ou Sony-Ericsson, nouent des liens avec ces sociétés « sans nom » aux prix imbattables et commencent à revendre leurs téléphones mobiles en ajoutant leur marque. Sagem a noué une alliance avec la société chinoise Bird, capable de lui fournir 6 millions de terminaux à la fin de 2003. Après le succès du téléphone mobile GSM, industriels et opérateurs veulent relancer l’évolution avec une nouvelle génération de produits et de services, grâce à un mélange d’innovation technologique et d’agressivité sociale. L’accès à Internet à haut débit permettra d’ajouter les recettes du trafic de données à celles de la voix. La loi de Moore continue à vouloir changer le futur. Intel a mis sur le marché en 2003 un microprocesseur qui permet de combiner les fonctions d’un téléphone portable et celles d’un ordinateur de poche avec une capacité de traitement atteignant 2 mégabits par seconde. Dans l’esprit de certains, les déboires actuels des nouvelles générations de téléphonie mobile jettent bien des doutes sur les utilisations possibles d’une telle puissance de calcul. On peut estimer au contraire que cette puissance porte elle-même assez d’innovation pour créer de nouvelles fonctions. Par exemple, la reconnaissance vocale sera utilisée pour identifier un numéro de téléphone, interroger un site Internet ou une base de données. Alors le comportement quotidien de chacun, le geste le plus banal répété combien de fois par jour, sera modifié… par une puce. Reflétant l’état d’esprit qui règne dans l’industrie des semi-conducteurs, Ronald Smith, un des dirigeants d’Intel affirme (juin 2001) : « Bien malin est celui qui prétend imaginer aujourd’hui les applications phares de la téléphonie de troisième génération. » En attendant la montre de poignet intégrant téléphone et accès à Internet… Déjà, Swatch a annoncé un accord avec AOL-Time Warner pour développer un tel objet, et Philips a présenté son Wristphone, un téléphone-montre ne pesant que 36 grammes. Le boîtier du futur cumulera les fonctions de microordinateur, d’appareil photographique, de console de jeux et bientôt de récepteur de télévision (sans oublier le téléphone…). Voyons plus loin. Le concept de réseau connaîtra des applications nouvelles et Internet aura des imitateurs. Donnons pour

42

INTRODUCTION AU SIÈCLE DES MENACES

exemple l’apparition d’une nouvelle infrastructure de calcul, appelée grille ou Grid, par analogie avec les infrastructures de distribution de l’énergie électrique. L’idée consiste à construire un superordinateur à l’échelle d’un pays, ou d’un continent, et peut-être du monde, en connectant plusieurs ensembles de micro-ordinateurs situés en des lieux différents, qui soient si bien reliés entre eux qu’ils formeraient une seule entité de calcul. La puissance informatique serait utilisée comme nous faisons de la puissance électrique pour nos besoins quotidiens, sans que l’on sache d’où elle vient. L’existence de réseaux à haut débit permet d’envisager l’exploitation de ressources dispersées (supercalculateur ici, bases de données là, aussi bien que capteurs, systèmes de réalité virtuelle ou simplement un très grand nombre de PC). Les premières technologies de grilles de calcul ont paru il y a quelques années sous le nom de Calcul global ou de Peer to Peer (Pair à Pair). Des puissances de plusieurs dizaines de téraflops (le flop est l’unité de puissance informatique) ont été obtenues à partir de PC connectés à Internet, alors que la puissance du plus gros calculateur connu est de 12 téraflops. Les projets européens DataGrid et EuroGrid s’appuient sur ce type de technologie. Ces modèles et logiciels ne constituent que les premières versions (encore très rudimentaires) des méthodes futures de calcul sur la grille. En 2002, la National Science Foundation a commencé l’installation du matériel nécessaire au développement de son TeraGrid. Une fois connecté à la grille, un calculateur de bureau acquerra la puissance de l’ensemble des ordinateurs connectés. Ainsi des groupes privés, comme les associations activistes, pourront se servir de ce moyen pour réaliser des simulations semblables à celles que de grands organismes utilisent pour le développement de mégaprojets, afin de comprendre leurs implications et au besoin les combattre. Leurs moyens d’action contre les États s’en trouveront accrus.

La loi de Moore montera-t-elle jusqu’au ciel ? Les composants électroniques resteront certainement sous l’emprise de la loi de Moore jusqu’aux environs de 2015, c’està-dire jusqu’à la limite des 0,1 µ (100 nm)19 pour les structures. 19. Un centimètre vaut dix mille microns (µ) et dix millions de nanomètres (nm) : 1 cm = 10 4 µ = 107 nm.

LE MOTEUR DE L’HISTOIRE

43

Que se passera-t-il quand le progrès des semi-conducteurs heurtera le « mur de briques rouges », dans une dizaine ou une quinzaine d’années ? Sans céder au futurisme ni à la science-fiction, nous proposons une réponse à cette question : l’industrie s’engagera alors dans la voie des nanocomposants et des nanosystèmes grâce à des percées scientifiques et techniques. Le domaine de la nanotechnologie est défini entre 0,1 et 100 nm, c’est-à-dire la dimension des atomes, molécules et macromolécules, alors que celui de la microtechnologie, où nous nous trouvons aujourd’hui, s’étend audessus de 100 nm. De telles perspectives ont été entrevues dès le 29 décembre 1959 par Richard Feynman dans son exposé visionnaire à l’American Physical Society20, intitulé « Il y a beaucoup de place au fond ». Feynman commence par montrer que l’ensemble des connaissances humaines pourrait être stocké dans un volume étonnamment petit, un cube dont l’arête mesurerait une centaine de microns. On retrouve bien ce résultat en supposant qu’elles soient contenues dans 25 millions de livres, que chaque lettre soit représentée par 6 bits et (voilà l’innovation) que chaque bit soit décrit par un cube de 5 atomes de côté. Il y a donc beaucoup de place au fond : ne me parlez plus de microfilm ! Les biologistes savent que toute l’information définissant l’organisation et le comportement d’une créature vivante complexe est stockée dans une fraction de cellule sous la forme d’une chaîne moléculaire d’ADN, au taux de 50 atomes par bit. Il vient alors à l’esprit de Feynman que des ordinateurs, puis des machines, puis des outils pourraient être construits à l’échelle atomique. Pourquoi ne pas réarranger les atomes un par un lorsque nous disposerons de microscopes électroniques aux performances améliorées qui n’auront même pas besoin de dépasser les lois de la physique telles que nous les connaissons ? Depuis ces paroles prophétiques, de nombreux laboratoires ont développé les moyens d’intervenir à la nanoéchelle. Le microscope à balayage à effet tunnel (STM), inventé en 1980, détecte les nanocourants qui circulent par l’effet quantique, dit tunnel, entre l’extrémité d’une pointe extrêmement fine et l’échantillon observé. Le microscope à force atomique (AFM) possède lui aussi une pointe fine, placée au bout d’un levier : elle touche la surface de l’échantillon et lorsqu’elle se déplace, elle est défléchie par les variations de la surface, et ainsi courbe le levier. Cette 20. R. P. Feynman, « There’s plenty of room at the bottom », Eng. and Sci., 23, 1960, 22-36.

44

INTRODUCTION AU SIÈCLE DES MENACES

courbure est détectée par un faisceau laser, avec une résolution à la dimension atomique. Les instruments STM et AFM appelés collectivement sondes microscopiques à balayage (SPM) peuvent non seulement produire des images, mais déplacer des atomes un par un, comme le laboratoire IBM à Zurich l’a démontré, dès 1990, en écrivant le nom de sa Société avec des atomes de xénon. De plus un AFM peut servir à produire des indentations à la surface, technique explorée par plusieurs groupes pour stocker des données avec des densités très supérieures à celles que permettent les disques durs. En même temps que se développait l’emploi de techniques nanométriques, des matériaux inédits devenaient disponibles. Découverts en 1985, percée qui a valu le prix Nobel de chimie en 1996 à ses inventeurs Richard Smalley, Robert Curl et Harold Kroto, les fullerènes, molécules de carbone pur en forme de nanocages, constituent la troisième forme allotropique connue du carbone avec le graphite et le diamant. Cette découverte a été suivie en 1991 par celle des nanotubes de carbone et d’une grande diversité de nouvelles nanostructures de carbone insoupçonnées jusqu’alors. Elles font aujourd’hui l’objet d’un intérêt extrême chez la plupart des pays industrialisés dans des domaines d’applications aussi divers que la chimie, la biologie, l’électronique, les matériaux, l’optique, l’énergétique, etc. Les nanotubes de carbone pourraient remplacer le silicium comme constituants de base de la nanoélectronique. Créés par une décharge électrique intense entre électrodes de graphite, ils se présentent sous la forme de pelotes de cylindres dont le diamètre vaut environ 1,4 nm. Certains de ces cylindres sont conducteurs, d’autres semi-conducteurs ou isolants. En avril 2001, IBM a fait savoir que trois de ses chercheurs avaient réussi à supprimer sélectivement tous les nanotubes métalliques d’un lot, n’y laissant subsister que les semi-conducteurs. La voie est donc ouverte à l’utilisation industrielle de nanofils, nanoconnecteurs et nanocomposants à l’horizon d’une dizaine d’années. IBM a récemment fabriqué l’élément de base de toute logique électronique, une porte NON, à partir d’un seul nanotube, soudé à deux fils métalliques au moyen d’un AFM. D’après Phaedon Avouris (2002), directeur de la recherche en nanoscience chez IBM, deux à trois ans s’écouleront avant que le travail ne commence sur des prototypes de chips en nanotubes, et au moins dix avant qu’ils ne soient présentés au marché. Deux obstacles restent à franchir. L’un est le raccordement d’un nanotube à une électronique constituée de nanotubes. C’est une chose de fabriquer un transistor ; c’en est une autre que

LE MOTEUR DE L’HISTOIRE

45

d’en connecter des millions entre eux. Le second obstacle est l’organisation de la production de masse. La lithographie employée aujourd’hui pour les minicomposants permet d’imprimer une grande quantité de circuits, tandis que la manipulation d’un nanocomposant se fait à l’unité, ce qui conduit à des coûts inacceptables. Alors que la miniaturisation, c’est-à-dire une approche appelée top-down (on reproduit en petit une structure déjà définie à une taille relativement grande), a permis les extraordinaires gains qui se concrétisent dans la loi de Moore, l’approche dite de nanofabrication et nanomanipulation suivra un chemin bottom-up : elle commencera à engendrer des nanoentités construites à partir de nouveaux objets sans équivalent dans le monde défini par les dimensions auxquelles fonctionne la physique classique, comme les nanotubes de carbone, et elle bâtira à partir de ces nanoentités des systèmes dont les propriétés obéiront à la mécanique quantique et non à la physique classique. À cette échelle, les propriétés traditionnelles des matériaux changent, le comportement des surfaces devient prépondérant par rapport à celui des volumes, car des forces nouvelles dites de Van Waals entrent en jeu. Si l’on choisit des matériaux qui ont de l’affinité l’un pour l’autre, on peut théoriquement les mélanger dans un bac sous conditions contrôlées et les voir s’unir d’eux-mêmes l’un à l’autre dans une configuration souhaitée. Cette opération est appelée auto-assemblage. Très répandu dans les systèmes naturels dont beaucoup, par exemple les systèmes biologiques, fonctionnent selon ce mode, c’est le type de l’approche bottom-up. Les nanotubes se prêteront-ils à ce type de manipulation sur eux-mêmes ? L’auto-assemblage a déjà permis de créer un « fil » conducteur large d’une seule molécule qui connecte les extrémités de deux fils d’or beaucoup plus gros. Cependant, un circuit est beaucoup trop complexe pour être fabriqué par auto-assemblage. Il faudra combiner cette technique avec quelque approche topdown, par exemple l’auto-assemblage des molécules sur un substrat déjà dessiné. La fabrication des transistors en carbone se passerait alors des coûteuses chaînes industrielles utilisées aujourd’hui en microélectronique ; les nanotubes seraient autoassemblés au niveau moléculaire par des micromachines qui contrôleraient le processus. Comme l’ADN et les protéines ont une dimension nanométrique, il est concevable de chercher à marier les matériaux de la physique des solides avec les systèmes du vivant, afin de tirer parti à la fois des propriétés électroniques ou optiques des uns, et des propriétés sélectives des autres : ainsi apparaissent, depuis

46

INTRODUCTION AU SIÈCLE DES MENACES

2000, les nanobiotechnologies, encore au stade conceptuel de leur développement. En particulier les capacités d’organisation et d’auto-assemblage de l’ADN permettent d’envisager son utilisation pour la fabrication des nanostructures. La double hélice bien connue, de largeur 2 nm et constituée d’une succession de bases nucléotides espacées de 0,34 nm, présente des ramifications, qui apparaissent lors de la recombinaison génétique. Au département de chimie de l’Université de New York, des points d’accroche ont été attachés à ces ramifications qui permettent à l’ADN de s’associer à d’autres brins de façon à former un réseau cristallin de jonctions. Des structures organisées à deux et trois dimensions ont effectivement été ainsi obtenues par auto-assemblage. Les brins d’ADN forment un échafaudage auquel il est possible d’attacher, soit des macromolécules, soit des nanocomposants électroniques. Autre exemple étudié à l’Université Purdue : autour d’un brin d’ADN utilisé comme axe ont été assemblés plusieurs brins d’ARN formant comme les dents d’un engrenage (à l’échelle moléculaire !). L’ARN a la propriété de fixer l’ATP (adénosine triphosphate), qui joue le rôle de transporteur d’énergie dans tous les organismes vivants. L’ATP est une grosse molécule de cent mille atomes, capable de convertir un potentiel électrochimique en énergie mécanique représentée par la rotation du filament. Ainsi obtient-on en alimentant le nanomoteur avec de l’ATP une rotation de l’ARN autour de l’ADN ! Un tel résultat s’inscrit dans la voie tracée par K. Eric Drexler21, qui avait déjà imaginé il y a vingt ans la fabrication de machines à l’échelle moléculaire, constituées de quelques dizaines ou centaines d’atomes. Ces assembleurs seraient capables de construire un matériel atome par atome ou molécule par molécule. D’où la création de structures inconnues dans la nature et que la chimie traditionnelle ne saurait pas fabriquer. Intervient ensuite un second concept : forcer ces machines moléculaires à se copier elles-mêmes ; les copies fabriquent d’autres copies qui etc., et s’assemblent, d’où la croissance exponentielle de micromachines qui permettrait de construire des objets à macroéchelle. En principe, de grandes structures complexes pourraient être élaborées avec une précision atomique à partir de matériaux aussi robustes que le diamant, ou de substances 21. K. Eric Drexler, Engines of Creation, New York, Anchor Press/Doubleday, 1986. K. Eric Drexler, Nanosystems, Molecular Machinery, Manufacturing and Computation, New York, John Wiley & Sons, 1992.

LE MOTEUR DE L’HISTOIRE

47

similaires dites « diamantoïdes ». Cette procédure, appelée fabrication moléculaire, permettrait par exemple d’obtenir des fibres renforcées de place en place par des nanocalculateurs incorporés. Et l’on voit émerger l’âge du diamant, ne serait-ce que dans le roman de science-fiction portant le même titre écrit par Neal McPherson. Nous n’y sommes pas encore. Les applications de la nanotechnologie se laissent aujourd’hui à peine entrevoir. Cependant quelques idées fournissent déjà des pistes. Les matériaux présentent un comportement nouveau à la nanoéchelle. Ceux auxquels nous sommes habitués apparaissent comme désordonnés à nanoéchelle, même dans les alliages les plus homogènes. Au contraire, un nanotube peut recevoir une forme parfaite et présenter des propriétés électriques et thermiques nouvelles. Quand des particules deviennent très petites, leurs propriétés mécaniques changent ainsi que la nature de leur interaction avec la lumière (la longueur d’onde de la lumière visible est de l’ordre de quelques centaines de nanomètres). Introduire des nanoparticules dans des matériaux composites modifie leur cohérence, leur solidité, réduit leur poids, augmente les résistances électriques et thermiques, et transforme leur interaction avec la lumière. En électronique, le bénéfice du travail au niveau nanoéchelle est entièrement dû à la manipulation de très petites dimensions. La capacité d’opérer sur des nanotubes ou d’autres structures moléculaires à des longueurs d’onde du rayonnement électromagnétique inférieures à celles aujourd’hui employées, nous offre le marteau-piqueur capable de démolir le « mur de briques rouges ». Les ordinateurs du futur pourront utiliser des molécules qui possèdent deux états quantiques comme base de systèmes digitaux. D’où le développement probable de nanocalculateurs fonctionnant avec des molécules organiques ou des nanotubes, de l’ADN ou des réseaux neuronaux artificiels, enfin des calculateurs photoniques où les photons remplacent les électrons. Déjà ZetaCore, une start-up de Denver, songe à commercialiser une nanomémoire utilisant le switching d’une molécule qu’elle a brevetée. Dans les sciences du vivant et la médecine, nous sommes devenus capables de mesurer et d’agir au niveau subcellulaire où les organismes vivants, de la bactérie jusqu’à nous-mêmes, remplissent l’essentiel de leurs fonctions. La société américaine Integrated a développé le prototype d’un détecteur portable d’agents biologiques, comme le bacille du charbon, qui se combinent à des fragments d’ADN montés sur une nanochip. Notre intrusion à cette échelle ne nous permet pas seulement de maîtriser le monde biologique, elle nous incite à imiter ses architectures. La tête d’un

48

INTRODUCTION AU SIÈCLE DES MENACES

insecte deviendra peut-être le modèle d’un nanosystème électromécanique intégré, y compris les capteurs (yeux, antennes), les actuateurs (mandibules, muscles, langue) et le calculateur central (cerveau). Citons l’opinion collective du très officiel comité de scientifiques, d’ingénieurs et de technologues réunis par l’IWGN22 : « L’impact sociétal total de la nanotechnologie devrait être beaucoup plus grand que celui du circuit intégré en silicium, parce qu’il est applicable à beaucoup d’autres domaines que l’électronique seule. »

Les opinions varient sur le moment où des composants obtenus par auto-assemblage entreront dans le marché commercial. Les pessimistes parlent de vingt ans. C’est peut-être sous-estimer l’impact des importants investissements récemment décidés, même s’il n’est pas aisé de définir les frontières de la nanotechnologie avec la microtechnologie. IBM a injecté 2,5 milliards de dollars dans une nouvelle usine près de New York, afin de produire en 2004 des puces avec une capacité de gravure à 100 nm. Il ne s’agit pas encore de nanotechnologie, mais, de toute façon, les progrès à 100 nm se répercuteront sur les progrès à l’échelle du nanomètre. Le président William J. Clinton a donné à la National Nanotechnology Initiative (NNI) le statut de priorité nationale pour les États-Unis, en proposant un budget de 495 millions de dollars en 2001 que le président George W. Bush a porté à 519 pour 2002. Le 3 décembre 2003, Bush a signé une autorisation de programme pour les nanotechnologies de 3,7 milliards de dollars portant sur quatre ans à partir d’octobre 2004. Les investissements consentis dans les nanotechnologies s’élèvent en Europe à 225 millions de dollars en 2001 et à 550 millions de dollars au Japon. Si la Chine a récemment revendiqué 200 millions de dollars de dépenses publiques sur ce marché, c’est en Amérique du Nord que se concentre l’essentiel des investissements industriels. Tim Harper, le fondateur de CMP Cientifica, un cabinet d’études européen de référence sur le secteur, souligne la nouvelle hégémonie américaine : la majorité des 435 sociétés liées aux nanotechnologies qu’il recense dans le monde sont en effet nord-américaines. Wall Street estime que l’on approche du moment où l’industrie pourrait absorber une importante injection de capital. 22. « US Interagency Working Group on Nanoscience Engineering and Technology Recommandation to OSTP », 10 mars 1999.

LE MOTEUR DE L’HISTOIRE

49

Estimé aujourd’hui entre 30 et 100 millions de dollars, le marché mondial des nanotechnologies devrait atteindre 1 000 milliards de dollars en 2015, selon la National Science Foundation. Dès lors, il n’existe aucun doute qu’avec les connaissances déjà acquises et le soutien financier des gouvernements et de l’industrie, la nanotechnologie connaîtra des percées techniques majeures dans les décennies qui viennent. Nous ne nous trompons pas en prévoyant une révolution. Avec ce nouveau paradigme, la loi de Moore ne s’arrêtera pas avant 2030… Un long chemin reste à parcourir, mais les chercheurs qui rêvaient il y a vingt ans avec Eric Drexler de créer des versions moléculaires de transistors, de fils et de microprocesseurs, travaillent effectivement sur ces concepts matérialisés aujourd’hui au laboratoire. On estime à cinq ans au plus l’apparition de circuits fonctionnels utilisables. Oui, en 2030 existeront des calculateurs, des mémoires, des microprocesseurs dont la masse sera zéro, la consommation zéro, le volume zéro (les valeurs réelles qu’on peut espérer atteindre se situent dans la gamme du décigramme, du milliwatt, du millimètre cube). S’ils n’existent pas en 2030, ils existeront en 2040… Nous pensons que la nanotechnologie commencera à influencer l’industrie dans une quinzaine d’années, et aura supplanté le silicium en 2030, ne lui laissant que des niches. Après vient l’âge du diamant… Dans Une vie après la vie23, Hans Moravec montre que la puissance des ordinateurs (mesurée en bits/seconde de puissance de calcul offerte par dollar constant) a varié entre 1900 et 1990 selon une exponentielle régulière, en dépit des changements radicaux de nature qu’ont connus les machines au cours du siècle ; elle a été multipliée par mille tous les vingt ans. « Si ce rythme de perfectionnement devait se poursuivre au-delà du début du siècle prochain, les dix téraops nécessaires pour un ordinateur équivalant à un homme seraient disponibles avant 2010 dans un supercalculateur à dix millions de dollars et dès 2030 dans un microordinateur à mille dollars. » La puissance de calcul d’un cerveau humain dans un composant pas plus gros qu’une tête de mouche, voilà ce que nous offre la technologie dans le siècle qui vient. Tout le monde, Oussama Ben Laden ou José Bové, pourra se la payer pour mille dollars. En raison de la miniaturisation des composants, les terminaux que seront les capteurs de diverse nature, avec leurs mécanismes d’accès et leurs processeurs intégrés, se compteront par 23. Hans Moravec, Une vie après la vie, Paris, Odile Jacob, 1992, p. 81.

50

INTRODUCTION AU SIÈCLE DES MENACES

milliards. Ils seront partout, surveillant l’environnement et notre propre corps. Un groupe, clandestin ou non, sera capable de créer par autoassemblage dans de modestes ateliers, des insectes munis d’ailes, porteurs au choix de virus ou de sarin, guidés à distance. Ils ne coûteront pas cher. On pourra en cacher des milliers dans les avions, ou les lâcher dans le métro. La créativité de la physique des solides ne faiblit pas. Elle crée une vague à la force de laquelle aucune structure sociétale ne résiste. Elle s’identifie au moteur de l’Histoire. Elle gonfle et dégonfle les marchés. Elle ouvre et ferme des usines. Elle mondialise. Elle transforme les mœurs. Elle règne. Elle va.

Chapitre II

LES INVARIANTS

Je remonte de siècle en siècle jusqu’à l’Antiquité la plus reculée ; je n’aperçois rien qui ressemble à ce qui est sous nos yeux. Le passé n’éclairant plus l’avenir, l’esprit marche dans les ténèbres. Cependant, au milieu de ce tableau si vaste, si nouveau, si confus, j’aperçois déjà quelques traits principaux qui se dessinent. Alexis de TOCQUEVILLE, De la démocratie en Amérique .

Rapidité L’importance de la place occupée par les composants dans l’ensemble des produits dits de « haute technologie » fait que l’ensemble des évolutions tend à suivre une loi exponentielle dotée d’une constante de temps très courte, de l’ordre de grandeur de celle de la loi de Moore. Jamais dans l’Histoire on n’a constaté une telle différence entre la constante de temps du progrès technique, qui est donc aujourd’hui d’environ deux ans, et le temps qu’il faut aux hommes pour assimiler l’évolution de leur société, la constante de temps psychosociale, que l’on peut chiffrer en première approximation à la durée d’une génération, c’est-à-dire trente ans au moins. Ce décalage est un fait fondamental. La réflexion de tous, des décideurs, aussi bien des hommes publics que des personnes pri-

52

INTRODUCTION AU SIÈCLE DES MENACES

vées, devrait aujourd’hui le prendre pour point de départ dans une réflexion sur l’avenir. Nous nous contenterons pour l’instant de constater qu’il est désormais impossible de se livrer à l’exercice qu’est la prospective puisque l’horizon est structurellement limité au court terme. Considérons en effet quelques-uns des changements qui se sont produits pendant notre vie. Il y a trente ans n’existaient pas : le mot software ou logiciel, le mot hardware qui désignait (en anglais) un marteau, les microprocesseurs, les disques durs, les VCR, les fibres optiques, les satellites de diffusion directe, CNN, les codes barres, les super- et hypermarchés, les PC, Microsoft, Internet, les munitions guidées par laser, la furtivité des avions de combat, le système spatial de localisation GPS, le sida ; les préservatifs avaient disparu. En revanche, nous avions : la télévision en noir et blanc, avec un à trois canaux par pays, des opérateurs monopolistiques pour les télécommunications, des caisses enregistreuses mécaniques et des petits commerces au coin de la rue, des règles à calcul à coulisse, des calculatrices mécaniques et des ordinateurs à bandes perforées, la radio par modulation d’amplitude, déjà des circuits à transistors, l’Union soviétique, le pacte de Varsovie, le mur de Berlin, la guerre froide et des armes nucléaires déployées. En 1949, Thomas Watson, le fondateur d’IBM, prédisait que le monde entier n’aurait pas besoin de plus de cinq ordinateurs. Le demi-siècle qui vient de s’achever a vu au contraire fleurir un milliard de PC. La courbe qui représente l’évolution comparée des très gros ordinateurs et des micro- est d’ailleurs fort intéressante, car les performances de ces catégories d’équipements augmentent toutes deux selon une loi exponentielle, mais la constante de temps n’est pas la même ! Il n’est pas étonnant que le pays d’où viennent toutes les innovations, la physique des solides, les composants, les micro-ordinateurs, les réseaux de communications y compris les satellites, les téléphones mobiles, c’est-à-dire les États-Unis d’Amérique, se transforme en une « hyperpuissance » par rapport aux autres nations et tente de leur imposer son rythme et ses idées. La philosophie américaine de l’économie et de la politique est bien résumée par une phrase prononcée au forum économique mondial de Davos : « Nous sommes passés d’un monde où le gros mange le petit à un monde où le rapide mange le lent1. » Et le premier chapitre de ce livre nous a fait entrevoir la tendance vers le zéro-temps. 1. Cité par T. Friedman, The Lexus and the Olive Tree, New York, Farrar, Straus & Giroux, 1999.

LES INVARIANTS

53

Alexis de Tocqueville a écrit, dans son livre paru en 1836 et intitulé De la démocratie en Amérique, une phrase que je considère après tant d’années passées outre-Atlantique, comme l’intuition la plus profonde de ce que sont les États-Unis : « Dans ce pays neuf, j’ai déjà trouvé des ruines. » Là-bas, on jette, vite. Les villes sont entourées de dépotoirs. Vers 1971, Time Magazine a illustré le propos de Tocqueville par une photographie représentant l’intérieur d’un immense atelier meublé de centaines d’établis parallèles, sans personne jusqu’à l’horizon. Aucun outil, sauf un fer à souder débranché. Elle avait pour titre : « Le dernier rivet du programme Apollo. » Même la Lune, on jette… Dans un paysage où les lignes de force sont exponentielles avec une constante de temps extraordinairement courte, il convient, pour prévoir les activités qui sont liées à cette évolution et souvent créées par elle, de dégager des invariants, c’est-à-dire des concepts qui sont autant que possible indépendants de la conjoncture. Nous essaierons d’en identifier quelques-uns. Comme le disait mon professeur de mathématiques, revenez aux définitions. En physique, beaucoup de phénomènes très différents, décrits par des disciplines qui semblent éloignées l’une de l’autre comme la mécanique quantique, l’électricité ou l’optique, présentent un comportement régi par les mêmes équations. Quelques idées simples peuvent nous aider à analyser l’impact du progrès technique et scientifique sur l’évolution actuelle de notre société. Premier de nos invariants, la loi de Moore commande aujourd’hui la perspective historique ; j’appuierai cette affirmation par un exemple que j’ai vécu et qui exigerait, il est vrai, un développement beaucoup plus ambitieux que les dimensions de cet essai ne le permettent. De 1966 à 1995, la France, sous l’impulsion primitive du général de Gaulle, s’est engagée dans une coopération spatiale de grande envergure avec l’Union soviétique. Je me suis rendu fréquemment dans ce pays, et j’ai eu la possibilité de le connaître et de rencontrer beaucoup de gens. Vers 1986, lors d’une conférence de presse à Moscou, on m’a demandé d’exposer mes vues sur la crise majeure déclenchée par la perestroïka de Gorbatchev, qu’aucun augure n’avait prévue, quoiqu’on en dise aujourd’hui. Mon explication a été la suivante et je continue à la croire correcte : il n’existait en Soviétie aucune circulation de l’information. Dans les laboratoires que je fréquentais, personne ne savait ce qui se passait dans son propre service, parfois pas même son chef. Nous avons nous-mêmes fourni aux organismes de recherche, nos partenaires, leurs seules machines à photocopier, et le papier en était mis sous clé dans le bureau du directeur. En 1972,

54

INTRODUCTION AU SIÈCLE DES MENACES

après une visite complète de la puissante station de télémesure et de télécommande interplanétaires d’Eupatoria en Crimée, je fis remarquer à mes guides que pendant toute la journée je n’avais pas aperçu une feuille de papier, et ils me répondirent : « C’est normal, tout est dans la tête du chef. » Cette méthode de micromanagement par le secret s’étendait au macromanagement de toute l’activité du pays, en dépit des discours sur les plans quinquennaux. Un directeur d’usine ne rendait compte ni au gouvernement qui fixait ses objectifs, ni au personnel privé de syndicats, encore moins à la presse ou au public. Le système s’est effondré sous Leonid Brejnev lorsqu’il s’est engagé dans des projets pharaoniques reposant sur la technologie moderne, qui ne pouvaient pas réussir sans une circulation élaborée de l’information, tels que les centrales nucléaires, les programmes spatiaux Energya et Bourane, le sous-marin de vingt mille tonnes et la guerre d’Afghanistan. Là se perdaient d’immenses investissements, sans aucun succès, alors qu’ils auraient été indispensables pour améliorer le niveau de vie des masses. En Occident, l’équivalent de ces activités privilégiées se déroulait dans le monde ouvert de l’industrie moderne, régie par la loi de Moore. Aux habitudes ancestrales russes s’est ajouté le fait que la loi de Moore n’a pas joué en Soviétie par suite du retard de l’industrie, de son incapacité à accepter et à promouvoir la novation et de son mépris de l’utilisateur. Un hiatus s’est creusé avec le monde extérieur, et les facteurs exponentiels ont amené la soudaineté de la catastrophe. Il faut noter que la révolution a été entamée par les seuls services informés à la fois de la situation intérieure soviétique et des progrès du monde capitaliste, ceux du KGB dirigé par les Andropov et les Gorbatchev. L’explication proposée ici pour la chute de la Soviétie rejette la stupide légende répandue aux États-Unis selon laquelle le programme, dit « Guerre des étoiles », adopté par le président Ronald Reagan, aurait forcé les Soviétiques à des dépenses exorbitantes, leur cassant les reins. Or ces dépenses n’ont pas eu lieu, et si elles avaient eu lieu, leur effet se serait seulement fait sentir alors que la perestroïka était déjà en route. D’après ce que m’a dit à l’époque mon ami Roald Sagdeev, conseiller spatial de Mikhaïl Gorbatchev, le gouvernement soviétique estimait que le bouclier spatial américain serait facilement saturé et donc percé par de nombreux tirs de missiles et qu’il était ainsi inutile de modifier la stratégie de défense adoptée par la Soviétie depuis de nombreuses années. Roald a d’ailleurs signé avec Eugène Velikhov, vice-président de l’Académie des sciences de l’URSS et conseiller de Gorbatchev en

55

LES INVARIANTS

matière nucléaire, un rapport officiel2 rédigé dans ce sens par un comité d’experts soviétiques. En fait, l’évolution a été mondiale et dépasse le cadre de l’exSoviétie. La chute du mur de Berlin n’a pas été qu’un événement localisé en Europe. Il est tombé ce mur, à l’Est et à l’Ouest, au Nord et au Sud ; tous les pays et tous les acteurs économiques ont subi le choc en même temps, même si les murs qui tombaient chez eux n’étaient pas matériels. L’événement n’a pas été dû à l’impact des péripéties politiques, mais a découlé directement de la loi de Moore : nous sommes passés soudain d’un monde fragmenté en enclaves multiples à un monde global lorsque, à la fin des années 1980, les évolutions des méthodes de communication et d’information sont devenues si rapides qu’elles se sont transformées en une révolution. En peu d’années, cette révolution a donné naissance au monde d’aujourd’hui, celui qui est divisé en deux, le monde rapide et le monde lent. La division ne coïncide pas avec les frontières.

Saturation L’expérience la plus élémentaire m’apprend que si un pain est servi sur ma table, je ne peux en manger plus qu’il n’y en a. Mon repas possède un invariant, la quantité de pain disponible. Il sera caractérisé par le rythme auquel j’avale, mesuré par le nombre de bouchées par unité de temps. Je commencerai lentement pour apprécier la saveur, puis je passerai à une vitesse régulière quasi constante pour l’essentiel du repas et enfin la satiété me fera ralentir jusqu’à m’arrêter à consommation complète. La courbe figurant la quantité de pain mangée en fonction du temps, dite courbe de saturation, présente trois segments successifs : un démarrage, une région à pente constante, et enfin un infléchissement jusqu’à un palier constant. Cette évolution est caractéristique de toutes les situations où la ressource consommée est finie. Voici plusieurs exemples de telles ressources finies. L’EAU POTABLE

L’eau douce, celle des cours d’eau, des fleuves, des lacs et des nappes souterraines, ne représente qu’environ 3 % du stock d’eau mondial ; elle est presque entièrement prisonnière des calottes 2. E. P. Velikhov, R. Z. Sagdeev et Andrei Kokochine, Weaponry in Space : The Dilemna of Security, Moscou, Mir Publishers, 1986.

56

INTRODUCTION AU SIÈCLE DES MENACES

glaciaires ; seul 0,014 % de cette eau est directement utilisable par l’homme. Le montant annuel des ressources disponibles permet d’offrir à 6 milliards d’êtres humains 2 300 m3 (6 400 litres quotidiens). Cette ressource est inégalement distribuée. Par exemple, dans le bassin méditerranéen, abondance et rareté coexistent : le Nord est doté de 72 % des ressources, l’Est de 23 % et le Sud de 5 %. Les ressources naturelles disponibles sont de plus de 10 000 m3/an/ hab. en moyenne dans les Balkans contre 167 en Libye et moins de 50 à Malte et en Jordanie. La plaine du Nord qui représente les deux tiers de la surface de la Chine et lui fournit la moitié de sa récolte de blé, ne dispose que de 19 % de ses ressources en eau. La ressource est mal gérée. Un habitant sur cinq de la planète n’a pas d’eau potable. Au cours du XXe siècle, les prélèvements d’eau ont été multipliés par 6 alors que la population ne croissait que d’un facteur 3. Elle est menacée par l’exploitation d’aquifères fossiles non renouvelables (partout en Asie, en Libye et en Jordanie), par la pénétration d’eau de mer dans les nappes côtières du fait de leur exploitation excessive, par des pollutions diverses d’origine agricole, industrielle ou provoquées par le rejet des eaux usées. Elle est enfin gaspillée par des infrastructures obsolètes : irrigation massive, réseaux d’eau non entretenus, prolifération de barrages dont la durée de vie est courte (trente à quarante ans) du fait de leur comblement par les sédiments et dont l’efficacité est dégradée par l’évaporation ; par l’utilisation de l’eau potable à des usages non nobles (arrosage, lavage de voitures…) ; par des choix sociétaux : la production d’un kilogramme de blé nécessite entre 380 et 950 litres d’eau et celle d’un kilogramme de bœuf entre 7 500 et 32 000 litres. La moitié des ressources mondiales est déjà exploitée. La disponibilité de l’eau potable a diminué de 60 % en Asie dans les cinquante dernières années. Or la demande en eau va croître de 40 % en vingt ans, à un rythme qui est au moins le double de la croissance démographique. D’après la Banque mondiale, au moins 40 % des huit milliards d’individus qui composeront alors la population mondiale souffriront de pénurie d’eau. En 2050, leur nombre atteindra quatre milliards. Dans la zone méditerranéenne, la population en 2050 sera trois fois supérieure à celle de 1950. Cette croissance entraînera une augmentation de la consommation, de 50 % déjà en 2025. Les ressources par habitant tomberont au-dessous du seuil de pénurie, chiffré à 1 700 m3 par an, pour 85 à 138 millions d’habitants de huit pays de la Méditerranée. L’effet démographique sera aggravé par une urbanisation et une concentration des hommes

LES INVARIANTS

57

et des activités sur la zone littorale. La mise en place d’infrastructures lourdes pèsera sur le coût de cette distribution. L’augmentation de population induira par ailleurs une augmentation du besoin en produits alimentaires du même ordre (50 %), lesquels accroîtront le besoin en eau, renforçant ainsi le déséquilibre de la disponibilité des ressources en eau entre le Nord et le Sud. Les ressources en eau sont affectées en majorité au secteur agricole qui est l’activité dominante des pays pauvres, en dépit du fait qu’aucun de ces pays ne parvient à l’autosuffisance alimentaire. Aujourd’hui, l’agriculture absorbe 60 % des prélèvements d’eau (82 % au Sud) dans le bassin méditerranéen, soit 160 milliards de mètres cubes, devant l’industrie (20 %) et les ménages (10 %). La quantité utilisée pour l’irrigation est corrélée avec le degré de développement du pays considéré : moins le pays est développé, plus il consomme pour irriguer. Malheureusement, la consommation d’eau pour l’agriculture est sans commune mesure avec la « valeur ajoutée » par cette utilisation dans la formation du PIB. Par exemple, en Israël, le secteur agricole représente 72,4 % de l’utilisation d’eau, mais ne participe que pour 2,9 % au PIB. L’irrigation est d’autant plus consommatrice d’eau qu’elle fait l’objet de gaspillages importants. Les pertes peuvent s’élever jusqu’à 50 %, notamment par évaporation durant le stockage, par transport lors de la dérivation sur des dizaines, voire des centaines, de kilomètres de désert en l’absence de canalisations adéquates, par mauvais réglages des apports aux champs, par une faible efficacité des systèmes d’irrigation et par des choix de cultures trop consommatrices. Et pourtant, les pays sous-développés donnent la priorité à court terme à l’agriculture pour remédier à l’insuffisance alimentaire, alors que l’allocation du volume d’eau à l’agriculture devrait être réduite. Nombre de ces pays stagnent dans une logique d’épuisement de leurs ressources. Les besoins en culture prévus autour de la Méditerranée pour 2025 exigeront huit cents milliards de mètres cubes d’eau supplémentaires. Personne ne sait comment la fournir. Le progrès technique peut-il y parvenir ? On parle d’irrigation goutte à goutte, qui pourrait réduire de moitié ou d’un tiers, selon les estimations, la demande en eau des exploitations agricoles par rapport à la consommation des méthodes classiques d’irrigation, mais le coût en est dissuasif pour les pauvres gens et pour les pays pauvres : moins de 1 % des champs sont ainsi traités. Le recyclage des eaux usées, l’arrosage par aspersion restent et resteront des pratiques marginales. De toute façon, l’irrigation ne vaincra pas à elle seule la faim de

58

INTRODUCTION AU SIÈCLE DES MENACES

centaines de millions de familles de cultivateurs misérables, particulièrement en Asie et en Afrique où sévissent de longues périodes de sécheresse. Quant au dessalement de l’eau de mer, par distillation ou, mieux, par osmose inverse, il fournit aujourd’hui moins de 1 % de l’eau potable mondiale en dépit du fonctionnement de 12 500 usines. On n’imagine pas qu’il apporte une solution au problème qui se posera demain à trois milliards de personnes. Le moment où les crises se déclencheront est déterminé par celui où la courbe de consommation atteindra le palier de saturation. Il est difficile de le prévoir, puisqu’il faut pour y parvenir établir un bilan complet des ressources (niveau de saturation) et des besoins (pente de la courbe). Supposons qu’on y réussisse, grâce entre autres à des mesures globales et locales faites par satellites : Nasa a lancé le 4 mai 2002 le satellite Aqua dévolu à ce type d’observations. Pour 1 milliard de dollars, le satellite observera les nuages, l’évaporation, la précipitation, l’humidité de l’air, la formation de neige et de glace, les aérosols et même le phytoplancton grâce à la couleur de la mer, bref, d’après Claire Parkinson, directeur scientifique du projet, « il nous renseignera sur l’eau sous toutes ses formes », sur la planète entière. Tout en reconnaissant le grand intérêt et, en fait, la nécessité de telles missions, et supposant son succès total, nous devons avouer que la situation de l’humanité souffrante n’en sera guère améliorée, car il n’est possible d’agir sur aucun des facteurs de la consommation. Les pays développés géreront mieux leurs ressources en eau déjà abondantes, mais les hordes du tiers-monde n’en mourront pas moins de soif. La connaissance ne suffit pas dans un monde en marche sur la route de sa destruction. Dans les mégapoles indiennes que je fréquente, où s’entassent des millions d’individus, les nappes phréatiques fossiles ont disparu par suite de l’augmentation récente de la population. Qu’arrive-t-il quand la mousson manque ? Plus de 40 % de la population mondiale dépend des ressources en eau partagées par plusieurs pays ; c’est le cas pour 50 % de la population en Afrique du Nord et au Moyen-Orient. Le problème de l’eau y a représenté l’enjeu de plusieurs conflits et engendré des tensions. Commencé en 1980, l’aménagement du Tigre et de l’Euphrate par la Turquie menace de réduire le débit de l’Euphrate de 40 % pour la Syrie et de 75 % pour l’Irak. En 1990, la Syrie et la Turquie ont frôlé la guerre à ce sujet. L’irrigation au Bangladesh nous offre un exemple symbolique des déboires inattendus que rencontre la politique du développement lorsqu’elle est plaquée par les spécialistes sur la complexité

LES INVARIANTS

59

de la biosphère3. À la fin des années 1960, plusieurs organisations internationales, dont l’Unicef, ont dépensé des millions de dollars pour forer une dizaine de millions de puits au Bangladesh, dans le but d’empêcher les populations de consommer les eaux de surface, polluées par des bactéries pathogènes. À partir de 1992, on a constaté que certaines nappes phréatiques contenaient plus de 0,05 mg/l d’arsenic, valeur cinq fois supérieure à la norme de tolérance acceptée par l’OMS. Sept mille malades souffrent de graves intoxications et, si l’on raisonne sur les normes de l’OMS, une cinquantaine de millions de Bangladais sont potentiellement exposés à cette pollution dans toute la contrée qui s’étend entre Dacca et la mer. LA NOURRITURE

Dans son Essai sur le principe de population paru en 1798, Thomas Malthus constate que la population s’accroît selon une loi géométrique, de sorte qu’elle double en vingt-cinq ans, alors que les subsistances produites par cette population augmentent selon une progression arithmétique. Au bout de deux siècles, écrit-il, la population sera multipliée par rapport aux subsistances comme 256 à 9, et comme 4 096 à 13 au bout de trois siècles. La suite a montré, du moins aux XIXe et XXe siècles, que Malthus s’était trompé, pour deux raisons. La première est l’apparition d’un phénomène qu’il n’avait pas prévu, la baisse de la fécondité humaine avec l’élévation du niveau de vie. Tous les pays considérés aujourd’hui comme développés ont vu le nombre moyen d’enfants par femme divisé par un facteur supérieur à 2 depuis l’époque de Malthus. Si cette évolution avait commencé dans certains pays comme la France dès la fin du XVIIIe siècle, elle s’est généralisée vers les années 1965-1970 où le taux mondial de croissance annuelle présente un maximum d’environ 2,1 % après lequel il a commencé à décroître. Son fléchissement jusqu’aux valeurs actuelles d’environ 1,8 %, traduit la diminution de la fertilité dans des pays aussi populeux que la Chine, l’Inde, le Brésil, l’Indonésie, l’Égypte, la Corée, le Mexique, la Thaïlande. La seconde raison pour laquelle les prévisions de Malthus ont été démenties est qu’il n’a pas tenu compte du progrès technique, et donc de la possibilité pour l’humanité d’améliorer l’efficacité de son exploitation des ressources terrestres. Par exemple, la « révolution verte » commencée vers 1965 a permis à la population de l’Inde et de l’Asie du Sud-Est de croître, tout en améliorant son 3. Charles Harvey et al., Science, 298, 22 novembre 2002, p. 1602-1606.

60

INTRODUCTION AU SIÈCLE DES MENACES

niveau de vie. La production mondiale de céréales a augmenté d’un facteur 2,7 de 1950 à 1991, alors que la surface qui leur était consacrée n’a augmenté que de 17 %. La zone de saturation a été repoussée vers le haut. Une autre méthode a été utilisée en Europe pour desserrer le carcan malthusien, celle de l’ouverture d’un domaine vierge encore non saturé, à savoir l’espace géographique. Le trop-plein d’Européens s’est déversé sur toute la Terre. Le plus célèbre exemple est celui des Irlandais réduits à la famine de 1846 à 1849 par la maladie de la pomme de terre et émigrant en masse aux États-Unis, mais la plume se lasserait de les citer tous. Le XXIe siècle ne peut compter sur une telle solution : tout espace occupable est désormais occupé. Dans un milieu où règne la complexité, c’est-à-dire où coexistent de nombreux paramètres couplés dont certains n’ont pas même été identifiés, tout phénomène, quelle que soit la robustesse apparente de la loi d’évolution qu’il suit à un moment donné, tend vers la saturation. La Bourse dit que les arbres ne montent pas jusqu’au ciel. N’avait-on pas prédit il y a quelques dizaines d’années que la croissance exponentielle du trafic aérien amènerait bientôt toute l’humanité à se trouver dans un avion ? L’évolution historique répond donc au progrès technique par une croissance aboutissant à un palier de saturation, que l’introduction d’une nouvelle technologie déplace vers le haut pour permettre la reprise de la croissance jusqu’à un autre plateau de saturation. En ce qui concerne le domaine particulier de l’agriculture, le progrès technique se produit simultanément sur plusieurs fronts, celui des herbicides dont le glyphosate, commercialisé sous le nom de Roundup par la société américaine Monsanto, est aujourd’hui l’un des plus répandus et des plus efficaces, celui des engrais, c’est-à-dire surtout des nitrates et phosphates, enfin celui des semences que la génétique a rendues résistantes aux maladies, aux parasites et aux variations climatiques extrêmes. L’introduction de l’ingénierie génétique a pour avantage de jouer finement sur telle ou telle caractéristique du végétal ou de l’animal considérés comme des choses, en agissant sur les gènes une fois leur fonction identifiée. La plupart des espèces d’intérêt commercial ainsi transformées sont des plantes de grande culture dans le génome desquelles on a transféré un gène porteur d’un caractère avantageux. On aboutit aux organismes génétiquement modifiés (OGM) ou transgéniques, chéris des grandes sociétés comme Monsanto qui se voulait le « Microsoft de l’agriculture », d’abord intéressée à introduire une sélectivité parmi les plantes cultivées, comme la résis-

LES INVARIANTS

61

tance au Roundup qui permettrait d’accroître les ventes de ce produit, mais bientôt, poussée vers la généralisation par son patron Bob Shapiro. Adepte d’une véritable doctrine du développement génétique, Shapiro n’a pas hésité à affirmer que la loi de Moore s’appliquait désormais à la création d’êtres vivants génétiquement modifiés, à condition de considérer au lieu du nombre de transistors par puce le nombre de gènes identifiés chaque année dans les laboratoires. Malthus serait alors définitivement vaincu par la loi de Monsanto qui entraînerait une croissance exponentielle du nombre de produits innovants. Ont été mises sur le marché de nombreuses plantes munies d’un génome résistant au Roundup, telles que le soja, le maïs, la pomme de terre, la tomate et le tabac. Entre 1996 et 1998, la surface des cultures correspondantes est passée de 2,8 à 28 millions d’hectares. Dès 1998, les plantes de la liste précédente rendues résistantes à un herbicide ou à des insectes par une manipulation génétique représentaient respectivement 71 % et 28 % des semailles américaines. L’administration sous le président Clinton a pris des mesures de soutien pour augmenter la vente des OGM dans lesquels les grandes sociétés et les fermiers avaient investi des capitaux considérables. On a même vu un sénateur américain parcourir l’Europe pendant l’été 2000 et traiter de fous les attardés qui ne comprenaient pas comment on pourrait enfin nourrir les peuples des pays sous-développés. Des péripéties peuvent masquer la marche en escalier de l’évolution. L’Union européenne s’est opposée avec succès à l’introduction de semences génétiquement modifiées venues des États-Unis et elle a même convaincu les autorités américaines de la nécessité d’étudier expérimentalement les effets des OGM sur les écosystèmes. Le soufflé est retombé provisoirement, Shapiro a été renvoyé pour mégalomanie, le puissant Monsanto partiellement démembré et racheté par Pharmacia Corp. Mais si Monsanto a nuancé sa politique de communication en développant des partenariats de recherche avec des instituts de pays du Sud (Inde, Mexique), pour étudier des nutriments de cultures vivrières ou participer à des expériences de microcrédit en Indonésie, au Mexique et au Kenya, le tout dans le but de faire décoller l’économie de régions rurales déshéritées, son message ne change pas : les OGM constituent la seule réponse au problème de la famine dans le monde. Monsanto n’a pas absolument tort. En dépit des turbulences, il n’y a aucun doute qu’une expérimentation bien conduite aboutira, dans un futur assez proche, à la mise sur le marché et à l’adoption de nombreux OGM, car il sera utile d’élever la limite de saturation pour nourrir les affamés, même si le problème de la faim comporte d’autres facteurs plus importants

62

INTRODUCTION AU SIÈCLE DES MENACES

que la production4. De même, l’éclatement en 2001 de la bulle spéculative qui avait accompagné l’évolution de la technologie de l’information dans les cinq dernières années ne marque pas la saturation d’une tendance technique installée dans la durée ; elle ne correspond qu’à une fessée administrée aux goinfres, et elle sera suivie par une reprise, déjà en route. L’histoire du XXe et du XXIe siècle est et sera marquée par les paliers successifs de saturation dans l’exploitation des différentes ressources, mais l’idée fondamentale de Malthus demeure : tout en haut des courbes de croissance, il existe pour chacune d’entre elles une zone de saturation ultime, car la Terre ne contient pas de richesses infinies. Et quelque puissants que soient le progrès technique et l’inventivité de notre espèce, elle se heurtera partout à des « murs de briques rouges ». Ainsi la « révolution verte », si elle a augmenté les rendements, a-t-elle asservi les agriculteurs du monde entier à la nécessité d’utiliser en quantité des produits chimiques coûteux. Elle a causé l’exil des populations rurales, détruit les sols, les eaux, les fondements sociaux millénaires de nombreux pays5. Ces dislocations ont nourri l’augmentation des naissances, l’urbanisation, la perte de pouvoir social, déchaînant un nouveau cycle d’appauvrissement et de famine. Autre exemple. En mai 2002, le commissaire européen à l’agriculture et à la pêche constate que le nombre des bateaux de pêche affrétés par l’Union est supérieur de 40 % à une valeur compatible avec la gestion durable des stocks de poissons. Il estime impératif de réduire dès maintenant la flotte par un pourcentage similaire afin de freiner le dépeuplement : ainsi la prise annuelle de colin est-elle passée de 42 000 tonnes dans les années 1960 à 80 000 tonnes aujourd’hui. Les captures éliminent des poissons trop jeunes pour s’être déjà reproduits et trop petits pour être commercialisés. Les populations de harengs, de merlans, de cabillauds et d’églefins ont diminué respectivement depuis vingt ans de 50 %, 60 %, 70 % et 80 % dans les zones fréquentées par les pêcheurs européens. La lotte, le merlu, la langoustine et le mérou européen sont aussi en danger. La surpêche par les chalutiers-usines, le chalutage aveugle, la pose de filets « murs de la mort » de 30 kilomètres, le braconnage, bref l’impéritie des hommes de la mer et l’appât du profit ont porté, ici ou là, un coup quasi fatal à des réserves naturelles d’animaux considérées longtemps comme inépuisables. « L’effondrement des 4. Voir chapitre IX. 5. Vandana Shiva, The Violence of the Green Revolution : Third World Agriculture, Ecology and Politics, Londres, Zed Books, 1991.

LES INVARIANTS

63

stocks surexploités est un symptôme non contesté6. » L’origine de l’évolution actuelle remonte à la signature en 1982 de la Convention sur le droit de la mer sous les auspices de l’ONU, qui confiait aux pays côtiers (jusqu’à 200 milles) la responsabilité de gérer la pêche maritime. Les gouvernements américain, canadien et européens ont alors subventionné l’expansion de leur flotte nationale pour remplacer les étrangers exclus. Des bateaux plus grands et plus modernes ont permis une forte augmentation des captures jusqu’à un maximum de 90 millions de tonnes en 1990. Les prises ont ensuite commencé à baisser. Avec les progrès des techniques de capture, les pollutions industrielles, urbaines ou agricoles, les dérèglements climatiques entrent aussi pour beaucoup dans une dégradation voisine du désastre. Un désastre qui se confond avec l’absurde quand, au large de la Scandinavie, les navires aspirent avec des pompes géantes des sprats et des lançons agglutinés pour les transformer ensuite en farines et granulés, nourriciers des saumons d’élevage. À l’avertissement de la Commission, tollé chez les marins qui semblent ignorer que, sans poissons, il n’y a pas de pêcheurs. Ils devraient pourtant se rappeler un précédent : la surexploitation des bancs de morues au large des côtes canadiennes y a fait disparaître cette espèce, absente encore aujourd’hui après dix ans d’interdiction de pêche. L’effondrement des populations était venu en 1991 de facteurs accumulés : l’appât du gain, la redoutable efficacité des techniques, les modes de vie de ce poisson, la fragilité de ses larves, sa place dans la chaîne alimentaire, le rôle de son plus grand prédateur, le phoque, nouvellement protégé, les modifications du milieu (température, salinité), les fraudes et le poids des prises des flottes étrangères. Non, pour les marins, le coupable, c’est la Commission qui a le tort de sonner l’alarme. Heureusement les ministres français et espagnol réagissent contre les bureaucrates bruxellois et contre les scientifiques pour éviter la réduction des quotas de pêche. Leur solution consiste peut-être à remettre du cabillaud et du merlan dans la mer… Au sommet de Copenhague, le 13 décembre 2002, le président Chirac affirme que « les recherches de fond, scientifiques, n’ont pas été faites à un niveau acceptable ». Pourtant la comparaison de l’évaluation du potentiel halieutique effectuée il y a trente ans par la FAO, avec la situation présente, démontre une excellente connaissance des ressources par les scientifiques honnis. Pendre le messager apporte un remède facile aux mauvaises nouvelles qu’il transmet. 6. Lucien Laubier, Exploitation et surexploitation des ressources marines vivantes, Paris, Rapport de l’Académie des sciences, 2000.

64

INTRODUCTION AU SIÈCLE DES MENACES

Quant à l’aquaculture, qui se développe rapidement et qui concerne essentiellement le saumon, le bar et la daurade (et bientôt le grossissement des thons), il serait illusoire de croire qu’elle puisse un jour prochain empêcher la baisse des populations de poissons sauvages : pour obtenir un kilo de poissons d’élevage, il faut quatre kg d’aliments composés, en général à partir de farine de poisson. Un kilo de crevettes en exige cinq. L’aquaculture provoque elle aussi un appauvrissement des ressources vivantes en mer. « Bien qu’elle fournisse près de 40 % de la production d’animaux aquatiques par la pêche, elle n’apporte aucune solution à la conservation des ressources vivantes sauvages et de l’environnement soumis à une pression anthropique croissante7. » Un programme spatial qui se fait aisément approuver par les hautes instances politiques est celui d’aide à la pêche : grâce à la mesure de la couleur de la mer à partir de satellites, il permet de déterminer les zones de concentration du phytoplancton et donc de situer les poissons, comme si le problème était d’en prendre plus. Il faudrait évidemment en prendre moins. Dans ce cas comme dans bien d’autres, le progrès technique rapprochera le temps où éclatera la crise, sans la résoudre : la limite de saturation est dans ce cas infranchissable. La seule aide possible à la pêche est d’ordre social ; on devine comment se terminera l’évolution en cours. Mer sans poissons, subventions.

Pustulation La croissance de la population mondiale est un fait que personne ne nie. Les avis divergent lorsqu’il s’agit d’extrapoler la tendance actuelle. Un phénomène de saturation se dessine et le nombre des humains, d’environ 6 milliards en l’an 2000, pourrait plafonner selon les experts à des valeurs comprises entre 9 et 12 milliards vers le milieu du siècle. Ce qui n’est pas discuté, c’est la croissance urbaine8, dont l’essentiel s’est accompli dans le dernier tiers du siècle. En cent ans, la population urbaine a été multipliée par vingt pendant que la population totale ne faisait que quadrupler. La proportion de la première à la seconde est passée de 5 % en 1800, à 10 % en 1900, puis à 50 % en 2000 et pourrait s’élever à 80 % dès 2050. On compte chaque année 30 millions de citadins supplémentaires. Nous sommes là encore devant une croissance exponentielle, de 5 % par an pour les pays non déve7. Ibid. 8. World Urbanization Prospects, Division de la population, ONU, 2000.

LES INVARIANTS

65

loppés, 3 % pour l’ensemble des pays en voie de développement et 1 % pour les pays industrialisés9. Il n’existait au milieu du XXe siècle que 2 métropoles de plus de 10 millions d’habitants ; il y en a 19 en l’an 2000, auxquelles s’ajoutent 22 agglomérations de 5 à 10 millions d’habitants et 370 de 1 à 5 millions. Partout l’urbanisation progresse : des 41 agglomérations de plus de 5 millions d’habitants, 33 appartiennent aux pays du Sud. Mais le taux de croissance des plus grandes villes du Sud diminue, particulièrement à partir de la dernière décennie, pour tomber de 5 % à 1 % par an (à 0,3 % pour les grandes métropoles du Nord). Souvent, en effet, la croissance urbaine crée des besoins qui excèdent les moyens disponibles pour la traiter, et elle s’accompagne d’une augmentation de la pauvreté, de conditions de vie intolérables, de conflits ethniques et d’une détérioration générale de l’environnement ; la saturation des moyens conduit au ralentissement de l’accroissement local de la population. On devrait donc assister, plutôt qu’à l’hypertrophie illimitée de quelques gigantesques mégapoles, à la multiplication du nombre des villes de 5 à 20 millions d’habitants, surtout situées en Afrique, et à un moindre degré, en Asie et en Amérique latine : ainsi Dacca, qui occupait la vingt-cinquième position dans le classement mondial en 1990 et la onzième en 2000 (12,3 millions d’habitants) pourrait monter à la sixième place en 2010 avec 18,5 millions d’habitants ; de même Lagos qui était vingt et unième en 1990, est sixième en 2000 (13,4 millions d’habitants) et devrait devenir la troisième en 2010 (20,2 millions d’habitants) ; Shanghai et sa zone économique voisine de Pudong verront leur population croître de 19 % par an, et ce, pendant vingt ans. L’emprise spatiale de ces grandes villes progresse à un rythme plus rapide que leur croissance démographique, par suite de leur envahissement anarchique des périphéries. Or c’est dans les villes des pays les plus pauvres, où les populations majoritaires sont les plus démunies, que les relais de l’économie mondiale fonctionnent avec la plus faible efficacité. Ainsi les mégapoles des pays d’Afrique souffrent-elles d’une pénurie permanente d’essence et d’électricité. Un milliard de personnes – un citadin sur trois – vivent dans des taudis ou occupent illégalement leur logement. Parce qu’elles concentrent une part croissante de la population, les villes consomment de plus en plus d’eau dans des régions qui, souvent, en manquent chroniquement, et rejettent de plus en plus de déchets et d’effluents ; elles sont le lieu où se consomme la 9. Chiffres moyens réels pour la période 1970-1995, chiffres estimés pour la période 1995-2015.

66

INTRODUCTION AU SIÈCLE DES MENACES

majeure partie des ressources énergétiques mondiales. Leur expansion est si rapide qu’elles sont souvent incapables de l’accompagner par le traitement des déchets et l’approvisionnement en eau potable. Au lieu de constituer des pôles de développement, les grandes villes du Sud au profit desquelles les campagnes désertifiées se vident, fonctionnent comme un puits de ressources constamment dévorées pour la plus grande croissance des montagnes d’ordures. Adoptant le terme mathématique qui décrit le fait qu’une fonction varie dans une région de l’espace, nous appellerons régions de gradients ces territoires centrés autour d’une vaste conurbation improductive et dévoratrice : gradients de population passant du maximum de la ville au minimum des campagnes environnantes, gradients de consommation, de pollution et peut-être surtout de mœurs : observez le gradient de vociférations entre les quartiers islamistes de Peshawar et les âpres montagnes du Baloutchistan. L’invariant que nous identifions ici est l’augmentation continue du nombre des villes-gradients jusqu’à 80 % de la population totale au moins. Le rassemblement humain, qui s’accomplit en dehors de tout appel économique, y est alimenté tant par la rupture des équilibres séculaires entre les taux de natalité et de mortalité dans les zones où l’économie traditionnelle suffisait à peine à nourrir la population quand elle était en équilibre, que par le dynamisme démographique des grandes métropoles, dû à la grande jeunesse de leurs habitants. Les deux effets sont du même ordre de grandeur. Déjà 40 % de la population du Sud vit dans les villes et ce chiffre atteindra 50 % en 2020. La population de Kinshasa a doublé 8 fois depuis 1920 (aujourd’hui 6 millions de citadins). Les 80 % seront prêts d’être atteints en 2050, alors que ces villes ne seront pas entourées d’un hinterland favorable. Un tel pourcentage s’observe déjà en France, mais la situation n’y correspond pas aux gradients que nous venons d’introduire, puisqu’il y existe une relation saine entre la ville et la campagne. La croissance de la population y est absorbée par un ensemble de comportements psychosociaux, alimentés bien sûr par la richesse nationale. Dans le Sud, au contraire, la pauvreté des États et leur désorganisation empêchent le déploiement de ces méthodes et induisent la formation de forts gradients contre lesquels rien n’est possible. On peut prévoir une zone critique, autour de ces 80 %. J’avance comme une conjecture, qu’un pays du Sud quand il entrera dans cette zone critique ne restera pas stable : 2050, danger. On sait maintenant que la chute de l’Empire romain peut être attribuée à un processus de ce genre où une Urbs tentaculaire dévorait les productions et les populations toujours décroissantes

LES INVARIANTS

67

des campagnes asphyxiées. Un processus similaire conduit à la formation d’États-gradients à forte population jeune et sans ressources naturelles, voisins de pays riches à population âgée. Pourquoi la globalisation des capitaux et des entreprises renforce-t-elle à l’échelle planétaire les concentrations urbaines, alors même que les techniques de communication se développent avec des performances exponentielles et que le coût de communication lié à la distance ne cesse de baisser ? Le phénomène paraît justement la conséquence de l’augmentation mondiale des échanges d’information, et ce, pour deux causes d’inégale importance. La première fait appel à l’amélioration du fonctionnement des entreprises par la densité et la qualité des maillages des relations entre les différents acteurs urbains : c’est l’impact banal du cadre collectif offert par les infrastructures et les liaisons fonctionnelles entre les acteurs économiques, avec ses effets d’interaction et de proximité sur le potentiel de compétences et d’innovation, bref ce qui a fait de tout temps la raison d’être des villes. Il semble qu’un autre attrait des conurbations pour les populations qui les entourent soit de nature culturelle. L’existence d’émissions de radio et de télévision, dont la réception et surtout la compréhension sont quasi limitées aux zones urbaines, crée un besoin nouveau qui est le facteur décisif de l’attraction des populations misérables vers des ensembles où seule la communication rend supportables l’entassement et la pauvreté. La communication entre des individus démunis de ressources tend à se structurer dans des réseaux qui, dans la zone d’influence islamique du moins, s’organisent sous la direction de cadres religieux. Un exemple en a été montré par l’Algérie où le Front islamique du salut (FIS) a pris une telle emprise sur la vie urbaine que le gouvernement s’est cru obligé de le mettre hors la loi en 1991. Les réseaux urbains ne tarderont pas à établir des connexions entre quartiers, villes, régions, pays ou continents par l’extension des chats proposés dès maintenant par les grands portails. Les discussions en direct qu’ils permettent arrivent en seconde position des outils les plus utilisés après la messagerie électronique. L’arrivée dans la ville introduit au monde. La perspective d’entrer en contact avec des milliers de personnes grâce à un clic, à l’abri derrière un écran et un pseudonyme, peut rompre l’enfermement du déshérité qui n’en profite pas encore, mais que l’expansion du Net et la baisse des prix d’utilisation rapprocheront de cette libération dont il espère qu’elle ne restera pas virtuelle. Le gros des utilisateurs se concentre chez les adolescents ; propos racistes, pédophilie et pornographie sont les trois sujets de prédilection. Demain, l’audio et la vidéo sur le Net offriront de

68

INTRODUCTION AU SIÈCLE DES MENACES

nouveaux territoires aux pulsions, y compris dans les mégapoles du Sud où les « jeunes » se grouperont autour d’un ordinateur bon marché pour participer au cybercafé mondial et organiser les explosions sociales. Ainsi apparaît un invariant, la tendance de la population mondiale à s’agglomérer en conurbations de dix à vingt millions d’habitants, reliées les unes aux autres par des réseaux de communication consacrés à la propagation des comportements agressifs et en général des sous-cultures de groupe et de clan. Comme à l’horizon du siècle nous ne voyons aucune inflexion possible, nous admettrons nous trouver en présence d’une sorte de loi de Moore régissant le comportement de l’humanité dans la période actuelle (1950-2050), même si sa constante de temps est plus grande, de l’ordre de vingt ans au lieu de deux ans. Par comparaison avec un varioleux dont le corps se couvre de pustules pendant la maladie, nous appellerons cet invariant la loi de pustulation. Le mariage de la pustulation avec les réseaux de communication introduit la loi de Moore au cœur de l’évolution sociétale. La crise que traversera l’humanité au milieu du XXIe siècle ne sera pas créée par la surpopulation, mais par la formation de gradients. UN EXEMPLE

: L’ALGÉRIE

Aujourd’hui le pays est riche, grâce à la hausse du prix du pétrole. En 2003, il disposerait d’une réserve de change d’environ 22 milliards de dollars. Les équilibres macroéconomiques ont été rétablis par des programmes d’ajustements structurels, au prix d’un recul important du niveau de vie général : la population s’appauvrit. Le PIB par habitant a baissé de 0,5 % par an de 1980 à 1992. C’est le paradoxe de plusieurs pays sous-développés : pays riche, peuple pauvre. Le nombre d’Algériens a plus que doublé depuis l’indépendance acquise en 196210. En 1975, il n’était encore que de 12 millions ; en 2000, il a été estimé à 31,5 millions, dont près de 60 % avaient moins de vingt ans. L’ONU annonce une population de 51,2 millions en 2050. Le chômage avoisine 35 % de la population active (80 % des chômeurs ont moins de trente ans). D’après le Conseil national économique et social algérien, plus de 7 millions de personnes, soit 23 % de la population, vit au-dessous du seuil de pauvreté, disposant d’un revenu quotidien inférieur à 1 dollar. Ce chiffre 10. Indicateurs démographiques sociaux et économiques, UNFPA, 2001.

LES INVARIANTS

69

monte à 14 millions de personnes, soit plus de 40 % de la population, si l’on considère un revenu quotidien inférieur à 2 dollars. Les villes absorbent l’accroissement démographique. Le taux d’urbanisation est passé de 16,6 % en 1962 à 60 % en 2000. La population urbaine a donc crû de 2 à 18 millions entre l’indépendance et aujourd’hui. Le taux annuel moyen de croissance urbaine est estimé à 3,2 % entre 2000 et 2005. La surpopulation en zones agglomérées est due aux migrations causées par la réalisation de centres industriels, qui ont drainé la main-d’œuvre de la campagne vers les villes. Depuis 1992 la majorité des migrants fuit l’insécurité en zone rurale : à des causes économiques s’ajoutent des causes politiques et psychosociales. Conformément à la remarque générale faite auparavant, plus la taille de la ville est grande, moins le taux d’accroissement de la population est fort, par suite de la saturation des métropoles qui n’offrent plus de possibilité de travail ou de logement : entre 1987 et 1998 les villes de plus de 100 000 habitants n’ont enregistré qu’un taux de croissance de 1,9 % alors que dans les villes de 5 000 à 10 000, il atteignait 12,72 %. La pustule se forme. À la veille de l’indépendance, la capitale Alger comptait 900 000 habitants dont 260 000 Européens (qui ont disparu). En 1997, elle rassemble 1 million d’habitants dans ses limites communales de 1992, mais 1,7 million si l’on considère les 28 communes qui constituent le grand Alger et 2,3 millions si l’on prend en compte l’ensemble de l’agglomération. Les conditions de logement sont les plus difficiles de la région avec un taux moyen d’occupation de 7,3 personnes par logement alors qu’au Maroc il est de 5,7 et 4,9 en Égypte. On estime à 7 millions le nombre de logements manquants en Algérie alors qu’on en construit 60 000 par an. La ville a débordé dans les fertiles territoires anciennement agricoles de la Mitidja dont 9 000 hectares (parmi les meilleurs) ont été accaparés par des emprises urbaines ou industrielles (y ajouter 13 000 hectares pour toute l’Algérie). L’afflux incontrôlé d’une population nombreuse a provoqué, outre des taux élevés d’occupation par logement, une production importante de déchets, une dégradation générale du cadre de vie avec la disparition des espaces communs à l’intérieur de la ville et à la périphérie, l’éclosion de villes-satellites autour du pôle principal, créatrices de flux pendulaires de gens en déplacement au cours de la journée, avec leur cortège d’embouteillages et leur pollution. Alger manque d’eau. Pour faire face à une demande qui croît exponentiellement, des pompages entrepris depuis vingt ans dans les nappes de la Mitidja ont fait baisser leur niveau si bas que

70

INTRODUCTION AU SIÈCLE DES MENACES

l’irrigation souffre désormais d’une pénurie permanente. Comme ils ne suffisent pas, des transferts d’eau depuis les montagnes de Kabylie sont devenus nécessaires pour satisfaire la soif de la capitale. Depuis le début des années 1980, l’Algérie souffre d’une sécheresse qui entraîne de graves conséquences dans les villes comme Alger où, à partir d’octobre 2001, la distribution d’eau a été limitée à un jour sur trois, à raison de quelques heures par jour, ou plutôt par nuit. Dans certains quartiers, elle n’a lieu qu’un jour sur six. Alors que les 48 barrages en exploitation à travers le pays affichent un taux de remplissage de 38 % seulement, les trois qui alimentaient Alger sont carrément à sec. Les travaux d’urgence en cours tels que l’interconnexion des barrages ne permettront à la capitale que d’être approvisionnée aux trois quarts de ses besoins journaliers ! Heureusement, le ministère des Affaires religieuses appelle à des prières dans les mosquées pour implorer Dieu de faire venir la pluie. Faudra-t-il forer la nappe albienne du Sahara, grand réservoir mais difficile d’accès et fragile ? On se trouverait alors devant un autre exemple de ces entreprises aussi démesurées que dangereuses pour l’environnement, qui se multiplient un peu partout au détriment des générations futures. Le président Bouteflika parle de dessaler l’eau de mer. Quelle sera la source d’énergie ? Le désastre du 10 novembre 2001 est la représentation symbolique de la situation actuelle. Une vague de boue créée par des pluies abondantes, qui avaient été prévues par les services météorologiques sans que les autorités y prêtassent attention, a déferlé sur les quartiers populaires d’Alger, tuant plus de 700 habitants. La catastrophe révèle une accumulation d’erreurs dont les responsables sont à chercher parmi les gestionnaires du territoire durant les trois décennies d’exode rural et de croissance démographique. Ainsi les accès des égouts dans les faubourgs détruits avaient-ils été bouchés en réponse aux actions du Front islamique du salut, d’où l’impossibilité de les entretenir. Ainsi la construction en matériaux légers, sans projet urbain, du quartier de Bouzaréah, a-t-elle entraîné son effondrement sous l’action d’eau et de boue provenant de massifs forestiers méthodiquement brûlés parce qu’ils auraient, eux aussi, servi de cachette aux islamistes du FIS. Sur le bitume qui recouvrait le sol primitif a déferlé sans rencontrer d’obstacle une vague de quatre mètres de haut, qui n’a pas épargné un faubourg bâti selon les règles de la spéculation, à travers une corruption généralisée en matière de logement social. Les études d’assainissement montrent que 60 % en moyenne de la dotation en eau est rejetée comme eau usée. Dans 80 % des

LES INVARIANTS

71

cas, les eaux usées ne sont pas épurées avant leur rejet. La plupart des villes côtières s’en débarrassent directement dans la mer. La très grande majorité des stations d’épuration sont arrêtées. D’un article de François Maspero écrit avant l’incident et publié dans Le Monde du 22 novembre 2001, nous extrairons quelques idées sur l’état d’esprit des Algériens : « Partout règne l’inachevé. Murs de briques ébauchés, promesses d’étages futurs, mais quand ? Partout la jeunesse du pays semble s’être fixé rendez-vous dans la rue pour y bavarder au soleil. Ce n’est pas par goût du farniente. Il n’y a pas de travail pour la jeunesse du pays. Et l’antenne parabolique ; terminée ou pas, chaque maison en porte une : c’est la grande évasion par le ciel. Beaucoup de gens voteraient à nouveau pour le FIS. Pour les jeunes, Ben Laden ou les Américains, cela reste “les autres” représentant tout ce qu’ils haïssent, qui les écrase et les nie. Une réplique à l’échelle mondiale du malheur algérien. »

Tel est aujourd’hui ce pays riche dont 97 % des exportations sont constituées par des hydrocarbures. Ses réservoirs de pétrole seront épuisés dans trente ans, mais il gardera d’abondantes quantités de gaz. Au milieu du siècle, 50 à 60 millions d’habitants, peuplant un territoire où la sécheresse selon toute vraisemblance se sera aggravée, ne disposeront que d’un seul produit vendable à l’étranger. On peut se demander ce qu’ils mangeront. Ils se seront entassés le long de la zone côtière en « pustules » de cinq millions d’habitants (Alger, Oran, Anaba). L’urbanisation aura atteint et peut-être dépassé la taille critique de 80 %. Le revenu quotidien de la majorité se situera aux environs d’1 euro. Voisin de l’Algérie, le Maroc compte aussi 30 millions d’habitants, dont 19 % au-dessous du seuil de pauvreté et 23 % de chômeurs dans la population active. La moitié vit de l’agriculture en ne contribuant que 15 % au PIB : les principales ressources proviennent du tourisme, du rapatriement des devises gagnées par les expatriés et de l’exploitation des phosphates. Trois grandes villes se dirigent rapidement vers la pustulation : Casablanca avec 3 millions d’habitants, Rabat et Salé avec chacune 1,5 million, venus de campagnes en voie de désertification. L’ONU prévoit 50,4 millions de Marocains en 2050. La pression de la pauvreté croissante, peut-être portée dans un futur proche à la surchauffe par un islamisme encore contenu, conduira-t-elle à la formation d’un ensemble politique englobant tout le Maghreb, dont une grande partie de la population vivrait vers 2050 au-dessous du seuil de pauvreté d’1 euro par jour ? Il n’y faudra qu’un chef charismatique.

72

INTRODUCTION AU SIÈCLE DES MENACES

De l’autre côté de la Méditerranée, à moins de mille kilomètres, la riche France, peuplée d’environ 60 millions de nantis au revenu annuel de (aujourd’hui) 23 000 euros : voilà ce qu’est un gradient. Voulez-vous deviner ce qui se passera ?

Réticulation L’Histoire montre beaucoup d’exemples de réseaux, réseaux de communication comme ceux de la poste de l’Empire romain ou des rois de France, ou réseaux d’hommes, d’adeptes, unis dans un but religieux, politique ou commercial, comme les Églises, la franc-maçonnerie, la charbonnerie et aussi les banquiers lombards, génois ou marranes. Si grande qu’ait été leur influence, elle pâlira devant l’importance que s’apprête à revêtir la structure en réseaux, ou réticulation, dans le domaine des affaires humaines au XXIe siècle. Car, à la différence des générations précédentes, nous avons la loi de Moore, qui a engendré Internet, qui semble taillé pour irriguer la pustulation. Les créateurs d’Internet voulaient donner à leur enfant une robustesse qui lui permît de survivre à une attaque nucléaire. Ils se sont donc attachés à éliminer tout point central, dont la destruction par un ennemi aurait été fatale. Or, pour faire fonctionner le réseau, il faut en coordonner les éléments de base, ou routeurs. Ce sont de petits ordinateurs spécialisés chargés de relayer les paquets de proche en proche pour les acheminer. Ils doivent connaître les relais les meilleurs pour chaque utilisation, qui sont regroupés en tables de routage, équivalents des panneaux indicateurs placés au carrefour des routes. Elles sont remises à jour quand la configuration du réseau change, par exemple quand une panne se produit. Les créateurs auraient pu choisir de faire calculer les tables par un centre de gestion manipulant des procédures de télésurveillance et pourvu d’un puissant calculateur, selon la pratique des opérateurs classiques de télécommunications. Mais Bob Kahn estimait que s’il était primordial de bien connaître les méthodes des PTT, il fallait faire le contraire de ce qu’ils font : au lieu de centraliser les calculs des routes, les confier aux nœuds du réseau. C’est le choix d’Internet : chaque nœud surveille ses voisins et ses liaisons avec eux, transmet les informations correspondantes aux autres nœuds et utilise les informations qu’il reçoit pour déterminer les meilleures routes. Des règles simples, appelées protocoles de routage, spécifient le format et les algorithmes de calcul.

LES INVARIANTS

73

Le souci de ne pas dépendre d’un point central imprègne la répartition des fonctions entre le réseau et les utilisateurs. Jamais n’est ajoutée au réseau une fonction qui pourrait être remplie par l’utilisateur lui-même, afin que soit coupée l’herbe sous le pied à une bureaucratie qui voudrait s’imposer comme régulateur. On ne veut rendre le réseau ni parfait ni intelligent, on ne veut pas prédire les services, les logiciels, ni les applications, prédiction qui amènerait à une réglementation forcément destinée à se fossiliser. Internet se concentre sur ce que ses clients ne peuvent absolument pas faire, c’est-à-dire l’acheminement des paquets par l’utilisation optimale des liaisons. À cette fin sert le protocole Internet, ou IP. L’Internet se réduit au protocole. L’Internet n’est pas un seul réseau, géré par une administration centrale, mais une multiplicité de réseaux. Les paquets de données passent de l’un à l’autre grâce aux centres d’interconnexion qui relient des routeurs appartenant à des réseaux distincts. Les fournisseurs multiplient les accords bilatéraux ou multilatéraux, sans faire appel à une autorité commerciale qui régenterait l’Internet, ni à un point central d’où une hiérarchie pourrait contrôler le trafic et les accès. Il n’existe qu’un comité de pilotage chargé d’organiser le développement de l’Internet et de lui servir de représentant vis-à-vis de l’extérieur, flanqué d’un comité technique et d’une assemblée de chercheurs chargée de faire évoluer les procédures par consensus. Le RFC, qui est l’instrument du travail coopératif de création sur le Net, rappelle en 1996 le « principe périphérique » : « L’objectif est la connectivité, l’outil est le protocole Internet et l’intelligence est périphérique plutôt que cachée dans le réseau. La tâche du réseau consiste à transmettre les datagrammes avec un maximum d’efficacité et de flexibilité. Tout le reste doit être fait à la périphérie11. » On peut se demander si Internet sert de modèle ou de support à la nouvelle forme de structure politique dont deux chercheurs américains de la Rand Corporation, John Arquilla et David Ronfeldt ont publié une analyse dès 1993, avant même qu’elle ne se fût largement développée12. La société humaine fonctionne au moyen d’institutions de toutes sortes, structurées selon des formes hiérarchiques traditionnelles. Arrive la révolution que nous vivons dans la façon dont l’information est recueillie, stockée, manipulée, communiquée et présentée. Elle détruit les vieilles méthodes de penser et d’opérer, 11. Request for Comments, n° 958. 12. John Arquilla et David Ronfeldt, « Cyberwar is coming », Comparative Strategy, 12, 2, 1993, 141-165.

74

INTRODUCTION AU SIÈCLE DES MENACES

fournit les moyens d’agir différemment, et propose même des manières de faire mieux. De nombreuses organisations installent des réseaux électroniques internes. Le courriel se répand et offre des gains de temps et d’efficacité. Du coup, les utilisateurs se mettent à penser et même à vivre autrement. La révolution de l’information met en mouvement des forces qui menacent les hiérarchies en redistribuant le pouvoir, abolissant et redessinant des frontières, forçant en général les systèmes fermés à s’ouvrir. Le pouvoir migre vers des acteurs non étatiques, parce que de nouveaux groupes sont aptes dorénavant à se structurer en réseaux nodaux. La structure en réseau est très différente de la structure d’une institution classique. On peut en distinguer trois types, sachant qu’un nœud peut être un individu, un groupe, un fragment de groupe ou une organisation complète : le réseau linéaire, dont les nœuds sont distribués sur une ligne, de sorte que la communication doit les traverser tous pour se propager d’une extrémité à une autre (exemple : les contrebandes) ; le réseau en étoile, ou hub, dont les nœuds sont liés à un nœud central que la communication doit traverser (exemple : cartel, syndicat du crime, familles mafieuses) ; le réseau multicanaux, dont chaque nœud est connecté à tous les autres de sorte que la direction centrale et la hiérarchie disparaissent (exemple : Internet). Les opérations des groupes formés en réseaux reposent sur des mécanismes de coordination dont la puissance est augmentée par les progrès de la technologie, qui leur apportent vitesse de communication, baisse des coûts, augmentation de la bande, connectivité énormément accrue, intégration des technologies de communication et de calcul. Les avantages se placent à trois niveaux critiques, la réduction du temps de transmission permettant aux acteurs dispersés de communiquer et de coordonner leurs actions, l’abaissement du coût de communication qui rend possible de décentraliser les activités et l’augmentation de la quantité et de la complexité de l’information partageable. Plus une société développe les échanges d’information et assied son économie sur la connaissance, plus augmente la capacité d’innover non seulement à l’intérieur des réseaux de communication, mais surtout à travers le système entier. Tout coexiste sur Internet qui met en contact, sans craindre les contrôles, usages sociaux multiformes, expressions politiques, liens de socialité personnelle, mouvements associatifs et donc quête de renseignements, propagande couvrant le spectre de l’activisme et de la marginalité, pédophilie, pornographie, putanisme. Grâce aux médias mais surtout grâce à Internet, les acteurs de la société civile créent

LES INVARIANTS

75

des sensibilités qui indirectement pèsent sur les institutions politiques : Internet se transforme à son tour en une sphère politique qu’il n’était pas à son début. Qui dit politique dit combat. « Si l’imaginaire a toujours été le royaume où s’épanouissent les représentations géopolitiques, Internet lui ajoute une nouvelle dimension en lui offrant une architecture universelle, point de rencontre de la multitude des images. Ainsi, les acteurs civils, regroupés ou solitaires, disposent en ligne d’un mégaphone pour répandre leurs opinions, et d’un lieu public pour les confronter. Logiquement, puisque l’expression y est inséparable de la diffusion des idées, le Net est à l’avant-garde des luttes pour le pouvoir, luttes qui sourdent dans toutes les sociétés, même pacifiées. C’est d’abord là que les discours minoritaires ou étouffés rencontrent un écho. Quand bien même la population des internautes demeure réduite, les petites communautés connectées ont le privilège d’ouvrir le débat, parce qu’elles manipulent le média, elles “sont” le média […]. La clameur qui monte du cyberespace doit être entendue. Elle déferlera inévitablement dans le monde réel 13. »

Ainsi les technologies de l’âge de l’information favorisentelles le fonctionnement et le développement de groupes en conflit avec les hiérarchies. Internet peut être utilisé par eux pour planifier, coordonner et exécuter leurs opérations, tout en développant la vitesse de leur mobilisation et le dialogue entre leurs membres ; d’où la possibilité d’ajuster en permanence la tactique. Des individus d’un groupe uni sur un objectif commun peuvent former des sous-groupes, rallier une cible, conduire des opérations terrestres, puis aussitôt couper leurs relations et se disperser. Le réseau créé par Oussama Ben Laden14 utilise effectivement les technologies de l’information pour conduire ses opérations en réseau (Web, courriel, téléphone satellite). Al-Qaida ressemble à une multinationale, comme celles qui se développent dans l’ère de la mondialisation : Al-Qaida est le McDonald du terrorisme. Les Groupes islamiques armés (GIA) algériens emploient des disquettes et des ordinateurs pour stocker et traiter ordres et informations, le Hamas et l’ETA utilisent le chiffrage. Dans les pays en développement, deux projets de machines conviviales fonctionnant avec des logiciels libres, le Simputer en Inde et le Computador popula au Brésil, seraient vendus autour de 200 et 300 dollars. Le Simputer traduit de l’anglais et lit les pages web dans plusieurs langues locales. Doté d’un lecteur de cartes à puce, il facilite l’usage partagé des ordinateurs. Chaque utilisateur y insère son disque dur portatif pour commencer une session Internet. L’ordinateur pourra être acheté à plusieurs, tous analphabètes. 13. Solveig Godeluck, op. cit. p. 12. 14. Voir chapitre VIII.

76

INTRODUCTION AU SIÈCLE DES MENACES

John Arquilla et David Ronfeldt15, analysant l’impact d’une telle tendance sur les conflits, ont distingué ses effets sur les crises de société, qu’ils appellent Netwar, et sur les guerres modernes, qu’ils appellent Cyberwar. Cyberwar est la préparation et la conduite d’opérations militaires par un État selon des principes liés à l’information. Il s’agit de détruire l’ensemble des systèmes de communications de l’adversaire. L’objectif d’un combattant de Cyberwar est de faire pencher la balance de la communication en sa faveur pour acquérir la maîtrise de l’information (Information Dominance). Si cette forme de guerre implique beaucoup de technologie (principalement ce que les militaires appellent C3I, à savoir recueil, traitement et distribution du renseignement, et capacité de localiser, connaître, surprendre et tromper l’ennemi), elle est caractérisée par l’effort pour transformer la connaissance en moyen d’action, qui peut ne pas exiger beaucoup de technologie. Netwar définit un conflit sociétal à grande échelle, lié à l’information, qui fait intervenir des groupes organisés sur le modèle des réseaux de communication du style Internet. Le vocable se réfère à des tentatives destinées à déranger, endommager ou modifier ce que sait ou pense une population sur elle-même et sur le monde qui l’entoure. Contrastant avec les guerres économiques, dont l’objet porte sur la production et la distribution de biens, et les guerres politiques, dont l’objet porte sur les institutions d’un gouvernement, Netwar a pour objet la connaissance et la communication. Si Netwar peut apparaître entre des États comme Cuba et les États-Unis, Arquilla et Ronfeldt ont aperçu dès 1993 la possibilité d’une Netwar entre acteurs non étatiques, ou entre États et acteurs non étatiques organisés en réseaux transfrontières. Ils citent Martin Van Creveld qui a écrit en 1991 : « Dans le futur, les guerres ne seront pas menées par des armées mais par des groupes qu’aujourd’hui nous appelons terroristes, guérillas, bandits et voleurs, mais qui se trouveront des noms sonnant mieux. » Il s’agira de groupes illicites engagés dans la prolifération des armes de destruction, le terrorisme ou la vente de drogue, ou bien d’activistes défenseurs de l’environnement, des droits de l’homme ou des pratiques religieuses. Si la technologie moderne n’est pas indispensable au réseau pour fonctionner, comme le montre la première guerre de Tchétchénie (1994-1996), pendant laquelle les insurgés islamistes se sont contentés de coureurs et de cellulaires, ce qui ne les a pas empêchés de vaincre un adversaire organisé de façon inverse, avec 15. John Arquilla et David Ronfeldt, op. cit.

LES INVARIANTS

77

une hiérarchie figée et des communications défaillantes, il faut plutôt considérer que Netwar n’est pas engendrée mais amplifiée par Internet. Internet est un facteur de croissance de Netwar. Le réseau de Netwar est une hydre sans tête qu’on puisse couper. Il abolit les frontières, les juridictions, les distinctions entre l’État et la société, le public et le privé, la guerre et la paix, la guerre et le crime, le civil et le militaire, la police et le militaire, le légal et l’illégal. La riposte contre lui est difficile : doit-elle être de nature militaire, policière ou politique ? Le réseau opère dans les fissures et les zones grises du système de l’État, qui coupe les problèmes en tranches et assigne la solution de chacun d’entre eux à un office spécifique ; Netwar frappe là où les paradigmes traditionnels deviennent flous. Les hiérarchies ne savent pas le combattre. En effet, il faut des réseaux pour combattre des réseaux. Pour vaincre, les gouvernements doivent adopter la structure organisationnelle et la stratégie de leurs adversaires, non en les imitant mais en construisant avec les techniques de la néo-information de nouveaux mécanismes de multijuridiction et de coopération interagences. Celui qui maîtrisera la forme réseau aura gagné. Alors qu’au début de l’évolution actuelle, l’adoption par les groupes de la structure en réseau les autorisait tout juste à survivre aux attaques des États, elle leur permet aujourd’hui de tenir tête à armes égales avec les hiérarchies, comme le montrent le Hamas ou le syndicat de Cali. Pour riposter, les États devront créer des hybrides efficaces, mais les habitudes et les intérêts corporatistes s’opposent à l’expérimentation. Dans leur livre16 Networks and Netwars, Arquilla et Ronfeldt citent dix exemples de conflits de type Netwar dont cinq ont été des succès complets pour les réseaux, trois des succès limités, un indécis et un échec : la structure en réseau se répand. L’EXEMPLE DE SEATTLE

À la fin de 1967, l’instauration de la conscription par le président Lyndon Johnson avait amorcé une rupture entre la jeunesse américaine, terrifiée par la perspective des combats au Vietnam, et l’establishment. S’étaient ensuivis des mouvements violents de protestation organisés par des groupuscules, et la contagion avait gagné l’Europe où naquirent les « événements » français de Mai 68, accompagnés et suivis par le terrorisme de la Rote Armee Fraktion en république fédérale d’Allemagne et des brigadistes en 16. John Arquilla et David Ronfeldt, Networks and Netwars, Santa Monica, Rand, 2001.

78

INTRODUCTION AU SIÈCLE DES MENACES

Italie. Aucun ne parvint à former un réseau un peu étendu, encore moins international. Désormais, avec la loi de Moore et donc Internet, tout est changé. Les manifestations dirigées à Seattle en novembre 1999 contre l’Organisation mondiale du commerce ont introduit Netwar dans la grande politique mondiale. L’objet de la conférence de l’OMC portait sur les droits de douane entre les États-Unis, le Japon, l’Union européenne et les pays en voie de développement. La délégation américaine étalait une arrogance incroyable. Mickey Kantor, architecte de la campagne électorale de Bill Clinton en 1992 et représentant gouvernemental du Commerce des États-Unis lors du premier mandat de ce président, avait été élu en mai 1997, mais oui, au conseil d’administration de Monsanto. Il avait été remplacé par Charlene Barchewski, encore plus agressive, décidée à passer en force pour imposer sa loi. Or, en 1998, les États-Unis, mécontents du moratoire imposé par l’Union européenne sur l’importation des OGM, avaient pris unilatéralement des sanctions contre certains produits comme le roquefort. Un des adjoints de Charlene avait déclaré : « Nous voulons faire du mal aux Français. » Bien loin de se dérouler entre États comme toujours, la bataille opposa les États-Unis à un réseau activiste ad hoc aux premiers rangs duquel se trouvait un improbable petit Français se disant producteur de fromage et dont la seule idée s’incarnait dans une moustache gauloise à la Astérix. Il n’existait que dans l’infosphère, là où l’essentiel se cherche désormais, virtuel comme un personnage de bande dessinée, et donc plus réel dans la Netwar que Charlene Barchewski. Les protestataires anti-OMC ont été parmi les premiers à prendre avantage d’un réseau dense et étendu reposant sur Internet. L’emploi des forces spéciales médiatiques est l’un des caractères principaux de Netwar et des conflits informationnels en général. Le réseau des activistes Direct Action Network à Seattle a su improviser et utiliser une infrastructure flexible de communication. DAN représente une espèce émergente d’organisation politique reposant sur un réseau multicanaux plutôt que sur une institution. Comparez à un fossile comme le réseau des cellules du Parti communiste français, réseau en étoile s’il en fut ! Les organisations primaires du DAN étaient une coalition de groupes disjoints, peu structurés, comme le Rainforest Action Network, Art and Revolution et la Ruckus Society, qui coordonnait via DAN l’entraînement protestataire, les communications, la stratégie et la tactique collectives grâce à un processus décentralisé de prise de décision par consultation et consensus. Ces nouveaux réseaux, nés quant à eux des techniques d’information, ont pour ancêtres

79

LES INVARIANTS

les comités mobilisateurs anti-Vietnam et les groupes d’opposition à la guerre du Golfe : les Américains ont une véritable culture de l’information. L’objectif stratégique du DAN était d’interrompre (shut down) la réunion de l’OMC. Il fut atteint par swarming, c’est-à-dire par une attaque stratégique venant simultanément de tous les nœuds vers un point particulier, grâce au déplacement d’un grand nombre d’unités dispersées convergeant rapidement sur une cible, qu’il s’agît d’un blocage des rues ou d’une volée destructrice de fax et de courriels. Une première vague d’excités de Ruckus, prêts à en découdre dans la violence, fut suivie par une seconde vague de militants moins désireux de risquer blessure ou arrestation. S’y trouvaient des petits groupes d’affinités diverses, caractéristiques d’une structure en réseau, à qui DAN prodiguait une coordination et une idéologie suffisamment vagues pour les embrigader tous. Un autre opposant majeur à l’OMC, l’union des syndicats américains AFL-CIO, était aussi présent à Seattle pour manifester avec des motivations qui n’avaient rien à voir avec celles du DAN, puisqu’il ne désirait que montrer son loyalisme au président Clinton. Cette organisation à structure traditionnelle alignait des milliers de manifestants. Un certain nombre d’entre eux se laissèrent convaincre par la communication du DAN et, le deuxième et le troisième jour des protestations, se joignirent aux manifestations qu’il organisait pour former une troisième vague qui écrasa la résistance des forces de police. Depuis Seattle, chaque nouvel épisode de protestation contre la globalisation a engendré un nouveau réseau médiatique produisant des journaux, des sites web, des vidéos, des programmes radio et un bruit informationnel assourdissant. La réticulation des activismes deviendra un invariant de la vie politique et des conflits pendant le XXIe siècle. Or leur philosophie est toujours négative. Netwar ne s’abreuve pas à la source créatrice des innovations et des laboratoires, mais à la peur, à la haine et au désespoir. Netwar ne veut pas construire mais détruire.

La faille Aujourd’hui, l’humanité comprend 6 milliards d’individus qui seront 9 en 2050, à plus ou moins dix ans. • 1,3 milliard subsistent avec moins de 1 dollar par jour. • 2 milliards subsistent avec moins de 2 dollars. • 0,84 milliard ont faim ; 24 000 personnes meurent de faim chaque jour.

80

INTRODUCTION AU SIÈCLE DES MENACES

• 1,2 milliard n’ont pas accès à une eau potable. • 2,4 milliards n’ont pas accès à une eau saine. • 1,3 milliard vivent sur des terres fragiles dont ils ne peuvent tirer leur subsistance. • 2 milliards ne disposent d’autre énergie que du bois de chauffe. • 1 milliard ne savent ni lire ni écrire. • 50 % de la population n’a jamais passé un coup de téléphone. • 95 % des hôtes Internet sont situés dans les pays industrialisés. • 15 % de la population dispose des quatre cinquièmes du PIB mondial. L’espèce humaine est coupée en deux composantes : les gens qui vivent avec 1 ou 2 dollars par jour, et ceux qui vivent avec 50 dollars ou plus17. Loin de se resserrer, la faille qui les sépare s’élargit, et aucun facteur n’apparaît à l’horizon qui permettrait de la combler dans les cinquante prochaines années. Les gens à 50 dollars nourrissent la ferme intention de maintenir la croissance de leur revenu. Comme l’a dit le président Bush I lors du sommet de Rio en 1992 : « Le niveau de vie des États-Unis n’est pas négociable. » Convaincus de posséder la recette du succès, les pays industrialisés mobilisent l’intelligence en regroupant leurs savants et leurs ingénieurs dans de grandes institutions, des universités généreusement dotées et des laboratoires géants subventionnés par les États, les sociétés nationales ou internationales. L’avenir s’élabore par la symbiose des centres scientifiques et des conseils d’administration, orientée vers les objectifs de progrès des connaissances et de rentabilité économique. Ainsi dans ces pays les possibilités de transformation sociale s’accumulent-elles aux frontières interactives de la recherche, de la technologie et de l’économie, dans un dépérissement général de la pensée et de la pratique politiques, réduites à flotter à la surface d’une évolution qu’elles ne comprennent pas et à laquelle elles ne participent pas réellement, sinon comme une sorte de couverture publicitaire. En conséquence, le progrès des sciences et de leurs applications déferle en avalanche sur le monde, sans aucun mécanisme de régulation, avec pour moteur 17. D’après une étude de l’INSEE publiée en septembre 2003, le revenu médian français – au-dessous et au-dessus duquel se situe une moitié de la population – atteint 40 €/jour et 81 €/jour pour un couple avec deux enfants. Avec un PIB de 23 000 € (2001), le Français doit être cependant classé comme un homme à 63 € par jour.

81

LES INVARIANTS

la priorité donnée par les Américains à l’investissement de RD que nous décrirons au prochain chapitre. De cet effort découle entre autres la mise au point d’un nouveau mode de gestion des conflits, Cyberwar, auquel nous consacrons les chapitres IV à VII de ce livre.

20 000

15 000

Cinq premiers pays

10 000

5 000 Cinq derniers pays 0 1820

1840

1860

1880

1900

1920

1940

1960

1980

2000

Évolution de l’inégalité exprimée en PIB réel par habitant (dollars US) dans le revenu de cinq pays développés et cinq pays situés au bas de l’échelle18

Les gens à 1 dollar voudraient imiter le comportement des gens à 50 dollars et les rejoindre, mais ils ne peuvent que constater leur stagnation sur une courbe d’évolution dont la pente est égale à zéro. Chaque année, l’Index of Human Development des Nations unies révèle que de plus en plus de pays ont un score inférieur à celui de l’année précédente. La raison en est l’élargissement du fossé de connaissance qui sépare les pays industrialisés et les autres (dans le concept de connaissance nous incluons l’information, l’éducation, l’accès à la technologie). Vous me direz qu’il n’y a là rien de nouveau, qu’il y a toujours eu des riches et des pauvres. La situation et son évolution au e XXI siècle sont en réalité dominées par deux faits nouveaux ; l’un et l’autre sont une conséquence de l’irruption de l’information et de la communication partout sur le globe. L’un et l’autre sont une conséquence de la loi de Moore.

18. Source OCDE, Analytic Report on Sustainable Development, cité in Emerging System Risks in the 21st Century. An Agenda for Action, Paris, OCDE, 2003.

82

INTRODUCTION AU SIÈCLE DES MENACES

Le premier fait est que l’homme à 1 dollar, s’il ne vit pas mieux que notre ancêtre du Moyen Âge, est beaucoup plus frustré, plus malheureux, plus révolté parce qu’il lui parvient un flot continu d’images décrivant, là-bas derrière son horizon, des sorts meilleurs que le sien. Le second fait est que la technologie moderne de la communication, si elle renforce le pouvoir et améliore le niveau de vie de l’homme à 50 dollars, arme aussi l’homme à 1 dollar d’outils puissants qui lui apportent une formidable valeur de nuisance. Les gens à 1 dollar n’ont pas besoin de mobiliser une intelligence collective qu’ils ne possèdent pas : il leur suffit d’utiliser directement les outils développés par les riches. Dans leur livre Maître Daniel Rock19, Erckmann-Chatrian ont décrit le combat livré au XIXe siècle par les paysans d’une vallée alsacienne contre la construction du chemin de fer, qui se termine par la tentative désespérée du forgeron traditionaliste Daniel Rock et de ses fils pour barrer la route de la locomotive avec leurs piques. Rien n’est plus périmé aujourd’hui que cette image : si le développement des pays riches progresse avec la force de la machine lancée sans freins sur ses rails, leurs ennemis disposent de bien d’autres moyens que des piques : ils ont Netwar. Ce sera l’objet de notre chapitre VIII. Dès 1962, René Dumont20 a écrit : « Un écart de revenus s’agrandit chaque jour à l’échelle mondiale entre les États prolétaires d’une part et les nations nanties, le monde riche de l’autre. Cette distorsion s’aggrave rapidement, car la différence des capacités d’investissement est beaucoup plus élevée encore que celle des revenus. Deux mondes se créent ainsi, qui bientôt n’auront plus de langage commun et risquent de se heurter plus tard. » Si Dumont a vu clair sur l’évolution économique, que la révolution verte n’a qu’à peine modifiée, il s’est trompé sur la communication entre les deux mondes, car la loi de Moore a démarré après la parution de son livre. Grâce aux NTIC, les deux mondes parlent le même langage, et c’est même sur ce terrain que les guerres s’engagent. Le XXIe siècle ne verra pas le choc des civilisations, mais les conflits à égalité de l’homme à 1 dollar contre l’homme à 50 dollars, Netwar contre Cyberwar. Et tous mangent leur blé en herbe. Les ressources de la planète exploitables par l’homme s’épuisent. Notre dernier chapitre désignera le gagnant.

19. Paris, Michel Levy, 1861. 20. R. Dumont, L’Afrique noire est mal partie, Paris, Seuil, 1962.

Chapitre III

LES RACINES DE L’HYPERPUISSANCE

La science, frontière infinie Au ministre français des Affaires étrangères Hubert Védrine, en poste à la fin du XXe siècle, revient d’avoir le premier traité les États-Unis d’Amérique d’hyperpuissance. Nous accepterons ce néologisme pour définir le statut actuel du pays de Washington, Jefferson et Lincoln, comme il aime à se nommer : il possède la plus forte économie, la plus forte devise, la plus forte armée, le plus haut niveau de vie, la culture la plus envahissante, le tout nourri par une créativité exubérante dans les arts, les lettres, les sciences et la technologie. Il domine de très haut la scène internationale, et pourtant il n’écrase pas les autres. Pour expliquer la prépondérance américaine sur le globe, il est traditionnel et justifié d’évoquer son régime politique. La démocratie est consubstantielle à la nature même des États-Unis, qui se sont bâtis sur les notions d’égalité et de liberté. Sa force réside aussi bien dans le cœur de tout citoyen, que dans les institutions imaginées pour assurer l’équilibre des pouvoirs exécutif, législatif et judiciaire selon les principes définis par Montesquieu. D’autres pays jouissent d’un système aussi démocratique, d’autres pays sont plus étendus, d’autres pays sont plus peuplés, d’autres pays sont plus riches en ressources naturelles, bien que celles des États-Unis soient immenses. Un seul est une hyperpuissance. Aux États-Unis, les pouvoirs exécutif, législatif et judiciaire coexistent et coopèrent en tant qu’égaux, indépendants, non subor-

84

INTRODUCTION AU SIÈCLE DES MENACES

donnés l’un à l’autre. S’ajoute une autre séparation des pouvoirs : les cinquante États conservent des prérogatives décisives en matière budgétaire, fiscale, sociale, judiciaire, policière. La double séparation renforce l’autonomie des individus et des collectivités locales : la fluidité sociale prend sa source dans la Constitution, et découle directement de la définition même de la nation. Le citoyen américain se sent le dépositaire de droits qu’il ne fait que déléguer au gouvernement fédéral, et il estime qu’il garde le pouvoir de changer les choses. Une société qui récuse la fixité par principe, encourage la nouveauté et l’expérimentation. Une attitude profondément américaine, très différente de la pratique européenne, est d’étudier beaucoup d’options avant de décider l’engagement d’une action. Le choix final reposera d’abord sur les analyses, puis sur l’expérimentation, le trial and error si anglosaxon, et le nombre des essais, qu’ils soient avortés ou fructueux, est si grand que l’innovation qui en résulte dépasse très largement les résultats de notre pratique frileuse où le choix entre les options s’effectue trop souvent a priori. Les institutions des États-Unis ne suffisent toutefois pas à créer les conditions de l’hyperpuissance. L’hyperpuissance américaine plonge ses racines dans l’importance accordée par la nation à la science et à la technologie, aussi bien dans sa vision du monde que dans ses investissements. Dans ce pays encore profondément chrétien règnent des idées engendrées par les auteurs de la révolution scientifique au début du XVIIe siècle. Bacon et Descartes ont rêvé que l’humanité pourrait transcender la chute, s’élever au-dessus de sa condition pécheresse et créer des Cieux sur la Terre. Par la science, les hommes pourraient accomplir la charte de l’Ancien Testament et devenir les maîtres de la Nature. À ces vues se sont ajoutés la tradition des Lumières, la révolution industrielle, la prospérité de l’âge moderne, et surtout le mythe spécifique de la création des États-Unis par l’effort des pionniers. Au XXIe siècle, le discours employé pour décrire les vues sur la science et la technologie, partagées par la majorité de la population américaine, n’a pas changé depuis qu’en 1945, Vannevar Bush, directeur pendant la guerre de l’Office of Scientific Research and Development sous les présidents Franklin D. Roosevelt et Harry S Truman, a publié le célèbre rapport1 où il définit la doctrine appliquée après lui jusqu’à nos jours : 1. V. Bush, Science : The Endless Frontier, Washington D.C., rééd. National Science Foundation, 1990.

LES RACINES DE L’HYPERPUISSANCE

85

« Il a toujours été de la politique des États-Unis que le gouvernement s’emploie à l’ouverture de nouvelles frontières. Il a ouvert les mers aux clippers et il a donné des terres aux pionniers. Alors que ces frontières-là ont plus ou moins disparu, celle de la science subsiste2. »

La domination des nouvelles frontières technologiques est le mécanisme qui renforcera le pouvoir de l’humanité sur la nature. Science : The Endless Frontier affirme que le progrès contre les maladies, la santé de l’économie, la défense du pays exigent d’accroître le flux des nouvelles connaissances. « Cette nouvelle connaissance, essentielle, ne peut être acquise que par la recherche scientifique fondamentale3. » Un demi-siècle plus tard, le gouvernement fédéral emprunte la plume du président et du vice-président, pour tenir encore ce langage, remis au goût du jour, familier au point d’être devenu banal : « La science fournit vraiment une frontière infinie… Les secrets de la nature une fois dévoilés procurent la connaissance nécessaire à la réponse à des défis cruciaux, souvent en empruntant des voies imprévisibles. Ces défis comprennent l’amélioration de la santé humaine, l’ouverture de percées technologiques qui apportent de nouvelles industries et de nouveaux emplois, l’augmentation de la productivité au moyen de technologies de l’information et une meilleure compréhension des interactions humaines, le renforcement de nos besoins en sécurité nationale, la protection et la restauration de l’environnement global, l’approvisionnement en nourriture et en énergie d’une population croissante4. »

De telles affirmations de la part de responsables politiques comportent un corollaire : si la science et la technologie sont des facteurs majeurs du bien-être de la société, celle-ci se portera d’autant mieux qu’elle leur donnera une priorité plus élevée. La science nourrit le progrès de la société, et le progrès de la science nourrit la société : nous retrouvons ici, encore, la définition de la croissance exponentielle. La conclusion du rapport Bush tirait les conséquences des idées précédentes : le gouvernement fédéral se devait d’investir massivement des capitaux publics dans la recherche scientifique et technique. Était proposée, entre autres actions, la création d’une agence fédérale consacrée à cette tâche, la National Science Foundation (NSF). Ainsi revenait-on, après l’Union soviétique et 2. Ibid., p. 11. 3. Max Oelschlaeger, The Idea of Wilderness, p. 89 (cité par Daniel Sarewitz, Frontiers of Illusion, Philadelphie, Temple University Press, 1996, p. 101). 4. William J. Clinton et Albert Gore, Science in the National Interest, Washington D.C., Executive Office of the President, août 1994, p. 1-2.

86

INTRODUCTION AU SIÈCLE DES MENACES

l’Allemagne hitlérienne, à la stratégie qui confie au Prince le devoir d’étudier la Nature, d’accroître les connaissances et de veiller à leur incorporation dans une pratique nouvelle, grâce à une Institution chérie par le Pouvoir. Ce mode d’action, qui avait traditionnellement engendré le progrès des sciences, avait été abandonné dès la fin du XVIIIe siècle, au profit de l’institutionnalisation sans intervention de l’État, confiée principalement aux universités, qui fut responsable de l’extraordinaire essor des sciences et des techniques au XIXe siècle5. Une nouvelle ère de l’histoire des sciences s’ouvre en 1945 avec le retour à la politique de recherche dirigée par les gouvernements. Le rapport Bush a été suivi. Au début des années 1960, Isaac Rabi, professeur à l’Université Columbia et prix Nobel de physique, ancien conseiller scientifique du président Eisenhower, me raconta qu’avant la guerre, il faisait fonctionner son laboratoire avec une annuité de 35 000 dollars fournie par l’université. Ces crédits avaient beaucoup augmenté : ils s’élevaient à 70 000 dollars, mais désormais les contrats d’origine fédérale lui apportaient 3,5 millions de dollars par an ! Entre 1960 et 1990, le total des investissements nationaux en RD a augmenté de 250 %, alors que le financement fédéral dans les domaines civil et nucléaire croissait de plus de 400 % (compte tenu de l’inflation). En 1992, le président Bush I a recommandé un doublement en cinq ans du budget de la National Science Foundation, et, en 1994, le président Clinton a souhaité que le budget national de RD passât de 2,5 % à 3 % du revenu national. Sans vouloir discuter au fond la pertinence des affirmations de Vannevar Bush et de ses disciples, nous retiendrons qu’elles constituent la base indiscutable et indiscutée de la philosophie politique prônée par la classe dirigeante des États-Unis, et qu’elles se traduisent par une stratégie appliquée sans discontinuer depuis la fin de la Seconde Guerre mondiale, c’est-à-dire par des investissements réguliers à un niveau énorme. Un seul autre État a, pour des raisons extrêmement différentes, accordé une priorité similaire aux investissements en recherche pure et en RD : la Soviétie, dont la philosophie scientiste héritée de Karl Marx, Friedrich Engels et leurs contemporains du milieu du XIXe siècle, a orienté les grands choix politiques et économiques de 1920 à 1985. Les dirigeants, mais aussi le peuple soviétique, ont toujours cru depuis la révolution que la science sauverait l’humanité, et que les efforts de la « patrie du socialisme » et de ses alliés pour atteindre ce noble but justifiaient bien 5. J. Blamont, Le Chiffre et le Songe, Paris, Odile Jacob, 1993.

LES RACINES DE L’HYPERPUISSANCE

87

des sacrifices, imposés à une population réticente. D’où les mœurs policières adoptées universellement dans la vie publique, la vie privée et la vie de l’esprit ; d’où la rétention de l’information à tous les niveaux. Quant aux autres pays, s’ils ont adopté assez souvent une attitude de soutien verbal à la RD, ils ne songent pas à imiter les États-Unis et à en faire une vache sacrée. L’innovation technologique consiste à produire des objets qui n’existaient pas auparavant ; c’est un processus qui réunit l’invention, les essais, la diffusion et l’acceptation par le marché. Sa marche suit une courbe de saturation avec une durée caractéristique de la diffusion nécessaire pour passer de 10 % à 90 % de son potentiel de réalisation, estimée à environ trente ans par Arnolf Grübler6 : c’est-à-dire à une génération. Pour atteindre un taux de pénétration de 99 %, il faut plutôt compter deux générations, car l’inertie augmente et les rendements décroissent quand on s’approche du plafond de saturation. L’introduction de certains objets déclenche parfois une avalanche d’innovations dans tous les domaines, des techniques jusqu’aux mœurs lorsqu’elle touche le fonctionnement des grands systèmes économiques ou sociétaux. On peut alors parler de rupture. Grübler a raisonné sur des évolutions aussi variées que l’expansion de la réforme cistercienne après l’an 1125 ou le développement des canaux aux États-Unis. En ce qui concerne ce dernier pays, on distingue dans leur histoire quatre vagues d’innovations technologiques : vers 1820, textile, grandes routes, moulins à eau ; jusqu’à 1870, machine à vapeur, sidérurgie du fer, canaux ; jusqu’à 1940, automobile, charbon, chemins de fer, sidérurgie de l’acier, électrification de l’industrie ; jusqu’à 1990, pétrole, autoroute, matériaux plastiques ; électrification du consommateur, gaz naturel, transport aérien. De temps en temps un secteur s’assoupit, tel celui de l’automobile pendant les années 1960-1970, ou perd son élan, tel celui de l’aviation civile dans les années 1995-2000. L’Amérique technique a stagné pendant la guerre du Vietnam, la permissivité de 1968, le scandale du Watergate et l’affaiblissement de la branche exécutive qui ont suivi ces événements. Mais si la politique appliquée par l’administration Reagan, avec ses relances macroécono6. Arnolf Grübler, « On the Patterns of Diffusion of Innovation », Daedaelus, Journal of the American Academy of Arts and Sciences, été 1996, vol. 125, n° 3, 19-42.

88

INTRODUCTION AU SIÈCLE DES MENACES

miques et macroadministratives, son action anti-inflationniste, la refonte du système fiscal, la baisse des taux d’intérêt et des seuils d’imposition, la privatisation et le retour aux États de pans entiers d’initiative, si cette politique a reconstitué un terreau fertile, c’est l’effort continu de RD qui est responsable de l’extraordinaire augmentation de puissance à laquelle nous assistons depuis vingt ans. Car dans ce terreau se sont développés les produits de la loi de Moore et il s’est ensuivi le déferlement d’une cinquième vague d’innovation de rupture, aussi révolutionnaire dans son genre, mais surtout beaucoup plus rapide que les précédentes : celle qui repose sur l’information.

Les relais Si les États-Unis disposent du plus riche ensemble de laboratoires universitaires et industriels, où se font les découvertes et où naissent les grandes inventions, ils emploient des relais pour faire passer les produits de la recherche dans les forces armées, l’industrie et la vie courante. Ces relais, qui leur sont propres et qu’on ne saurait trop admirer, constituent les amplificateurs de leur puissance. LA COMMUNAUTÉ DE DÉFENSE

Des centaines de milliers d’individus travaillent dans le domaine de la défense. Mais à la différence de la Soviétie où les personnes impliquées dans ces activités, guère moins nombreuses sans doute, n’avaient pas droit à la parole, les États-Unis ont su créer une communauté des affaires stratégiques libre, vibrante et multiforme. Une étonnante multiplicité de personnalités intervient dans les débats ouverts par la presse ou aux auditions organisées par le Congrès. Des rapports, des propositions, des analyses sont produits en permanence par les forces armées, les conseils de l’Administration, les instituts de recherche publics, semi-publics ou privés, les universitaires, les groupes civiques et charitables, les structures d’études à vocation idéologique ou syndicale, les centaines d’associations soutenues par l’industrie, les lobbies militaires, les médias… Tous ces gens participent à des réunions, conférences ou colloques, témoignent devant les instances parlementaires, écrivent lettres et articles de journaux et contribuent ainsi chacun de son côté à l’élaboration de la stratégie nationale. Ils se retrouvent membres de panels éphémères, de comités, de groupes spécialisés, se fréquentent et se connaissent.

LES RACINES DE L’HYPERPUISSANCE

89

Quiconque a participé comme l’auteur de ces lignes, à la vie scientifique et technique des États-Unis, se trouve membre coopté non d’un club mais de plusieurs, où circulent l’information, les idées, la créativité. La discussion n’écarte a priori aucune novation. Un projet hétérodoxe peut trouver dans l’éventail des organisations concernées, un refuge provisoire qui le laissera peut-être mourir dans un cul-de-sac, mais s’efforce souvent de le protéger jusqu’à l’aboutissement. N’a-t-on pas vu, dans les années 1950, le Sénat sauver l’amiral Hyman Rickover de l’ostracisme de ses pairs, obtenir son inscription au tableau d’avancement et forcer la Navy à créer la flotte des sous-marins nucléaires Polaris à son corps défendant ? A contrario, pour prendre un très modeste exemple personnel, après dix ans d’efforts continus aussi bien dans les conseils de la Nasa qu’au laboratoire où je travaille, Jet Propulsion Laboratory, rattaché au California Institute of Technology, je n’ai pu convaincre mes collègues d’adopter un programme d’exploration martienne par moyens aériens, ballons, avions ou planeurs… car cette admirable « démocratie intellectuelle », tout en possédant les instruments qui permettent, ou devraient permettre, une maximisation des moyens, suscite des scléroses : la mainmise de certains groupes sur les processus de discussion et de décision, les préjugés techniques, idéologiques ou nationalistes, l’inertie bureaucratique. L’espace offre avec la navette un bel exemple d’erreur collective : la décision américaine de construire un lanceur semi-récupérable s’est accompagnée de l’arrêt de mort porté contre tous les autres lanceurs qui avaient pourtant montré leur excellence. Lorsqu’en 1986 un accident a interrompu l’essor du nouvel engin, les États-Unis ont dû céder pour un temps le leadership des lanceurs à un nouveau venu, l’Europe. Les quelques erreurs commises par la communauté ne remettent pas en cause le processus d’intégration intellectuelle qui conduit à une politique de défense alimentée par cette extraordinaire machine à diffuser les idées neuves. En fait, la société tout entière est impliquée dans cette distillation de l’intelligence vers la puissance. Nous rencontrerons maintenant successivement un exemple des institutions privées spécialisées dans cette distillation, puis un incubateur fédéral des idées qui possède les moyens de la transformer en projets, et enfin nous insisterons sur l’essentiel, la volonté nationale d’investir dans la novation : le citoyen des États-Unis est persuadé que la force de la nation et son avenir résident dans l’exploitation de l’American ingenuity (la créativité américaine), et il entend bien payer ce qu’il faut pour passer du discours à l’acte.

90

INTRODUCTION AU SIÈCLE DES MENACES

LES THINK TANKS

Plusieurs institutions américaines à finalité identique regroupent des gens très intelligents, assez fréquemment universitaires mais venus aussi du monde économique, payés en général par le gouvernement pour étudier des problèmes de société. Tout en citant au passage parmi elles le Brookings Institution et DFIInternational, nous présenterons de façon moins succincte la plus célèbre, la Rand Corporation (contraction de l’expression Research and Development). L’institution Rand a été engendrée dans le cadre de la philosophie présentée par Vannevar Bush, qui régnait dans les cercles dirigeants américains à la fin de la Seconde Guerre mondiale. En 1945 en effet, le général H. H. (Hap) Arnold, commandant l’Army Air Force, écrivit au secrétaire à la Défense : « Pendant cette guerre, les armées de terre et de l’air et la marine ont exploité à une échelle sans précédent les ressources scientifiques et industrielles. Nous devons admettre que nous n’avons pas encore établi l’équilibre permettant de continuer le travail en équipe entre le militaire, les agences civiles, l’industrie et l’Université. La planification scientifique doit précéder par de nombreuses années la recherche effectuée et le développement. »

Le 1er octobre 1945, le général Arnold et les dirigeants de la société aéronautique Douglas, y compris son patron fondateur Donald Douglas, créèrent le projet Rand sous contrat de l’Air Force avec Douglas. Le nouvel organisme s’installa en 1946 à Santa Monica (Californie). Son mandat était d’effectuer des études prospectives sur les technologies qui pourraient ultérieurement intéresser l’Army Air Force, devenue plus tard l’US Air Force. Le premier rapport de l’institution naissante parut en mai 1946 et le sujet n’en est certes pas indifférent : Preliminary Design of an Experimental World-Circling Spaceship (« Description préliminaire d’un vaisseau spatial expérimental tournant autour de la Terre »). Au début de 1948, le projet Rand avait grandi jusqu’à compter deux cents ingénieurs et scientifiques. Sa doctrine a été bien explicitée dans son deuxième rapport : « La complexité des problèmes et les progrès rapides bien qu’inégaux dans les différents domaines scientifiques exigent la coordination, l’équilibre et la fertilisation croisée. » Dès le 1er novembre 1948, la séparation indispensable d’avec Douglas permit de transformer le projet Rand en une institution sans but lucratif, la Rand Corporation, avec la charte codifiant sa raison d’être : « Promouvoir des objectifs dans la science, l’éduca-

LES RACINES DE L’HYPERPUISSANCE

91

tion et les œuvres charitables, pour le bien du public et la sécurité des États-Unis d’Amérique. » Quelques hauts responsables des universités et de l’industrie parrainaient le nouvel enfant, les présidents de la Carnegie Corporation, du California Institute of Technology, de l’Université d’Illinois, les directeurs de recherche de Westinghouse Electric Corp. et du Battelle Memorial Institute, etc. Aujourd’hui, Rand ne se veut ni une université ni un consultant en gestion, mais estime posséder la capacité de remplir ces deux fonctions. Sa mission est officiellement d’aider à l’amélioration de la stratégie et du processus de décision de ses clients grâce à la recherche et à l’analyse. Son budget (année fiscale 2001) est de 161 millions de dollars. Elle est aujourd’hui principalement soutenue par les agences du gouvernement fédéral. S’ajoutent à ces sources de financement des contrats avec des fondations charitables, des firmes du secteur privé, des individus et des ressources propres qui permettent à la Rand de conduire des études qui ne sont pas toutes confidentielles. Portant sur la défense mais aussi sur les problèmes principaux de la politique nationale, elles sont destinées aux décideurs des secteurs public et privé, parfois même à l’opinion dans son ensemble. Elles ont pour objectifs de fournir une aide pratique en clarifiant les choix et identifiant les obstacles, de développer des solutions innovantes à des problèmes complexes et de disséminer les résultats autant que possible. Très occupée pendant les années de confrontation avec la Soviétie à livrer la Troisième Guerre mondiale sur le papier, Rand s’enorgueillit d’importantes contributions : la définition du programme spatial, le développement du calcul digital, l’invention de la paquetisation dont nous avons vu le rôle dans Internet, d’innombrables outils pour la théorie des jeux, la programmation linéaire et dynamique, la modélisation et la simulation et la théorie des réseaux. Un des premiers ordinateurs est sorti de chez elle. Peut-être l’essentiel de son apport réside-t-il dans le développement de l’analyse système et son adaptation non seulement à des problèmes militaires, mais aussi à des questions de société comme la lutte contre la pauvreté, la politique dans la ville, la Sécurité sociale, l’éducation. Rand, dont le siège est toujours situé à Santa Monica, emploie environ 725 professionnels, dont 80 % ont un diplôme de docteur dans les domaines les plus variés des sciences humaines et inhumaines. Certains travaillent dans les succursales établies à Arlington (Virginie), Pittsburg (Pennsylvanie) et à Rand-Europe, installée à Leyde (Pays-Bas). L’influence de la Rand, ainsi que

92

INTRODUCTION AU SIÈCLE DES MENACES

celle des organisations similaires, sur le gouvernement fédéral ne saurait être surestimée. La pensée scientifique, technique et managériale issue des universités et des laboratoires industriels irrigue ainsi par ce type de canal une importante partie de l’action fédérale des États-Unis. LA DEFENSE ADVANCED RESEARCH PROJECTS AGENCY

La DARPA est une agence du DoD7 créée en 1958 (nommée ARPA à ses débuts) pour fournir une supériorité technologique aux forces armées des États-Unis en encourageant l’innovation et en finançant des projets à haut rendement, souvent à haut risque. Selon les mots de son directeur (2002) Frank Fernandes, elle doit posséder les talents d’un change leader, c’est-à-dire qu’elle doit être l’agent du changement par sa capacité d’évoluer avec vitesse et flexibilité pour adapter la défense à un monde en pleine mutation. Bien qu’elle ne compte que cent cinquante personnes environ, le palmarès de DARPA est prestigieux. Elle a réussi avec une stupéfiante maîtrise à transformer les technologies qu’elle a financées en capacités militaires opérationnelles. Elle est l’agence de maturation des technologies. DARPA sait qu’il faut aux technologies de base près de vingt ans pour s’introduire dans un système militaire et a montré patience et continuité dans l’action. Depuis sa création, chaque conflit a démontré la sagesse de la politique qui consiste à entretenir une organisation de ce genre, libérée de la pensée conventionnelle. Ainsi, les moyens révolutionnaires tels que le chasseur furtif F 117, le système radar aérien J. STARS, les missiles de croisière, les projectiles précis Precision Guided Munitions, qui ont joué un si grand rôle dans la conduite et le succès des opérations au Kosovo, en Afghanistan et en Irak, proviennent directement d’initiatives prises par cette petite agence pendant les années précédentes. Pratiquement tous les systèmes d’armes en service aux États-Unis ont été affectés à un degré significatif par le travail de DARPA. Dans le domaine de l’information, DARPA a aussi bien créé des technologies spécifiques pour transfert direct à un service opérationnel, que stimulé des changements révolutionnaires dans le marché commercial, amenant ainsi l’apparition de nouveaux produits à usage militaire ou civil. Nous avons déjà rencontré8 son action pour mettre au point Arpanet, le premier réseau 7. Nous utiliserons l’abréviation DoD pour désigner le Department of Defense, ou ministère fédéral de la Défense des États-Unis. 8. Voir p. 20.

LES RACINES DE L’HYPERPUISSANCE

93

connectant les ordinateurs. Dans les années 1970, DARPA a incorporé dans le Net la paquetisation, imaginée chez Rand, et a poussé au démarrage de NSF-Net. Dans les années 1990, DARPA a introduit le réseau ATM (Asynchronous Transfer Mode), qui permet le transfert à large bande sur les réseaux audio-vidéodonnées), en fait domine cette technologie et, entre autres, connecte tous les centres de commandement aux États-Unis, y compris outremer comme en Arabie Saoudite et même en Bosnie. Dans le domaine du calcul, sachez que la souris de votre ordinateur, les interfaces graphiques standard universellement répandues, les logiciels UNIX, trouvent leur origine dans la recherche initiée par DARPA. Dès les années 1970, DARPA soutint le calcul parallèle, puis pendant la période 1980 nourrit la Strategic Computing Initiative, et plus tard le calcul massivement parallèle. Les ordinateurs SPARC de SUN et les disques à Mips (millions d’informations par seconde) de chez Silicon Graphics sont dus à son appui. Pour le software, DARPA a répandu ADA, adopté comme langage primaire du DoD, soutenu le High Performance Fortran (HPF) devenu un standard industriel, développé SCALAPACK utilisé par tous les systèmes du monde comme librairie mathématique pour les machines de haute performance. Dans le domaine des composants, les investissements de DARPA ont permis la naissance des microprocesseurs VLSI (Very Large Scale Integration) à l’Université Stanford et RISC (Reduced Instruction Set Computing) à l’Université de Californie (Berkeley). Ces composants sont les éléments de base des produits commerciaux d’IBM, de Sun Microsystems, de SGI (Silicon Graphics Inc.), de HP (Hewlett Packard) et d’Intel. Dans le domaine des matériaux, citons les tuiles de céramique pour avions, tanks et navette spatiale ; l’introduction de l’arséniure de gallium dans les composants ; le développement des détecteurs infrarouges à barrière de Schottky. Dans le domaine spatial, DARPA a joué le rôle d’incubateur pour les projets suivants, transférés à Nasa lors de sa création : le moteur F-1 du Saturne, la fusée construite pour la conquête de la Lune, ses premiers étages à hydrogène et oxygène liquides RL-10, et l’étage supérieur. Plus récemment, dans les années 1990, DARPA a fait développer les petits lanceurs Taurus, équipés d’une plateforme transportable et lançables sur tout site après une préparation d’une semaine seulement (fusée à quatre étages solides capable de placer 900 kg sur une orbite polaire circulaire d’altitude 400 kilomètres), et Pegasus-XL, engin peu coûteux (1215 millions de dollars) logé sous l’aile d’un avion Lockeed L-1011

94

INTRODUCTION AU SIÈCLE DES MENACES

modifié, capable de placer 300 kg sur orbite basse et qui, après des débuts difficiles, est aujourd’hui opérationnel. Le premier système de navigation par satellite, Transit, qui comprenait une constellation (la première) de 36 satellites, devint opérationnel en 1968. Il fournissait une navigation précise par tout temps à des véhicules militaires et commerciaux, mais surtout à la force stratégique des sous-marins nucléaires de l’US Navy, avant d’être remplacé par GPS (Global Positionning System) après vingt-huit ans de service. Il est instructif de noter que la proposition Transit fut présentée à DARPA en 1958 par l’Applied Physics Laboratory de l’Université Johns Hopkins de Baltimore (APL/JHU) après son rejet par la Marine comme trop coûteuse et trop risquée. DARPA se substitua à la Navy, accepta de financer un démonstrateur de faisabilité et de fournir les systèmes de lancement ; APL construisit le satellite et les stations sol. Après un succès complet, la Marine s’avoua convaincue et assura le financement à partir des années 1960. Le premier satellite de météorologie Tiros-I, initié lui aussi par DARPA, en 1958, transféré à Nasa en 1959 et tiré aussitôt avec succès, produisit 23 000 images de la Terre et de son système nuageux. Sa postérité a été nombreuse. L’apparition révolutionnaire des CCD (Charge Coupled Device), matrices de détecteurs fournissant des images digitales, a influencé la posture des États-Unis dans la guerre froide de façon significative, lorsqu’à partir de 1976 ils ont été utilisés sur les satellites imageurs, avant de bouleverser l’industrie civile de la photographie et du cinéma. DARPA, dont l’action se trouve à l’origine de la miniaturisation des satellites, a depuis 1980 soutenu la mise au point et le lancement de plusieurs minisatellites et microsatellites, puis des nanosatellites au début de 2001. Dans le domaine des véhicules aériens non pilotés, DARPA a développé à partir de 1984 le premier drone américain (UAV, ou Unmanned Aerial Vehicle) Amber, qui s’est poursuivi par le Gnat 750, déployé en Bosnie, et le Predator, employé avec succès par l’US Air Force en Afghanistan et en Irak. Le Predator porte une charge utile de 200 kg et peut remplir de nombreuses missions, allant de la reconnaissance au moyen d’un SAR, radar à synthèse d’ouverture, au bombardement. En 2000, mes amis de la société Aerovironment m’ont montré dans leur usine de Simi Valley, à quelques dizaines de kilomètres de Los Angeles, non seulement le Pathfinder, un avion sans pilote à 8 moteurs électriques alimentés par des piles solaires placées sur ses ailes d’envergure 40 mètres, qui venait de voler 24 heures

LES RACINES DE L’HYPERPUISSANCE

95

sans arrêt à l’altitude de 22 km, mais aussi ont manipulé devant moi un petit engin volant rond de 15 centimètres de diamètre, porteur de caméras et piloté par un joystick : le rêve, financé par DARPA, non seulement d’un commandant de compagnie qui voudrait observer ce qui se passe « derrière la colline », mais aussi d’un sergent de sapeurs engagés dans un combat de rue et désireux d’expédier une charge d’explosifs aux tirailleurs qui empêchent sa progression… et celui de nos amis de Netwar dont l’imagination sera stimulée par ces engins, mortels s’ils le veulent, quand ils les connaîtront. Quelle liste ! Et nous ne citons pas tout, en particulier bien sûr le vaste domaine de la recherche classifiée (comme l’ont été par exemple les détecteurs CCD, considérés pendant longtemps comme un développement ultrasecret). Le budget de DARPA, qui dans les années 1950 avoisinait 2 milliards de dollars, est proposé à 3 milliards de dollars pour 2004. Il augmentera dans les prochaines années. Depuis sa création, DARPA a dépensé 55 milliards de dollars. C’est le prix de la puissance. Avec Rand et DARPA présentés ici comme des exemples choisis parmi des institutions variées aux objectifs similaires, les États-Unis ont su créer un mécanisme de couplage entre l’Université et l’industrie, sources d’invention, et le gouvernement fédéral avec ses agences civiles et militaires, sources d’innovation. La science est ainsi mise à la disposition non seulement du pouvoir, mais aussi de la nation. Science et liberté sont les deux mamelles de la puissance américaine.

L’effort de recherche et développement (RD9) Le progrès scientifique et technique passe par trois étapes : l’étape de la recherche fondamentale, poursuivie sans objectif autre que l’augmentation des connaissances, relevant presque du caprice, avec l’intuition qu’il y a quelque chose d’amusant, ou de passionnant, ou d’utile à trouver, et menée par des spécialistes indépendants ou regroupés dans des institutions scientifiques publiques ou privées. La recherche de base est complétée par la recherche en technologie pour former la RT. Cette activité permet 9. Les données présentées dans ce chapitre sont exprimées en chiffres de 1998, et proviennent de la publication Indicateurs de la Science et de la Technologie, Observatoire des sciences et des techniques, sous la direction de Rémi Barré et Laurence Esterle, Paris, Economica, 2002.

96

INTRODUCTION AU SIÈCLE DES MENACES

de construire l’expertise scientifique et technique nécessaire au lancement de nouveaux programmes, même si elle n’est pas en général directement reliée à l’élaboration d’un matériel particulier. La deuxième étape est celle du développement, dans laquelle un domaine étroit est isolé dans un ensemble de recherches pour que soit défini quelque chose qui deviendra un produit industriel. Des prototypes et des démonstrateurs sont construits, essayés, comparés jusqu’au choix de spécifications définissant le mode complet de fabrication. Enfin, la troisième étape est celle de l’industrialisation qui mène le produit développé jusqu’au stade d’objet vendable et à sa mise sur le marché, souvent en grandes quantités. On estime classiquement qu’un produit introduit sur le marché exige des investissements de 1 pour la recherche, 10 pour le développement, 100 pour l’industrialisation. Ces chiffres ne fournissent qu’un ordre de grandeur, qui ne doit pas être pris à la lettre. Est appelé budget de RD l’ensemble des dépenses de recherche et de développement d’un investisseur, public ou privé, et donc aussi d’un État ou d’un groupe d’États. Il englobe la RT (recherche et technologie), qui dans le budget d’un État, correspond à environ 25 % de la RD. Est appelé DIRD l’ensemble des dépenses internes de RD d’un pays. Le poids d’un pays dans le monde du XXIe siècle dépend aujourd’hui directement de sa DIRD. Nous commencerons par comparer la DIRD des grands pays, comparaison qui permet de comprendre le fond des choses, puis nous présenterons plus en détail, de façon séparée, les cas des États-Unis et de l’Union européenne. COMPARAISON DES ACTEURS DE LA RD MONDIALE

Dans la plupart des pays, la part de l’État dans le financement de la RD a diminué au début des années 1990. La réduction des dépenses militaires, due à la fin de la guerre froide, et les contraintes budgétaires ont fait pression sur les dépenses consacrées à la science et à la technologie. La seule exception parmi les pays de l’OCDE est le Japon, où la RD financée par le gouvernement a augmenté pendant les années 1990, bien que sa part dans la RD totale reste faible. Aussi bien une forte correction vers la hausse de la RD fédérale donnée à la politique américaine dans les dernières années de l’administration Clinton, que la contribution majeure apportée au financement de la RD par les entreprises, font des États-Unis le champion de la DIRD.

97

LES RACINES DE L’HYPERPUISSANCE

La zone Amérique du Nord effectue 36 % de la RD mondiale, la zone Europe 24 % et l’Asie industrielle (y compris le Japon, mais pas la Chine) 25 %. Ces trois zones géographiques, qui représentent moins d’un quart de la population de la planète, effectuent 85 % de la RD. Les 15 % restants sont principalement le fait de la Chine (5 %), de l’Amérique latine (3 %) et de l’Inde (2 %). Les pays du sud de la Méditerranée, ceux de la Communauté des États indépendants (anciennement Soviétie), ceux de l’Afrique sud-saharienne et les autres pays d’Asie (qui au total représentent 45 % de la population et 15 % du PIB mondiaux) ne comptent que pour 7 % de la RD. La distribution mondiale de la RD est beaucoup plus concentrée que celle de la richesse économique. Le rapport des dépenses intérieures (DIRD) au produit brut (PIB) vaut respectivement 2,9 %, 2,8 % et 1,8 % au Japon, aux États-Unis et dans l’Union européenne, à comparer à 0,8 % pour le reste du monde. Le tableau suivant présente les valeurs totales de la DIRD en 1998, exprimées en milliards d’euros à parité de pouvoir d’achat. Tableau I : Volume de la DIRD (1998) en milliards d’euros Union européenne

États-Unis

Japon

Total OCDE

Total Monde

134,3

214,3

84,1

484,4

529,2

Dans l’OCDE, qui finance et exécute environ 90 % de la RD mondiale, les États-Unis effectuent 44,2 %, l’Union européenne 27,7 % et le Japon 17,4 % de la DIRD. Sur une base 100 en 1994, la DIRD des États-Unis atteignait en 1998 136 et celle de l’Union européenne 116. La messe est dite. Dans les trois zones géographiques États-Unis, Union européenne, Japon, la part des entreprises est supérieure à celle des pouvoirs publics (État et collectivités territoriales). Les deux tableaux suivants précisent la provenance des crédits (exprimés en milliards d’euros).

98

INTRODUCTION AU SIÈCLE DES MENACES

Tableau II : Financement public de la RD (1998) Pays ou zones

Finalité (%)

Ratio à la DIRD (%)

Volume (milliards d’euros)

Civil

Militaire

Union européenne

52,9

82,7

17,3

39,4

États-Unis

73,5

49,0

51,0

34,3

Japon

20,9

96,0

4,0

24,9

Total OCDE

167,7

71,4

28,6

34,6

Le caractère le plus frappant de ce tableau est que les ÉtatsUnis consacrent la moitié de leur effort de RD au militaire. En conséquence, ils paient 78,1 % de la dépense publique mondiale en RD militaire ; vient ensuite l’Union européenne au niveau de 19 %. De 1994 à 1998 la part des États-Unis a augmenté de 2 % et celle de l’Union européenne a diminué de 8 %, le tout dans un contexte général de baisse du total : - 14 % pour l’Europe et - 6 % pour les États-Unis. Tableau III : Financement de la RD par les entreprises (1998) Pays ou zones

Volume (milliards d’euros)

Ratio de la DIRD (%)

Part OCDE (%)

Union européenne

72,2

53,8

23,7

États-Unis

140,8

65,7

46,1

Japon

62,9

74,8

20,6

Total OCDE

305,1

63,0

100,0

Le caractère le plus frappant de ce tableau est que les entreprises américaines financent en volume deux fois plus de RD que les entreprises européennes ou japonaises. Là se concrétise la priorité donnée par tous les acteurs politiques ou économiques américains à la pensée technologique. Et le dynamisme ne s’effrite pas aux États-Unis, où la part de la DIRD financée par les entreprises a augmenté de 12 % entre 1994 et 1998 alors qu’elle ne gagnait que 2 % en Europe pendant la même période. La différence entre l’Europe et les autres pays de l’OCDE n’est pas que doctrinale : l’industrie européenne ne peut dépenser autant que ses concurrents en RD à cause de ses charges sociales.

99

LES RACINES DE L’HYPERPUISSANCE

10

LA POLITIQUE ACTUELLE DE RD DES ÉTATS-UNIS

Analysons la proposition de budget présentée au Congrès par le président Clinton en décembre 2000. Dès le début, le document annonce l’accord du Congrès et du président pour une augmentation record de tous les programmes fédéraux de RD. Le budget total de RD pour l’année fiscale 2001 dépasse pour la première fois 90 milliards de dollars, un accroissement de 9,1 % en un an (7,6 milliards de dollars en volume). La RD civile augmente de 11 % pour atteindre 45,3 milliards de dollars (accroissement en volume de 4,6 milliards de dollars : 12,3 % au Département de l’énergie (DoE), 13,2 % à la National Science Foundation, 11 % à la RD de la Nasa). La RD militaire augmente de 7 % pour atteindre 45,5 milliards de dollars. La recherche fondamentale du DoD est accrue de 13 % et la recherche appliquée de 8 %. En fait le président avait proposé une forte coupure de crédits sur cette ligne, mais le Congrès a renversé cette position et accordé l’augmentation de 8 %. La partie militaire du DoE (nucléaire) continue son expansion avec un gain de 12,0 %. Le budget de DARPA augmente de 6,4 % (121 millions de dollars en volume pour atteindre 2 milliards de dollars). Sans entrer dans le détail du budget nous noterons deux domaines particuliers : l’initiative de Nanotechnologie déjà citée voit son budget doubler passant de 247 millions de dollars en 2000 à 495 en 2001 ; l’initiative de RD en technologie de l’information, confiée à la NSF, bondit de 90 millions de dollars en 2000 à 215 millions de dollars en 2001. Avec les autres projets, la dépense totale en cette matière doit s’élever à 2,1 milliards de dollars en 2001 en augmentation de 24 % sur l’année précédente. Il est vrai que le budget Clinton présentait en 2000 un extraordinaire surplus de 237 milliards de dollars, en excédent pour la troisième année consécutive. La manne suscitait beaucoup d’appétits, mais le gouvernement n’a pas cédé à la démagogie et il a maintenu des investissements très importants en RD. L’industrie a fait de même et le budget RD des entreprises a continué à croître pour atteindre 264 milliards de dollars en 2000 (augmentation de 7,9 % sur les investissements de 1999, euxmêmes en hausse de 7,5 % sur ceux de 1998 qui nous ont servi de base de comparaison). Dès 1994, la DIRD américaine a subi une 10. Documents budgétaires présentés au Congrès par les présidents W. Clinton et G. W. Bush.

100

INTRODUCTION AU SIÈCLE DES MENACES

extraordinaire croissance, au début presque entièrement due aux fonds des entreprises. En 2000, l’industrie américaine a dépensé 179 milliards de dollars en RD sur ses propres fonds, augmentant de 10,3 % sur l’année précédente. Ce mouvement a pris naissance il y a quarante ans et en fait coïncide avec l’expansion des semiconducteurs, de sorte qu’aujourd’hui les deux tiers de la RD sont payés par les entreprises. Nul doute que la croissance rapide des industries dépendant de la technologie comme celles de l’information et de la biologie, ne soit liée dans l’esprit des décideurs à de lourdes dépenses en RD. On a oublié qu’au milieu des années 1990, la NSF estimait que l’industrie réduirait son investissement en recherche fondamentale et en RD. Aujourd’hui, la NSF estime que les États-Unis leur consacrent 2,8 % du PIB. La tendance survivra-t-elle à la récession que les États-Unis ont traversée en 2001, qui a touché les produits de haute technologie ? Nous chercherons un élément de réponse à cette question dans le budget du président George W. Bush pour 2003 : il a proposé une augmentation de 20 milliards de dollars entre 2002 et 2006 du budget fédéral de RD militaire, commençant par un incrément de 2,6 milliards de dollars pour la première année. L’agression du 11 septembre 2001 a renforcé cette tendance en amenant le président à augmenter le budget du DoD dans des proportions encore jamais vues. Pour l’année fiscale 2003, le budget total du DoD reçoit la plus forte hausse qu’il ait connue dans l’histoire des États-Unis : il augmente de 13,4 % (45 milliards de dollars en volume) jusqu’à 379 milliards de dollars. La part consacrée à la RD dans le budget fédéral (civil et militaire) augmente de 8,6 % jusqu’à la somme record de 112 milliards de dollars, supérieure de 8,9 milliards de dollars au budget RD de 2002. Les domaines prioritaires de la défense, de la santé et de la lutte contre le terrorisme bénéficient de cette augmentation attribuée à raison de 5,2 milliards de dollars et 3,7 respectivement au DoD et au NIH (National Institute of Health). Ainsi est renforcé le profil « missiles et santé » de la RD fédérale, déjà marqué lors des années précédentes sous une administration démocrate : cette politique est le fruit d’un consensus « bipartisan ». • Le budget de RD civil augmente de 7,2 % pour atteindre 53,3 milliards de dollars. • Le budget de RD militaire augmente de 9,9 % pour atteindre 58,8 milliards de dollars. Les nouveaux systèmes d’armes et de missiles reçoivent des augmentations inférieures à la moyenne. La DARPA et le programme de défense chimique et biologique

LES RACINES DE L’HYPERPUISSANCE

101

sont les grands vainqueurs avec une augmentation respective de 19,2 % et 69,7 %. L’investissement fédéral en recherche de base augmente de 7,9 % (1,9 milliard de dollars) pour atteindre le niveau jamais vu de 25,5 milliards de dollars. L’investissement fédéral total en recherche (fondamentale et appliquée) augmente de 6,5 % à 51,9 milliards de dollars. Notons quelques traits particulièrement intéressants : l’initiative de Nanotechnologie obtient encore 17,6 % d’augmentation (106 millions de dollars en valeur) et après une augmentation encore plus forte l’année précédente, atteint 710 millions de dollars. L’effort le plus important est confié au DoE (Department of Energy) pour la recherche sur le calcul et le développement des moyens à mettre à la disposition des scientifiques. La RD sur les réseaux et la technologie de l’information augmente de 2,5 % pour atteindre 1,9 milliard de dollars répartis en sept agences. Ses priorités portent sur la sécurité des réseaux, la fiabilité des logiciels et des systèmes, les technologies de capteurs, la miniaturisation des architectures pour le calcul à haute performance. Un autre effort interagences, la RD de contre-terrorisme, qui avait déjà reçu une énorme augmentation en 2002 pour atteindre 1,5 milliard de dollars, croît encore jusqu’à 2,8 milliards de dollars dont 1,7 au National Institute of Health (NIH) pour la recherche sur le bioterrorisme. Les projections officielles qui s’étendent jusqu’en 2007, ne font que refléter les priorités de l’équipe de G. W. Bush et n’engagent pas l’avenir. Elles n’en sont pas moins révélatrices. Elles prévoient de porter le budget fédéral de RD à 122,1 milliards de dollars en 2007 c’est-à-dire une augmentation de 8,1 % dans les secteurs privilégiés de défense et de santé, en insistant principalement sur la triade « nano-info-bio ». Les autres domaines ne connaîtraient que le plafonnement au niveau actuel. La part dans la RD du DoD, qui a fourni jusqu’aux deux tiers de l’effort fédéral dans ce domaine pendant les années 1980, avec un maximum en 1987 lors du programme Space Defense Initiative (SDI) du président Reagan, avait baissé à la fin de la guerre froide. Depuis 2000, elle redevient le facteur déterminant de l’orientation de la RD américaine. Avec le retour à une politique de déficit budgétaire fédéral qui permet beaucoup de fantaisies, on peut s’attendre à une amplification des tendances dépensières actuelles dans les domaines privilégiés que nous avons cités. Le DoD occupe une place importante dans le système public de recherche, non seulement par le volume de sa RD, mais aussi parce qu’il encourage la valorisation commerciale des technolo-

102

INTRODUCTION AU SIÈCLE DES MENACES

gies militaires. Cette politique permet de faire participer la défense aux nouveaux objectifs de la recherche publique et donne à ses dépenses une justification économique. Un rôle moteur est ainsi joué par le DoD dans le développement de l’innovation de rupture qui permet aux firmes de maintenir leur position de leader sur un ensemble de marchés civils aussi bien que militaires. Ce fut le cas, nous l’avons vu pour le développement paradigmatique d’Internet, mais aussi pour le rattrapage technologique dans l’industrie des semi-conducteurs dépassée par le Japon. Le DoD mène la danse dans les domaines mis en avant par les budgets Clinton et Bush, où l’on notera l’intérêt qu’il n’hésite pas à porter à la recherche très en amont comme l’informatique quantique, mais aussi plus près du développement avec les moteurs d’avions. Tous les progrès de la technologie employée à bord des satellites ont depuis le début de l’ère spatiale été engendrés par les investissements du DoD. Citons dans ce domaine la véritable révolution technologique apportée par les investissements du programme SDI qui se sont montés annuellement à 4 milliards de dollars jusqu’à l’ère Clinton. En dehors même de ce cadre, le soutien généreux du DoD à la RD de l’industrie des satellites de télécommunication est aujourd’hui et depuis bien longtemps la source des avancées spectaculaires de ces agents essentiels de la puissance militaire américaine avec des retombées majeures sur les systèmes spatiaux civils. Des coopérations entre les acteurs de la recherche civile et militaire se sont multipliées. Elles se traduisent par la participation des laboratoires de défense aux programmes interministériels de recherche comme Sematech ou Dual Use Program, l’accroissement des partenariats avec les universités, ainsi que la concertation avec les acteurs de la recherche civile sur la définition des technologies clés et la stratégie à employer pour les faire progresser. Les laboratoires militaires, destinataires de 30 % de crédits de recherche amont du Pentagone, regroupent 47 % des scientifiques et ingénieurs fédéraux, soit près de trente mille personnes. Ils possèdent une large gamme de compétences, aussi bien dans le domaine de la santé que dans celui des systèmes de communication. Pour ce dernier, le DoD abonde près de 80 % des financements publics de recherche. Chaque armée dispose de ses propres laboratoires. L’interface entre l’expertise et les opérationnels est donc directe, mais les recherches du DoD ne sont pas cloisonnées. L’étroitesse et la solidité croissantes des liens établis entre les universités, les agences d’objectif et les laboratoires militaires constitue une caractéristique majeure du système de recherche de

LES RACINES DE L’HYPERPUISSANCE

103

défense américain. La DARPA est naturellement la cheville ouvrière du mécanisme. Le DoD joue aussi un rôle fondamental dans le renforcement des compétences universitaires. Près de 50 % du budget des recherches amont sont versés aux universités dans le cadre de projets communs avec les laboratoires militaires abreuvés de cette manne. Enfin, le DoD assume plus de 50 % du financement des programmes SBIR et STTR qui, gérés par la Small Business Administration, mettent en œuvre des coopérations entre la recherche de défense et les petites entreprises, acteurs principaux de l’innovation et de la diffusion des connaissances. L’expertise scientifique des laboratoires militaires est mise au service des PME dans le cadre de projets innovants. Ainsi, l’évolution de la politique de recherche militaire permet-elle à la Défense de participer au développement technologique et économique de la nation et donc de l’orienter. LA RD DANS L’UNION EUROPÉENNE

Au sein de l’Union européenne, l’importance relative des sources de financement varie selon les pays. Les entreprises couvrent 63 % des dépenses intérieures de RD en Allemagne, 47 % au Royaume-Uni et 49 % en France. La faiblesse relative des financements publics en Allemagne et au Japon s’explique notamment par la place peu importante que ces deux pays accordent au financement direct de la RD militaire. Inversement, il faut noter la part relativement élevée de cette RD militaire en France et au Royaume-Uni. En 1998, l’Union européenne finance une DIRD de 134,3 milliards de dollars dont l’Allemagne, la France et le Royaume-Uni fournissent respectivement 30 %, 20 % et 16 %. La comparaison du ratio de la DIRD au PIB fait apparaître un autre classement : Suède, 3,9 % ; Finlande, 2,9 % ; Allemagne, 2,3 % ; France, 2,2 % ; Pays-Bas, Danemark, Royaume-Uni, 2 %… Durant la période de 1994-1998, le volume de la DIRD de l’Union européenne a augmenté de 16 % (5 % pour le Royaume-Uni, 9 % pour la France), mais son ratio par rapport au PIB a diminué de 2 % (- 11 % pour le Royaume-Uni, - 8 % pour la France, - 3 % pour l’Italie). Le financement public civil est de 43,7 milliards de dollars et le financement militaire de 9,1 milliards de dollars. Si le total a augmenté de 11 % entre 1994 et 1998, le financement civil a augmenté de 15 % et le financement militaire a diminué de 4 %. La dépense publique de recherche civile française atteint 62 % de la dépense civile allemande.

104

INTRODUCTION AU SIÈCLE DES MENACES

Le financement militaire est principalement le fait de la France et du Royaume-Uni (respectivement 33,1 et 36,8 % du total de l’UE). La France, le Royaume-Uni et l’Espagne consacrent respectivement 26,8 %, 44,4 % et 40,2 % de leur financement public de recherche à la RD militaire. L’Allemagne représente à elle seule 34,2 % de la RD industrielle de l’Union européenne. Viennent ensuite la France (18,8 %) et le Royaume-Uni (14,6 %). Le classement utilisant la part du financement industriel dans la DIRD fait apparaître un premier groupe de cinq pays entre 60 et 70 % : la Suède, l’Irlande, la Belgique, la Finlande et l’Allemagne. Un second groupe se place à un financement par les entreprises entre 52 et 40 % de la DIRD : l’Autriche, la France (50,3 %) le Danemark, le Royaume-Uni, les Pays-Bas, l’Espagne, l’Italie et le Portugal (25 %). Les financements ont augmenté de 19 % en quatre ans dans l’UE (13 % pour la France). Le tableau suivant donne une photographie saisissante des politiques adoptées par les trois grands États européens. Il pourrait faire l’objet de nombreuses remarques : par exemple l’emprise croissante des multinationales étrangères sur le Royaume-Uni et le faible financement de la RD militaire par l’Allemagne. Tableau IV : Financement de la DIRD

Allemagne

RoyaumeUni

France

Allemagne

RoyaumeUni

1998 en base 100 pour 1994

France

1998 (%)

État (civil)

30,6

32,7

19,8

117

96

86

État (militaire)

11,2

3,2

15,8

66

92

110

Étranger

7,9

2,4

14,9

95

141

119

Entreprises

50,3

61,7

49,5

103

101

99

Total financement

100,0

100,0

100,0

Volume (milliards de dollars)

27,0

40,6

21,3

109

117

105

Source : OCDE (principaux indicateurs S&T), traitements et estimation OST.

105

LES RACINES DE L’HYPERPUISSANCE

Mesurée par le nombre de publications et l’index de citations, France, Allemagne et Royaume-Uni ont une production scientifique qui, selon les disciplines, se chiffre respectivement aux environs de 5 %, 7 % et 8 % de la production mondiale. Chacun des pays concernés produit aux alentours de 25 % de la science de l’Union européenne. Dans le domaine de la technologie, où l’on peut utiliser comme indicateur la part de chaque pays en brevets, européens ou américains dans la production mondiale, les chiffres sont moins favorables. Pour la France, l’Allemagne et le Royaume-Uni, en 1999 ils ne dépassent pas respectivement 2,9 %, 6,9 % et 2,7 % des brevets américains et 6,5 %, 17,9 % et 5,3 des brevets européens. Confortant notre propos, s’affiche la faiblesse des trois pays qui se veulent les leaders européens, dans les technologies de l’information et de la communication (dans le secteur des télécommunications, leur part ne dépasse pas 5,5 % des brevets européens en 1999 après une chute de 27 % en quatre ans). Les chiffres précédents suffisent pour mesurer l’impact d’une politique poursuivie pendant des décennies : si la recherche fondamentale garde en Europe un niveau somme toute satisfaisant, et même brillant dans certains domaines (les mathématiques pour la France, la physique et la chimie pour l’Allemagne, les sciences du vivant pour le Royaume-Uni), la technologie peu à peu passe sous le contrôle de ceux qui poursuivent une politique vigoureuse de RD et non pas seulement de R. Tableau V : Comparaison des États-Unis et de l’Europe (1998) EU

UE

% Population active ayant suivi des études supérieures

34,9

21,2

% Diplômés en sciences et ingénierie

8,1

10,4

Dépenses industrielles de RD (% du PIB)

1,85

0,97

Dépôts brevets techno de pointe (par M habitants)

29,5

17,9

% Capitalisation nouveaux marchés selon PIB

57,3

3,4

Nombre de ménages connectés à Internet (millions)

47,0

28,0

Source : Tableaux de bord de l’Union européenne, 2001.

Un double danger menace l’Europe, le sous-développement technologique et la dépendance qui en découle. Dans les domaines de pointe, un retard prolongé n’est pas rattrapable. Désor-

106

INTRODUCTION AU SIÈCLE DES MENACES

mais, les États-Unis imposent leurs standards, accentuent le handicap de l’industrie européenne en brevets, en propriété intellectuelle, en savoir-faire, en valeur ajoutée : leur objectif à terme est de contraindre les Européens à l’achat sur étagère dans l’industrie américaine. LA RD MILITAIRE EN EUROPE

En ce qui concerne la France, il faut d’abord rappeler qu’elle consacre 2,2 % de son PIB à l’investissement contre 15 % à la fonction publique et 23 % aux transferts sociaux, et qu’elle se classe en dernière position pour l’évolution de la DIRD rapportée au PIB (1995-2000) avec la croissance annuelle la plus négative de l’Europe, de Juppé à Jospin. Selon l’enquête Recherche11 élaborée en 2001, le montant des contrats de RD militaire versé par la DGA (Délégation générale à l’armement, organisme du ministère français de la Défense chargé de la contractualisation des programmes d’armement et de la recherche militaire) a diminué de 45 % entre 1991 et 1997. Durant la période presque concomitante, l’Italie a diminué sa RD militaire de 68 % et l’Allemagne de 30 %, alors que la croissance a repris au Royaume-Uni (10 %). En France, l’année 1996 marque une rupture dans le financement de la RD des entreprises liées à la Défense. De 1992 à 1996, l’ensemble des ressources (publiques et privées) décroît. À partir de 1996, la diminution des investissements publics s’accélère fortement, un peu compensée par une légère augmentation des ressources propres des entreprises. Au total, sur la période 19921998, pendant que se succédaient des gouvernements de couleur politique variable, les ressources financières publiques et privées dont disposaient les firmes ont diminué de 30 %, alors que leurs ressources propres, comprenant l’autofinancement et l’emprunt, augmentaient de 30 %. Ainsi, à partir de 1997, les ressources propres occupent une place de plus en plus importante dans les investissements de RD pour l’ensemble des entreprises. On peut affirmer qu’elles ne compensent pas durablement l’affaissement du financement public. Plusieurs facteurs expliquent cette incertitude structurelle. Tout d’abord, et c’est un fait que l’administration et la classe politique semblent ignorer, l’industrie européenne n’a pas de fonds propres. Dans le domaine de la haute technologie, son acti11. ECODEF, publication de la Direction des affaires financières, Observatoire économique de la Défense, Secrétariat général pour l’administration, Ministère de la Défense, mai 2001, n° 15.

LES RACINES DE L’HYPERPUISSANCE

107

vité, son service reposent, comme ailleurs mais plus qu’ailleurs, sur le soutien de l’État. Elle n’a donc pas les moyens d’une vraie politique de RD. D’où la différence que nous avons constatée entre la participation de l’industrie à la DIRD en Amérique et en Europe. Par suite, la sensibilité des firmes aux aléas conjoncturels est extrême. À titre d’exemple, l’augmentation des ressources propres consacrées à la RD des entreprises liées à la défense pendant les années 1997 et 1998, semble due à la reprise de la croissance économique. Enfin, la volatilité des investissements internes en RD s’explique aussi par la structure du capital. Elle s’accroît pour les firmes cotées en Bourse, dont les choix d’investissement ne reposent que sur la considération du taux de profit. La privatisation des entreprises françaises du domaine aérospatial et de la défense, et le recours croissant au marché boursier, pourraient accroître cette instabilité du financement propre. Pendant les années considérées, le rapport de la recherche autofinancée au chiffre d’affaires est passé de 10 % à 6 % et devrait diminuer jusqu’à 4 %, niveau de la moyenne sectorielle. Cette tendance ne fait que confirmer la différence de culture entre l’Europe et les États-Unis. Les conséquences de la restriction financière n’ont pas tardé. Elle a particulièrement pénalisé la recherche exécutée en interne des entreprises soutenues par la Défense. Sur la période 19931997, ces firmes ont diminué leurs dépenses intérieures de 3 % et ont perdu 25 % des chercheurs et 32 % de leurs effectifs en RD. Dans le même temps, la sous-traitance de la recherche par les entreprises auprès du monde académique a diminué de 50 % et celle en faveur des organismes publics de 20 %. Comparons : au printemps 2001, Intel annonçait son intention d’ouvrir trois laboratoires de recherche sur les campus de l’Université de Californie à Berkeley, de l’Université de Washington à Seattle et de l’Institut Carnegie Mellon à Pittsburg avec un investissement de 4 milliards de dollars afin de développer une étroite collaboration avec le monde de la recherche académique. Qu’une reprise se soit manifestée en 2000 et 2001, portant la DIRD à 32,26 milliards de dollars grâce à une augmentation de la dépense de recherche des entreprises de l’ordre de 2,5 % par an, et du budget RD du ministère de la Défense de l’ordre de 16 % pendant cette période, ne change rien aux conclusions que nous tirons de l’évolution sur dix ans. Au cours des deux dernières décennies, le ministère français de la Défense a perdu son rôle de concepteur de programmes d’armement. Ce phénomène a été accentué par la privatisation

108

INTRODUCTION AU SIÈCLE DES MENACES

des grandes entreprises qui a entraîné un glissement des savoirfaire du secteur public au secteur privé. Les télécommunications ont connu une évolution semblable avec la dénationalisation de France Télécom et de son centre de recherches, le CNET (Centre national d’études des télécommunications) : la privatisation des grandes agences publiques a privé l’État français d’une partie de ses instruments de politique industrielle dans la haute technologie et la défense. D’autres décisions ont accentué cette évolution : l’organisme de la DGA chargé de piloter la recherche amont, la DRET (Direction des recherches et études technologiques), a été supprimée en 1996, en dépit des services indiscutés et indispensables qu’elle rendait. Les collaborations avec le CNRS ont été interrompues. Les crédits d’investissement en RT de la DGA ont diminué entre 1995 et 1999 de 50 % pour l’investissement et de 15 % pour le fonctionnement relatif à la RD. L’ONERA (Office national d’études et de recherches aéronautiques) qui regroupe l’essentiel de l’expertise du ministère de la Défense en aéronautique, s’est trouvé un temps au chômage technique faute de fonds. La faiblesse des moyens consacrés au maintien et au renouveau des compétences réduit la participation du ministère de la Défense au système d’innovation à sa seule expression financière. Sans compétences, nulle élaboration de doctrine, nulle réflexion sur l’avenir. Avec un volume de crédits de RD supérieur au budget français de la Défense, la recherche américaine prépare l’avènement d’une situation où l’industrie d’outre-Atlantique condescendra à des partenariats de développement dont les termes ne pourront être que léonins pour les Européens. Seul en Europe le Royaume-Uni mène une politique susceptible de retarder le décrochage. Londres en effet depuis 1994 a réussi à maintenir sur une pente de croissance moyenne de 2 % l’an l’évolution de ses crédits de RD pour l’équipement de ses forces. Le MoD (Ministry of Defense) a réformé récemment l’Agence de recherche de défense (DERA) britannique. Regroupant 52 centres de recherches et d’essais militaires, la DERA recevait la quasi-totalité des crédits de recherche de défense et n’en sous-traitait que 30 % à l’industrie et aux universités. Elle employait 30 % de l’ensemble des scientifiques et ingénieurs du secteur public de la recherche. Les critiques portées contre l’insuffisance du transfert de technologie vers les entreprises ont conduit à la scission de la DERA en deux entités. L’une reste une agence du MoD, le DSTL (Defense Science and Techno-

LES RACINES DE L’HYPERPUISSANCE

109

logy Laboratory). Avec 25 % des effectifs originels de la DERA, elle est chargée de définir les orientations, d’assurer la veille scientifique et technique, le renseignement opérationnel et de gérer la politique de propriété intellectuelle. L’autre entité, QinetiQ, est une société à capitaux publics qui a vocation d’être cédée à des intérêts privés. Regroupant neuf mille personnes et 75 % des activités de feu la DERA, elle est chargée de rentabiliser les recherches en introduisant des produits vendables sur les marchés civils et commerciaux, en d’autres termes de transférer le savoir-faire de défense vers le secteur civil. Parallèlement à cette privatisation où se concrétise le désir de libérer l’État de charges qui devraient pourtant supporter la politique de puissance, avec l’espoir de trouver dans la sphère privée des relais financiers, les réformes essaient d’impliquer davantage les universités et les entreprises dans les phases les plus amont, en leur créant de véritables interfaces avec DSTL et QinetiQ. Le modeste programme britannique ne possède pas la capacité de redresser la position de l’Europe vis-à-vis des États-Unis. Il ne s’agit que de conserver l’oreille du grand frère d’outre-Atlantique.

Le fossé se creuse Outre-Atlantique règne un système d’innovation où le principal effort de RD est supporté par les entreprises, qui interagissent d’une part avec une recherche fondamentale financée par l’échelon fédéral autour de programmes prioritaires, comme les technologies de l’information et de la biologie, et d’autre part avec un enseignement supérieur puissant, financé par les fonds publics locaux, qui, lui, assure l’interface de la recherche avec l’industrie. L’essentiel du mécanisme réside dans l’interaction des différents acteurs, avec un rôle d’étonnante importance rempli par les lobbies, qui assurent la circulation des idées et des capitaux. L’État fédéral ne se contente pas de soutenir la recherche de base, il consacre aussi 40 % du budget public de RD à la recherche industrielle contre moins de 20 % en France et en Allemagne. La scène européenne est bien différente. L’incitation des entreprises à investir en RD reste faible, en l’absence de certitude sur la valorisation des résultats. La culture ne s’y prête pas. Il manque surtout à l’Europe (à l’exception de la Suède et de la Finlande) la définition d’une stratégie qui fixerait les thèmes prioritaires dans le développement de la connaissance. L’UE fait l’inverse de ce que font les États-Unis : la Commission finance les

110

INTRODUCTION AU SIÈCLE DES MENACES

partenariats avec l’industrie, avec les obstacles apportés par les priorités données par chaque État membre à ses champions nationaux, d’où un saupoudrage appelé « juste retour », générateur de doublons et d’inefficacité. Les États financent la recherche fondamentale qu’ils ne sont pas capables de soutenir à un niveau adéquat. L’interaction entre acteurs, dans ce paysage fracturé, est quasi inexistante. L’industrie et la recherche forment deux mondes séparés. L’Europe sait mal organiser la communication entre gestionnaires et innovateurs, aussi bien au niveau de l’entreprise qu’au niveau de l’État, et encore moins au niveau de Bruxelles. Nous suivrons William J. Baumol12, professeur à l’Université de Princeton, pour affirmer que les efforts consentis en RD sont le principal facteur expliquant l’extraordinaire croissance du modèle capitaliste dans les cinquante dernières années. Plus que son prix, c’est le degré d’innovation d’un produit ou d’un service qui constitue l’avantage compétitif moyen dans un univers oligopolistique. Posséder la meilleure RD permet de se procurer le meilleur équipement. Dans la guerre économique en cours, aucun recul n’est possible : les budgets de RD sont condamnés à croître (sauf chez les acteurs qui ne comprennent pas ce qui se passe, comme les gouvernements européens). Les quelques ralentissements conjoncturels observés au début des années 1970 et 1990 aux États-Unis ne doivent pas conduire à infirmer la tendance globale, qui s’accentue dans la période récente comme nous venons de le voir. Grâce à la programmation de la RD, les retours de l’innovation peuvent désormais se calculer comme pour tout investissement. Cette rationalisation économique d’une activité jadis considérée comme aléatoire accélère la dissémination des résultats de la recherche : les entreprises ont globalement intérêt à favoriser la plus grande utilisation par d’autres de leurs découvertes, plutôt que de faire de la rétention d’information. La pratique des entreprises suit en général cette philosophie, qu’elles agissent en vendant des licences ou en formant des consortiums et autres modes de partenariat. Cette diffusion équivaut à un coefficient multiplicateur et amplifie la contribution de l’innovation à la croissance. Un tel libéralisme ne s’applique pas au-delà des frontières, et les États qui consacrent beaucoup de ressources à leur DIRD s’efforcent d’établir des barrières étanches afin de garder les avantages acquis sur les autres pays par leurs efforts financiers. Le rai12. William J. Baumol, The Free Market Innovation Machine, Princeton, Princeton University Press, 2002.

LES RACINES DE L’HYPERPUISSANCE

111

sonnement du paragraphe précédent montre pourtant la stupidité de cette attitude. L’innovation se nourrit de la dissémination de ses produits et il serait de l’avantage de tous, surtout des pays moteurs de l’innovation, d’en répandre partout les effets. Et de plus le pays novateur profiterait de cette pratique de laissezpasser, car elle découragerait ses concurrents de se lancer à leur tour dans une stratégie d’innovation, puisqu’ils auraient libre accès aux produits novateurs sans payer le prix de leur développement. Les pays à forte RD resteraient ainsi toujours en avance des autres. Ainsi s’établirait et se fortifierait une situation de dépendance qui ne pourrait que croître. C’est ce que les États-Unis n’ont pas compris lorsqu’ils ont refusé aux Européens de leur vendre des lanceurs spatiaux au début des années 1970 pour mettre en orbite des satellites commerciaux de télécommunication. Ils croyaient les maintenir sous leur joug, et ils les ont au contraire forcés à acquérir une compétence en technologie des gros lanceurs, et donc à développer la fusée Ariane, qui s’est révélée un redoutable compétiteur des leurs. De toute façon, la constitution de grands conglomérats industriels transfrontières amènera dans le paysage mondialisé l’accélération de la dissémination des résultats de la RD qui règne déjà dans l’espace national américain – mais comme nous venons de le remarquer, au profit de l’investisseur primaire, c’est-à-dire des États-Unis. L’impact de la différence de DIRD entre les États-Unis et l’Europe est exposé clairement en 2002 dans un rapport rédigé par le commissaire européen Erkki Liikanen13. Le texte rappelle que l’amélioration de la productivité a été historiquement la source principale de la croissance économique, permettant simultanément l’augmentation de la production et la diminution du travail. Elle a ralenti au cours de la seconde moitié des années 1990 dans l’Union européenne : les gains de productivité y ont baissé de 2 % à 1,3 % par an entre 1995 et 2001, tandis que les Américains réussissaient à conjuguer croissance de leur productivité (passée de 1,5 % par an sur la période 1990-1995 à 2,5 % par an entre 1995 et 2000, puis à 4 %), et de leur emploi (passé de 0,9 à 1,4 % par an). De tels taux autorisent à la fois une inflation faible et la hausse des pouvoirs d’achat. En 2001, le produit intérieur brut par habitant de l’Union n’atteignait que 65 % de celui des États-Unis, sa plus basse valeur relative depuis un quart de siècle. 13. Rapport de la Commission européenne sur la productivité, rédigé par le commissaire finlandais chargé des entreprises, E. Liikanen, publiée le 15 mai 2002.

112

INTRODUCTION AU SIÈCLE DES MENACES

Le commissaire Liikanen explique cette sous-performance européenne par une insuffisance de l’activité innovante, et entre autres un sous-investissement dans un domaine clé, celui de la communication et de l’information. Entre 1992 et 1999 les dépenses dans les technologies correspondantes ont représenté 5,6 % du PIB européen contre 8,6 % aux États-Unis. En 1999 les dépenses des Européens dans ces domaines n’atteignaient que les trois quarts de celles des Américains, contre 90 % en 1992. L’industrie manufacturière tout entière souffre de ce retard : alors qu’en Amérique la croissance de sa productivité a crû de 3,3 % à 5,5 % par an entre la première et la seconde moitié de la décennie, celle de l’Europe a stagné aux environs de 3,1 %. De même pour les services : en Amérique pendant la même période la croissance de leur productivité est passée de 1,3 à 3,1 %, alors qu’en Europe, elle a régressé ou peu augmenté, par exemple de moins de 0,3 % en France et au Royaume-Uni. Même si l’on considère le rapport Liikanen comme cédant un peu à la mode de la « société de l’information », il nous fournit des chiffres et met le doigt sur un vrai problème, la difficulté qu’éprouve l’Europe à incorporer dans l’économie les progrès technologiques. Certes de nombreux facteurs juridiques, fiscaux, sociétaux interviennent pour freiner ce processus. Mais il faut affirmer que ce qui manque en Europe, et les chiffres que nous avons présentés le démontrent, c’est une RD aussi bien financée qu’aux États-Unis ; dans cette RD, le plus coûteux est le D, qui permet la mise au point de produits et de services eux-mêmes générateurs d’innovation. Étant le plus coûteux, c’est lui qui manque le plus. La différence de leur DIRD entre les États-Unis et le reste du monde, y compris et surtout les pays européens, a creusé un fossé ou gap technologique, civil et militaire14. Aux États-Unis la perception de l’existence de ce fossé induit à renforcer encore la priorité donnée à la science et à la technologie, dont on comprend parfaitement qu’elle est la cause de la puissance américaine et en même temps le moyen central de sa préservation. Il est admis que la course en avant technologique a permis de gagner la guerre froide et, depuis, d’établir la suprématie militaire et politique de Washington. L’Europe constate l’existence de l’écart, et parle d’apporter un début de remède : à la réunion du Conseil européen tenue à Barcelone en mars 2002, les chefs d’État ont « considéré que l’ensemble des dépenses de RD (aujourd’hui égales à 1,8 % du 14. David W. Versailles, Valérie Mérindol, Patrice Cardot, La Recherche et la technologie, enjeux de puissance, Paris, Economica, 2003.

LES RACINES DE L’HYPERPUISSANCE

113

PIB) doit augmenter pour approcher 3 % du PIB en 2010, les deux tiers de ce nouvel investissement devant provenir du secteur privé ». Atteindre l’objectif de Barcelone (appelé parfois, à tort, objectif de Lisbonne) signifierait qu’à croissance nulle la DIRD européenne devrait atteindre 242 milliards d’euros, dont 76 milliards d’euros à la charge des entreprises. Avec une croissance de 2 % il faudrait doubler les montants actuels. Et recruter, selon les scénarios, de 300 000 à 600 000 chercheurs. Aucun des chefs d’État n’a pris, ni n’envisage véritablement de prendre, les difficiles mesures budgétaires nécessaires pour transformer leur vœu en réalité. Quant au financement de la RD par les entreprises, l’évaluation15 chiffrée dans les trois colonnes de droite du tableau IV permet d’apprécier le réalisme de la recommandation émise par les chefs d’État. En l’absence d’une inflexion majeure des politiques nationales, nous pouvons admettre que la supériorité des investissements DIRD aux États-Unis sur les autres pays (à l’exception du Japon) renforcera leur hyperpuissance dans les vingt prochaines années au moins. Comme l’a écrit Paul Kennedy : « Être le numéro un pour un grand coût est quelque chose ; être la seule superpuissance du monde à bon marché est stupéfiant16. » L’auteur supplie ici le lecteur de comprendre que le gap n’est pas seulement financier : il est essentiellement doctrinal. Où sont nos Think Tanks, où est notre DARPA, où sont nos penseurs ? Nous regardons passer la loi de Moore comme une vache un train.

15. Voir p. 104. 16. Cité par S. G. Brooks et W. C. Wohlfort, « American Primacy in Perspective », Foreign Affairs, juillet-août 2002.

Chapitre IV

CYBERWAR I : LA THÉORIE

La posture des États-Unis Du point de vue géopolitique, le passage du XXe au XXIe siècle s’est effectué en trois étapes. À partir de la crise de Cuba (1962), l’ordre international a été assuré par une doctrine et une structure. La doctrine reposait sur deux idées couplées, la dissuasion nucléaire et le contrôle des armements, ou plutôt leur non-prolifération. La structure consistait dans l’équilibre bipolaire entre deux superpuissances flanquées chacune d’États subalternes et utilisant à la fois les modes de compétition sur l’accessoire et de coopération sur l’essentiel. Le résultat en a été le maintien de la paix, avec peu de « dommages collatéraux ». À partir du sommet Reagan-Gorbatchev de Reykjavik en 1986, la doctrine s’est transformée en marginalisation de la force militaire, couplée d’une part à l’organisation d’une interdépendance économique entre les grandes puissances, et d’autre part à la démocratisation, surtout celle de l’Europe de l’Est. La globalisation économique a été promue au statut théorique d’une force dominante qui remodèlerait un système international capable de brider les excès des États-nations par des accords multilatéraux. La structure devint multipolaire, et l’on eut la velléité de fonder la stratégie mondiale sur le renforcement du rôle des Nations unies et du Conseil de sécurité. Des succès ont été obtenus : les

116

INTRODUCTION AU SIÈCLE DES MENACES

traités1 INF, START, MTCR, l’extension illimitée du NPT, les négociations CWC et CTBT, dont la préparation s’était étendue sur des décennies, ont été signées ou ratifiées par de nombreux États. À partir du milieu des années 1990 a prévalu une tendance croissante à l’unipolarité, au sein de laquelle les États-Unis ont acquis une situation hors du pair. En effet, d’autres puissances ont stagné (Japon, Allemagne), se sont évanouies (Russie), ou n’ont atteint qu’une stature trop faible pour pouvoir les défier à court terme (Chine, Inde). Il importe donc de connaître la doctrine militaire de la puissance dominante, d’autant plus qu’elle n’hésite pas à frapper. Au cours du XXe siècle, les États-nations ont justifié le développement de leurs forces armées par des objectifs définis sans ambiguïté : par exemple, établir la domination hitlérienne sur l’espace européen, ou créer une sphère de coprospérité asiatique dominée par le Japon, ou protéger la révolution mondiale dans un pays forteresse. Aucune considération de ce genre n’est invoquée dans la liste des « intérêts » américains que l’on trouvera2 ci-dessous limitée aux « intérêts vitaux ». Nous la croyons établie en toute bonne foi, car l’Amérique est un pays libre où se débattent ouvertement, sans hypocrisie, les questions qui touchent aux fondements idéologiques et constitutionnels, aux actions de l’État (et des États), et, en général, au présent et à l’avenir du pays. On notera qu’une transposition simple, sans changement de principes, permet de faire coïncider les objectifs de défense des États-Unis avec ceux de l’Europe et du Japon, c’est-à-dire avec ceux des démocraties industrialisées : il s’agit pour les gens à 50 dollars par jour de maintenir le niveau de leurs ressources, leur différence avec les gens à 1 dollar et donc leurs privilèges. Les intérêts vitaux nationaux des États-Unis sont les conditions qui sont strictement nécessaires pour sauvegarder et améliorer la survie et le bien-être des Américains dans une nation libre et en paix.

1. Voir chapitre VIII : INF : Intermediate Range Nuclear Forces Strategic Arms Reduction Talks. START : Strategic Arms Reduction Talks. MTCR : Missile Technology Control Regime. NPT : Nuclear Non Proliferation Treaty. CWC : Chemical Weapons Convention. CTBT : Comprehensive Test Ban Treaty. 2. « Commission on America’s National Interests », in Aviation Week and Space Technology, 31 juillet 2000.

CYBERWAR I

:

LA THÉORIE

117

Prévenir, dissuader et neutraliser la menace des armées nucléaires, biologiques et chimiques sur les États-Unis ou ses forces militaires à l’étranger. Assurer la sécurité des alliés des États-Unis et leur coopération active sous la forme d’un système international dans lequel nous pourrions prospérer. Prévenir l’émergence de puissances majeures hostiles ou d’États défaillants sur les frontières des États-Unis. Assurer la viabilité et la stabilité des systèmes globaux majeurs (commerce, marchés financiers, sources d’énergie et environnement). Établir des relations constructives, compatibles avec les intérêts nationaux américains, avec des États qui pourraient devenir des adversaires stratégiques, Chine et Russie. La transposition des principes de la liste précédente dans une action gouvernementale ne fait l’objet d’aucune controverse. Tels qu’énoncés dès 1992 dans les rapports rédigés par Paul D. Wolfowitz, alors sous-secrétaire d’État à la Défense (il l’est redevenu dans l’administration Bush II), et par un groupe d’experts présidé par l’amiral David Jeremiah, adjoint du président du Comité des chefs d’état-major, puis repris dans toute la littérature politique américaine3, les desseins de la politique des États-Unis sont clairs : afin de défendre les intérêts définis ci-dessus, elle doit assurer le maintien du statut de puissance unique acquis après la chute de la Soviétie, contre toute tentative de remise en cause par l’émergence d’autres centres de puissance, et cette préoccupation vaut aussi bien contre les alliés des États-Unis que contre leurs anciens compétiteurs. D’après le rapport Wolfowitz, la puissance militaire américaine doit être l’instrument qui détourne, par ses capacités sans cesse accrues, toute autre nation virtuellement rivale de vouloir « défier leur suprématie », tandis que les ÉtatsUnis « doivent tenir assez compte des intérêts des nations industrielles avancées pour les décourager de leur tenir tête ou de chercher à mettre en cause l’ordre économique et politique établi ». Selon ces textes, les États-Unis doivent garder la prépondérance militaire sur tous les théâtres et l’employer dans un cadre variable avec les circonstances, soit sous les auspices des Nations unies, soit à l’intérieur d’une coalition, soit carrément sans l’aide de personne. Lorsqu’en 1990 la Soviétie disparut, les Américains songèrent comme les autres aux « dividendes de la paix. » Mais si leur 3. Cités par P. M. de La Gorce, « Le dessein politique et stratégique des ÉtatsUnis », in Les États-Unis s’en vont-ils en guerre ?, Bruxelles, GRIP (Groupe d’information sur la paix et la prospérité), 2000, p. 17-18.

118

INTRODUCTION AU SIÈCLE DES MENACES

budget de défense diminuait ou stagnait pendant les années 1990, il se maintint tout de même au voisinage de 3 % du PIB. Les forces armées furent peu réduites par rapport au niveau atteint pendant la guerre froide. Face à cette stabilité, la disparition de l’Armée rouge, accompagnée de la décroissance des investissements militaires partout ailleurs dans le monde rehaussa considérablement la puissance relative des États-Unis. L’arsenal américain se trouva déployé sans adversaire à sa taille. Et la conséquence en a été un plus grand désir de l’utiliser, puisque le pays possédait la liberté d’intervenir là et quand il le voulait : d’où la prolifération d’opérations militaires à partir de la présidence du premier Bush : l’invasion de Panama en 1989, la guerre du Golfe en 1991, l’intervention humanitaire en Somalie en 1992, suivie par les actions de l’administration Clinton à Haïti, en Bosnie, dans le détroit de Formose et au Kosovo, enfin couronnée par les attaques du second Bush en Afghanistan et en Irak. L’hypothèse de travail acceptée depuis les années 1990 pour définir la dimension des forces américaines nécessaires est celle de deux conflits régionaux simultanés, d’une dimension comparable à celle de la guerre du Golfe, en deux endroits du globe éloignés l’un de l’autre. On en déduit le maintien de capacités à un niveau compris entre les huit et neuf dixièmes de ce qu’elles étaient durant la dernière phase de la guerre froide. Des budgets annuels de l’ordre de 250 à 270 milliards de dollars de dépenses réelles y correspondent, à savoir l’équivalent de la somme des dépenses militaires de l’Allemagne, de la France, de l’Angleterre, du Japon, de la Russie et probablement de la Chine. En fait, ces chiffres sont atteints et même dépassés : le budget militaire s’est élevé à 292, 300 et 315 milliards de dollars respectivement pour 1999, 2000 et 2001. Pour cette dernière année, la dépense militaire absorbe 2,8 % du PIB. L’administration Bush, éperonnée par l’agression du 11 septembre 2001, a présenté un budget de 379,3 milliards de dollars pour 2003, en augmentation sur le précédent de 19 %, et de 0,2 % de pourcentage du PIB. Cet effort reste très inférieur, relativement au PIB, de ce qu’il fut du temps de la guerre froide, parce que le pays s’est beaucoup enrichi depuis cette époque. Si le budget militaire américain éclipse par sa taille ceux des autres nations, son poids n’écrase pas l’économie nationale qui peut aisément le supporter. L’expansion de la puissance militaire américaine ne sera pas arrêtée par un manque de crédits avant un futur indéterminé, en tout cas lointain. Aujourd’hui, les États-Unis sont le seul État capable de déployer des forces armées en tout endroit sur Terre, et, en géné-

CYBERWAR I

:

119

LA THÉORIE

ral, de disposer de tous les attributs de la puissance, qu’ils soient politiques ou stratégiques, économiques ou financiers, monétaires ou industriels, culturels ou académiques. L’unipolarité leur offre une alternative : gouverner par une politique d’alliances et de coopérations et n’utiliser leurs moyens de pression que dans le cadre d’un large consensus international, ou bien exercer une hégémonie égoïste par des décisions unilatérales impliquant des mesures coercitives, voire violentes. Même si nous pouvons donner acte aux États-Unis qu’ils ne sont pas un empire, et que leur politique n’est ni impériale ni impérialiste, leur position leur ôte la possibilité de choisir : ils ne reculeront pas devant leurs responsabilités nationales et ne laisseront à aucune coalition, aucun État, aucun groupe, aucun réseau la moindre influence sur leur doctrine, leur stratégie, leurs décisions et leurs actions. Et qui leur donnerait tort ? Ils choisiront la seconde branche de l’alternative. La définition des intérêts nationaux, telle que nous l’avons présentée, s’accompagne implicitement d’un code de valeurs que les États-Unis (et leurs alliés) affirment incarner. C’est là qu’un dérapage risque de se produire, lorsque les partenaires occidentaux ne concevront plus le monde comme la combinaison d’une pluralité de réalités ethniques, religieuses, culturelles, politiques et socio-économiques, mais comme le théâtre d’une philosophie de l’histoire qu’ils sont appelés à diriger dans la bonne direction ; et la question à laquelle personne ne peut répondre se pose aussitôt : que signifie « bonne » dans l’expression « bonne direction » ? En dehors de toute tentation messianique (qui existe), la puissance des États-Unis en soi est lourde de conséquences. « Leur présence sur tous les continents, au niveau économique par leurs multinationales, leurs banques, leurs sociétés financières, au niveau stratégique par les traités d’alliance, les bases militaires, les forces d’intervention présentes sur de nombreux théâtres4 » entraîne pour conséquence qu’aucun conflit ne peut éclater nulle part sans que leurs intérêts n’y soient mêlés. D’où le danger qu’ils courent de se forger des ennemis, de se trouver aspirés dans des conflits, d’être invoqués comme alliés ou arbitres par les plus douteux acteurs de scènes locales, et surtout d’apparaître comme l’archétype du monde moderne, le symbole d’un ordre, d’une culture, d’une force rejetée par ceux, et ils sont légion, qui n’y participent pas. On prévoit sans risque de se tromper que les ÉtatsUnis devront faire face à tout l’éventail des guerres, aussi bien avec les États qu’avec les réseaux Netwar. Ils devront porter la 4. L. Murawiec, La Guerre au

XXI

e

siècle, Paris, Odile Jacob, 2000, p. 41.

120

INTRODUCTION AU SIÈCLE DES MENACES

croix de la civilisation, appelée encore récemment le fardeau de l’homme blanc, dans un contexte haineux. Conscient du défi et des termes dans lesquels il est posé par la nature même de notre espèce, les États-Unis se préparent à y répondre en élaborant une doctrine de défense reposant, on l’a deviné, sur la technologie.

Naissance d’un nouveau paradigme militaire La prépondérance militaire des États-Unis ne repose pas uniquement sur un PIB insolent, sur les matériels d’hier ou d’aujourd’hui, si performants soient-ils, mais elle renaît chaque jour d’une innovation bouillonnante qui utilise au plus près l’évolution technologique pour profiter des effets de rupture précipités par la loi de Moore. Une doctrine radicalement nouvelle, appelée Révolution dans les affaires militaires ou RMA, a vu le jour au Pentagone et s’est imposée dans le courant des trente dernières années. À la fin des années 1970, la DARPA, et en particulier son directeur William Perry, perçurent l’impact de la révolution numérique. Dès 1978, Perry définit les trois objectifs techniques que le DoD doit se donner à terme pour livrer tout combat sur un champ de bataille désormais digital : capacité de voir à tout moment toutes les cibles de haute valeur qui se trouvent sur le théâtre ; capacité de frapper directement toute cible que nous voyons ; capacité de détruire toute cible que nous sommes capables de frapper, en vue de rendre intenable à presque toute force militaire moderne une présence sur un champ de bataille. Dans un article publié après la guerre du Golfe5, Perry montre que si les techniques déployées par les forces américaines ont été, à l’origine, conçues pour compenser par la qualité la supériorité quantitative soviétique, le potentiel croissant de l’électronique et de l’informatique laisse prévoir un progrès considérable dans les domaines du renseignement et de l’information, une capacité accrue de commandement et de contrôle et une plus grande précision dans le guidage des munitions. Perception à la fois totale et détaillée de la situation et capacité d’action rapide et efficace : deux atouts essentiels fournis par les nouveaux moyens. L’essentiel, conclut-t-il, est la combinaison et l’intégration de nouveaux systèmes à base technologique en un système de systèmes. Tous les systèmes sont des maillons dans une chaîne. Innover n’est pas tout, 5. William Perry, « Desert Storm and Deterrence », Foreign Affairs, 70, 1991, 6682.

CYBERWAR I

:

LA THÉORIE

121

encore faut-il opérer la synthèse des moyens disponibles en un ensemble cohérent et structuré pour organiser et diriger l’action. Persuadé que la technologie, et en particulier les nouveaux moyens informatiques et spatiaux offrent l’occasion de précipiter des transformations radicales dans la guerre, l’amiral William Owens6, chef adjoint de l’état-major interarmées de 1994 à 1996, abrasif et controversé, réactualise et précise, en 1995, la vision de Perry : « Vers l’an 2005, nous pourrions être techniquement capables de détecter à peu près 90 % de tout ce qui a une importance militaire à l’intérieur d’une aire géographique étendue (par exemple un carré de trois cents kilomètres de côté). En combinant la détection avec le traitement des données par notre C4I [Command, Control, Communication, Computer, Intelligence], nous obtenons la domination dans la connaissance de l’aire de bataille. C’est une nouvelle conception de la guerre qui nous donne une compréhension de la corrélation des forces fondée sur une perception intégrale de la localisation, de l’activité, des rôles et des schémas opérationnels des forces amies et ennemies, y compris la prédiction précise des changements à intervenir à court terme. »

Les fondements du nouveau paradigme : la guerre de l’information La forme organisationnelle dominante des entreprises industrielles et commerciales au XXe siècle aura été celle de la grande structure, du type tout intégré, selon l’exemple des bureaucraties d’État qui avaient mis au point, au siècle précédent, leurs procédures, leurs hiérarchies et leurs normes. Le fordisme et le taylorisme irriguaient ce type de structures, adaptées à la production en série d’objets assemblés par des ouvriers interchangeables, dirigés par un encadrement semi-militaire. Vers 1950, l’économie américaine était organisée autour de cinq cents grandes entreprises qui produisaient à elles seules la moitié du PIB, possédaient les trois quarts des actifs industriels, récoltaient 40 % des profits et employaient un travailleur sur huit. Le chiffre d’affaires de General Motors atteignit 3 % du PIB, soit autant que celui de l’Italie. Les organigrammes ressemblaient d’autant plus à celui d’une division de l’armée que les dirigeants provenaient pour la plupart des états-majors où ils avaient poursuivi leur carrière, et que les méthodes de gestion 6. W. Owens, Déposition du 20 septembre 1995 devant le Select Committee on Intelligence du Sénat des États-Unis, p. 2-3.

122

INTRODUCTION AU SIÈCLE DES MENACES

s’inspiraient de la recherche opérationnelle, technique mathématique mise au point pendant la guerre pour gérer la logistique militaire. Une hiérarchie pyramidale faisait descendre du chef fixant la stratégie, l’information strictement nécessaire à l’action locale, grâce à une bureaucratie opaque chargée de transmettre les ordres. Il est aisé de voir (a posteriori…) que ce modèle ne pouvait pas résister au temps, parce qu’il engendrait la sclérose. Quels que soient les efforts tentés pour améliorer un système inaméliorable, les fruits secs occupent le sommet, les carriéristes envahissent l’organisme, l’innovation est bannie car elle remet en cause le fonctionnement, les habitudes et surtout la qualité des hommes. Le choc pétrolier de 1973, avec la crise mondiale qui l’accompagna, fut le révélateur de ce vieillissement. De 1975 à 1990, les cinq cents premières entreprises des États-Unis ne créèrent pas un seul emploi. La grandeur et la puissance de la Soviétie se sont construites sur ce modèle poussé à l’extrême, et il n’est pas surprenant que sa crise soit survenue simultanément chez les deux nations adeptes de la « modernité » industrielle, aux alentours de 1980. Mais les États-Unis ont été sauvés par la loi de Moore. De la Route 127, près de Boston, sous l’ombre tutélaire du Massachusetts Institute of Technology (MIT), et aussi de la Silicon Valley entre Menlo Park, Sunnyvale et Santa Clara, sous l’impulsion des universités de Stanford et de Berkeley, ont jailli des pratiques organisationnelles révolutionnaires, imaginées ex nihilo par les très jeunes spécialistes des nouvelles techniques que nous avons décrites au premier chapitre, les NTIC. L’entreprise moderne engendrée par les NTIC tend à se réorganiser en se fragmentant en une confédération de centres de profits. Elle subit (mais oui !) comme d’autres structures de nature différente que nous avons évoquées, une réticulation rendue possible, là comme ailleurs, par la combinaison PC-modemInternet (ou Intranet). La mise en réseau permet d’éliminer les hiérarchies intermédiaires qui étaient chargées auparavant de la transmission verticale, et donc favorisaient l’inertie, la résistance, l’augmentation des délais et des coûts. L’entreprise ne trouve plus d’intérêt à conserver une bureaucratie centralisatrice qui freine la circulation des idées, mais elle doit maintenant se doter de circuits horizontaux de transmission afin de répandre vitesse, agilité et synergie entre les pôles du réseau. Immergée dans un marché déréglementé ou en voie de déréglementation, exposée à la concurrence d’entreprises similaires situées dans d’autres pays ou d’autres continents, sa capacité à adapter ses produits et services à une demande en rapide évolution est la condition de sa survie : grâce à l’aplatissement de l’organigramme, le cycle du produit est

CYBERWAR I

:

LA THÉORIE

123

raccourci, les étapes du développement abrégées, les délais réduits, et par conséquent la rotation du capital accélérée, d’où augmentation du profit. C’est ce type d’entreprise qui a créé depuis vingt ans le plus grand nombre d’emplois aux États-Unis et y offre aujourd’hui 40 % d’entre eux. À un colloque organisé en novembre 2000 à l’École des mines de Paris et consacré au pilotage du changement, un orateur a montré l’impact grandissant des NTIC sur le changement organisationnel. Disons pour simplifier que, d’après lui, la méthode traditionnelle d’organisation consistait à ajouter le système d’information à la structure de l’entreprise après l’établissement de la stratégie. La méthode moderne au contraire élève le système d’information et de communication au niveau supérieur de la structure en lui donnant le rôle principal dans la définition de la stratégie de l’entreprise, ce que l’on peut énoncer par le paradigme suivant : la stratégie de l’entreprise doit être définie par les considérations d’information. Voici un exemple de cette évolution. La chaîne de supermarchés américains Wal Mart jouit d’un chiffre d’affaires annuel supérieur à 100 milliards de dollars. Depuis 1995, elle a réduit ses coûts de 2 à 3 % par rapport à la moyenne de la branche, ce qui est considérable. Ayant compris qu’elle avait dépassé la taille où elle serait en mesure de centraliser efficacement son offre et sa demande (achats en amont, ventes en aval), l’entreprise a mis sur pied un système de perception qui a créé une conscience partagée en temps réel par ses milliers de succursales : aux points de ventes, les scanners recueillent toutes informations sur quatre-vingt-dix millions de transactions hebdomadaires ; l’information est distribuée aux fournisseurs en temps quasi réel. Par exemple, le P-DG de General Electric, Jack Welch (retraité depuis), explique : « Quand Wal Mart vend une ampoule, la vente passe instantanément de leur caisse enregistreuse à mon usine – nous fabriquons une ampoule pour celle qui vient d’être vendue. Tout le système d’entreprise est désormais comprimé par l’information7. »

On parle alors de flux tendus. La centrale d’achat de Wal Mart a été fermée. Jusque-là, il ne s’agit que de gestion ; mais Wal Mart va plus loin dans l’importance stratégique que l’entreprise donne au flux d’information : l’ensemble des informations concernant les transactions de ventes est intégré dans une base de données qui les analyse pour en extraire les tendances (saisons, compositions des paniers d’achat type, comparaisons régionales, historiques, jour, 7. Washington Post, 23 mars 1997.

124

INTRODUCTION AU SIÈCLE DES MENACES

semaine, mois, année, etc.). Plus de cent mille produits sont ainsi placés sous observation permanente, et les analyses permettent de discerner les tendances magasin par magasin aussi bien que régionalement. L’inventaire, les stocks et les produits en transit sont également intégrés : les succursalistes, les directions régionales, les fournisseurs, la direction de l’entreprise, sont tous en mesure de prendre très rapidement des décisions, d’identifier les opportunités et d’agir. Le DoD a suivi un chemin parallèle en adoptant la conception de l’Information Warfare qui place le contrôle des flux de l’information au centre de la stratégie militaire. Une synthèse extraordinaire s’est alors effectuée entre les concepts de communication véhiculés par les NTIC, et les concepts militaires élaborés par les tenants de la doctrine Perry-Owens. Le Pentagone a tiré les leçons aussi bien de la réflexion théorique, accompagnée d’investissements considérables, que des enseignements fournis par des engagements récents des forces américaines sur des théâtres extérieurs, Desert One (Iran, 1980), Urgent Fury (Grenade, 1985), Just Cause (Irak, 1990-1991), Deliberate Force (Bosnie-Herzégovine, 1995). En conséquence, il a promulgué en 1996 le document Joint Vision 2010, devenu le texte officiel qui fournit aux forces armées les directives du président du conseil des chefs d’état-major. Ce document prévoit la transformation des concepts courants en nouveaux concepts, que nous examinerons ultérieurement. Disons tout de suite qu’ils reposent tous sur la supériorité d’information définie comme la capacité de recueillir, traiter et disséminer un flux ininterrompu d’informations précises et sûres pendant un cycle temporel plus court que celui de l’ennemi, tout en empêchant l’adversaire d’en faire de même ; en d’autres termes, la capacité de tout connaître sur l’adversaire en l’empêchant de rien connaître sur nous. On dira qu’il n’y a là rien de nouveau. Voire, car tout est dans les moyens, et ces derniers, aux États-Unis, suivent la loi de Moore exploitée au maximum par la DARPA. Les Services ont répondu à Joint Vision 2010 en l’incorporant chacun à leur tour dans leurs plans ; la Defense Planning Guidance (DPG), document d’application des concepts précédents pour la mise en route de Joint Vision 2010, définit un système de systèmes interopérables, utilisant un C4ISR intégré dans une infrastructure d’information8. La doctrine Perry-Owens devient la Bible du DoD. 8. C4ISR = Command, Control, Communication, Computers, Intelligence, Surveillance, Reconnaissance. Voir définition p. 130. On nous pardonnera d’employer le jargon du Pentagone pour mentionner des systèmes dont la nature est assez claire et sur lesquels nous reviendrons.

CYBERWAR I

:

LA THÉORIE

125

D’un livre d’Alfred T. Mahan9, aujourd’hui très cité, les stratèges américains ont tiré l’idée fondamentale : « La frontière de l’ennemi est ma frontière. » Les guerres du XVIIIe siècle ont été gagnées par l’Angleterre parce qu’elle plaçait sa frontière à Brest et non à Plymouth, faisant de la mer son espace de manœuvre et l’interdisant aux pusillanimes amiraux français paralysés par les ordres de leur ministre : « Le Roi a consenti d’immenses sacrifices financiers pour bâtir la flotte qui vous est confiée, et votre premier devoir est de ne pas la risquer… » Aussi ne la risquaient-ils pas, et laissaient-ils les Anglais imposer leur champ de bataille et gagner. Aujourd’hui, dans la pensée militaire américaine, l’espace remplace la mer comme zone à occuper par la puissance dominante, car il se prolonge par le monde virtuel de l’information où se livrent les combats décisifs et se confond avec lui. D’où le recours à l’utilisation systémique de l’espace et de l’informatique, approche encore naissante lors de la guerre du Kosovo en 1999. Après avoir passé par une phase mythologique, parfaitement justifiée, l’espace est maintenant compris pour ce qu’il est : le moyen principal de recueillir, de transmettre et de disséminer de l’information à une échelle globale10. Il est donc un acteur majeur dans la révolution de l’information et dans la transformation de notre société en société de l’information. C’est ainsi que doivent le considérer les stratèges qui entendent programmer les activités spatiales. Dans le domaine militaire, l’essentiel a été résumé par le journal Jane’s Defense Weekly en une formule saisissante11 : « Dominer le spectre de l’information est aujourd’hui aussi critique pour la conduite d’un conflit que jadis l’occupation du terrain ou le contrôle de l’espace aérien. » Dans le domaine civil, nous affirmerons en pastichant Jane’s Defense Weekly : « Dominer le spectre de l’information est aujourd’hui aussi critique pour l’économie et la culture que naguère la puissance politique. » Tel est l’enjeu de l’espace, la domination du monde par celles des flux d’information. À l’horizon d’une dizaine d’années, la politique américaine vise à dominer la société de l’information en en contrôlant les flux par le biais de trois types de systèmes spatiaux (télécommunication, navigation et observation) répartis dans de vastes constellations civilo-militaires. La marginalisation des capacités des autres pays dans ces trois domaines est un des enjeux majeurs des années à venir. 9. A. T. Mahan, The Influence of Sea Power upon History 1660-1783, Boston, Little, Brown & Cie, 1890 ; réédit. New York, Dover, 1987. 10. Définition donnée par Jacques Blamont, Le Figaro, 3 octobre 1997. 11. Jane’s Defense Weekly, 11 juin 1997.

126

INTRODUCTION AU SIÈCLE DES MENACES

L’emploi de puissants moyens de renseignement, de surveillance et de reconnaissance comprenant certes des engins classiques tels qu’avions et drones, mais aussi des satellites d’observation, le tout intégré dans un réseau de télécommunications spatiales irriguant les forces, doit permettre aussi bien la gestion des crises que la conduite de la bataille, grâce au facteur essentiel que constituera la supériorité d’information, dont l’acquisition et le maintien sont désormais le premier objectif à atteindre et la condition de la victoire. Le concept d’Information Superiority est poussé jusqu’à celui de Full Information Dominance. Une telle doctrine a de profondes conséquences géopolitiques, car elle remplace les scénarios régionaux par d’autres schémas spatio-temporels. L’acquisition de la profondeur stratégique par le « temps réel » favorise le repli logistique dans l’hémisphère occidental (projection des troupes terrestres en 96 heures, système d’armes à longue portée), accompagné d’un vaste déploiement dans l’espace orbital et cybernétique qui pourrait apporter l’infodominance et donc les capacités de surveillance, de prévention, de préemption et de coercition. Les États-Unis se trouveraient alors hors de la portée de la fixité historique et politique (souverainetés, droits, traités, frontières). Les outils nécessaires à une telle action sont nouveaux : renseignement pour détecter les intentions, les capacités et les attaques ; moyens spatiaux d’observation de toute origine, mais aussi de contrôle et de protection des systèmes orbitaux eux-mêmes ; gestion préconflictuelle ; attaque de précision discriminante en tous lieux et tous temps ; systèmes sans pilotes ; système de commandement, contrôle, communication et gestion informationnelle ; forces interarmées rapidement déployables ; mobilité stratégique pour projection rapide ; etc. La doctrine Perry-Owens n’a pas manqué de censeurs, bien qu’elle soit devenue la ligne officielle. L’attention des critiques a été attirée vers des stratégies « asymétriques » qui utiliseraient contre les États-Unis non seulement des armes de destruction massive, nucléaires, chimiques ou biologiques, mais aussi des outils adaptés aux défauts de la cuirasse américaine : vulnérabilité à la piraterie, réelle ou informatique, guerre psychologique menée par l’intermédiaire d’atrocités terroristes ciblées, etc. L’arrogance technologique très américaine qui caractérise la RMA a été montrée du doigt, par exemple dans l’article du colonel Dunlap12 qui imagine les États-Unis vaincus en 2007 par la férocité de 12. Colonel Charles Dunlap Jr., US Air Force, « How we lost the hightech war of 2007 : A Warning from the Future », Weekly Standard, 29 janvier 1996.

CYBERWAR I

:

LA THÉORIE

127

fanatiques religieux, animés de la volonté de frapper l’ennemi par tous les moyens, et prêts au sacrifice des leurs « au nom du ToutPuissant ». Les assauts terroristes menés sur leur propre territoire contre des cibles sociologiques, écologiques et épidémiologiques ont eu raison de la prétention de maîtriser la cybersphère et la guerre informationnelle. D’autres articles, écrits entre autres par les chefs du Corps des Marines, ont blâmé l’absence d’intérêt porté par les théoriciens de la RMA aux questions de nature « humaine » telles que le leadership, l’éducation, le savoir, l’apprentissage, et surtout l’accent placé sur le matériel au détriment de son utilisation par du personnel formé, compétent et capable de dominer les flux d’information. L’ensemble de ces critiques a été justifié par les agressions du 11 septembre 2001, qui ont ouvert un front nouveau de la Netwar. Il est soudain devenu nécessaire de rééquilibrer les différentes composantes à l’intérieur de l’effort américain de défense. Mais l’importance des capacités offertes par la technologie moderne, et en particulier l’espace, pour la gestion des crises et la conduite des opérations, n’est aucunement mise en cause, bien au contraire. Elles restent la colonne vertébrale de tout système moderne de renseignement et de communications, et donc de tout système moderne de force.

Les concepts de base L’équipement et l’organisation aujourd’hui en service dans les forces américaines ont été développés pendant la guerre froide pour combattre la Soviétie, qui était censée vouloir submerger l’Europe occidentale grâce à une marée d’avions et de tanks. Or la plupart des analystes estiment que d’une part les menaces ont changé de nature depuis 1990, et que d’autre part les progrès en technologie de l’information modifient radicalement la perspective militaire : le DoD affirme qu’il doit transformer sa technologie, son organisation et ses concepts d’emploi13. Quatre idées fondamentales constituent aujourd’hui le socle de la doctrine militaire américaine.

13. Gail Kaufman et Amy Switak, « Pentagon Develop New Transformation Criteria », Defense News, 11 mars 2002, p. 4.

128

INTRODUCTION AU SIÈCLE DES MENACES

LA NÉCESSITÉ DE DISPOSER D’UN SYSTÈME INTÉGRÉ DE CONNAISSANCE DU MONDE

Le DoD définit l’Intelligence (renseignement) comme « information et connaissance obtenues par observation, recherche, analyse ou compréhension ». La Surveillance et la Reconnaissance sont les moyens d’obtenir l’information : la surveillance est l’observation systématique fournissant toute donnée obtenable ; la reconnaissance est une mission spécifique devant obtenir des données spécifiques. L’ISR est l’ensemble de ces activités14. Les États-Unis entendent disposer d’une connaissance quantitative de l’état du monde entier, réactualisée en permanence afin d’atteindre la supériorité d’information sur tous les théâtres. Nous nous appuierons sur une brève analyse du plan stratégique du DoD en matière de renseignement15. L’objectif est exposé dans la première phrase : « Les capacités des États-Unis en matière de renseignement, surveillance et reconnaissance (ISR) doivent être regroupées dans un “système de systèmes” qui lie les sources de niveau national, de théâtre et tactique, les commandants et les combattants afin de permettre à la communauté ISR d’intégrer les données d’origines multiples dans une vision informationnelle fusionnée (là encore, nos excuses pour le jargon). »

14. Les renseignements sont classés en fonction de la nature de leur origine, ou source : • HUMINT (Human Intelligence) provient des observations d’une ou plusieurs personnes. • IMINT (Imagery Intelligence) provient d’images, par exemple de photographies. • SIGINT (Signals Intelligence) provient de la détection de signaux électromagnétiques. On distingue COMINT ( Communication Intelligence), obtenue à partir de la détection de signaux de télécommunication, et ELINT ( Electronic Intelligence) obtenue à partir de signaux électroniques (exemple : radars de tir équipant une batterie d’artillerie). • MASINT (Measurement and Signatures Intelligence) provient de tout autre aspect mesurable d’une cible, telles que ses vibrations (un camion sur une route, une patrouille dans la jungle), sa couleur… L’essentiel du renseignement utilisé par le DoD vient de : • La Defense Intelligence Agency (DIA) qui produit une partie de l’IMINT et du MASINT et une large partie de l’analyse à long terme (dite stratégique) du DoD. • La National Security Agency (NSA) qui produit le SIGINT. • La National Imagery and Mapping Agency (NIMA) qui produit quasiment tout l’IMINT. 15. Intelligence, Surveillance and Reconnaissance Integrated Capstone Strategic Plan (ISR-ICSP). Version 1.0, ASD (C31), 3 novembre 2000, présenté par Arthur L. Money, Assistant Secretary of Defense ( Command, Control, Communications, and Intelligence).

CYBERWAR I

:

LA THÉORIE

129

Quelles sont les qualités demandées aujourd’hui à l’ISR ? Présenter une perspective globale. Pendant la guerre froide, les États-Unis considéraient la menace posée par les forces de la Soviétie et de ses alliés comme si grave que l’activité militaire ailleurs était jugée comme dénuée d’intérêt. La communauté du renseignement se concentrait sur la surveillance du pacte de Varsovie. Aujourd’hui, en contraste avec le passé, la menace pourrait venir d’un pays qui n’apparaît pas du tout comme dangereux. Par exemple, un ancien analyste de la CIA16 a remarqué en 1998 que la moitié des crises étrangères exigeant l’attention des États-Unis éclataient dans des « zones à priorité faible », à l’étude desquelles peu de moyens et de personnels avaient été affectés. Opérer la fusion. La fusion consiste à mettre ensemble tous types de renseignements afin de créer une vue complète de la menace. Or chaque donnée fournie par le système, reste aujourd’hui dans son propre canal de communication et sa banque, avec la bande passante de ce canal, le software et le hardware spécialisés. Comme les forces ne peuvent utiliser des données séparées, et qu’elles ont besoin d’une évaluation fusionnée de la menace, il est nécessaire que cette fusion se fasse avec vitesse et précision accrues. Fournir des détails. Avec l’insistance placée désormais sur la précision des frappes, la quantité de renseignements nécessaire à l’emploi des forces a augmenté. L’information demandée sur une cible (l’adversaire peut se cacher au sein de la population civile ou dans des montagnes) doit être précise au mètre près dans les trois dimensions. De plus l’évaluation du résultat d’une frappe, ou BDA (Battle Dommage Assessment), devient plus délicate avec l’emploi d’armes nouvelles qui peuvent pénétrer des tanks et détruire leur intérieur en ne laissant qu’une trace de très petit diamètre sur la cuirasse. Une image n’apporte pas forcément d’élément décisif : il faut d’autres types d’information, comme par exemple des données spectrales qui peuvent détecter après coup une explosion intense qui a chauffé le tout. Être capable de surveillance permanente est considéré comme essentiel dans la lutte contre des ennemis non conventionnels. Au Kosovo et en Afghanistan la surveillance ininterrompue d’une maison ou d’une cour par un drone Predator permet d’identifier les personnes impliquées et de maintenir une connaissance complète de toutes les activités, amies, ennemies ou neutres. L’appréciation que la cible désirée est présente et peut être alors « trai16. John B. Garmon, « Time for a Rethink », The Economist, 20 avril 2002.

130

INTRODUCTION AU SIÈCLE DES MENACES

tée » doit être faite et communiquée à la force de frappe en quelques minutes. En principe, les États-Unis ont compris que l’essentiel est la création d’un système dit C4ISR (Command, Control, Communication, Computers, Intelligence, Surveillance, Reconnaissance). Le C4ISR sera un nouveau système de commandement, intégré et global, central et sécurisé, regroupant les contributions de différentes organisations. C’est lui qui doit assurer aux États-Unis la prééminence en matière de vision du champ de bataille, de renseignement et de commandement. Ce système intégrera des anciens systèmes dispersés de plusieurs agences, le FBI, la CIA, la NSA, la DIA, etc., dont les conceptions sont anciennes et disparates, afin d’assurer l’exploitation, la cohérence et l’efficacité opérationnelle en temps réel des données recueillies. Actuellement, le début de l’intégration est en cours. La difficulté majeure est d’assurer le flux d’information entre les différentes agences qui sont chargées de le créer, de le faire circuler et de l’exploiter. Et de le filtrer, car l’augmentation de la quantité d’information submerge les services chargés de l’utiliser. L’agression du 11 septembre 2001 montre non seulement qu’un tel système est rigoureusement indispensable aux grands États modernes, mais que les États-Unis sont bien loin d’en disposer. Plusieurs étapes successives sont prévues dans le processus recommandé : l’intégration des systèmes de recueil et de soutien développés dans les années 1980-1990, comme par exemple les radars aéroportés, afin de transformer les moyens de surveillance en un réseau intégré à une base de données ; l’intégration des architectures, qui rendra opérationnelles les nouvelles architectures de recueil d’information ; enfin vers 2010, l’intégration des infrastructures qui transformera les réseaux aujourd’hui distincts en un système semblable à Internet, les reliant à travers tout le DoD et la communauté du renseignement. Au centre se trouvera la Grille (Global Information Grid, ou GIG). La Grille constituera un ensemble globalement connecté, structuré pour fournir l’information demandée par les combattants, les responsables politiques et en général tout le personnel impliqué dans la Défense. Elle comprendra tous les systèmes de communication et de calcul possédés ou loués par l’État, les logiciels, les données, les services de sécurité et autres associés nécessaires à l’obtention de l’« Information Superiority ». La GIG servira toutes les missions et fonctions stratégiques, opérations tactiques et commerciales du DoD, de la communauté de sécurité nationale et de la communauté du renseignement, en temps de paix et de guerre.

CYBERWAR I

:

LA THÉORIE

131

Elle sera responsable de la mise à disposition des capacités de tous les sites (bases, postes, camps, stations, facilités, plates-formes mobiles, et tous moyens déployés). Elle fournira l’interface aux utilisateurs non DoD tels qu’alliés et membres de coalition. Le C4ISR ainsi conçu sera un meganet, une datasphère à multiples usages, en traitement distribué, branché directement à des sources mais aussi à des capteurs multiples, avant tout ouvert, avec des entrées et des sorties accessibles à différents types d’acteurs du haut en bas de l’échelle de commandement. Lorsqu’une crise ou un conflit éclatera, toutes ses forces devront être mobilisées pour obtenir une connaissance complète de l’adversaire, et le représenter selon les schémas de l’architecte principal de la stratégie aérienne pendant la guerre du Golfe, le colonel John Warden, schémas qui vont définir les cibles successives désignées aux forces armées. Pour Warden, il s’agit de frapper, au-delà des forces engagées, tout l’éventail des capacités de l’ennemi. Warden considère l’adversaire comme un système composé de nombreux soussystèmes. La méthode consiste à déterminer le centre de gravité de chaque sous-système, c’est-à-dire le plus vulnérable selon la définition clausewitzienne, et donc celui sur lequel une attaque aura le plus de chance d’être décisive. L’approche imaginée par Warden, adoptée par l’US Air Force et l’OTAN dans tous les conflits depuis la guerre du Golfe, classe les cibles en cinq cercles concentriques. Le premier cercle est celui de la direction nationale du pays attaqué, qui comprend les systèmes de commandement, de contrôle et de transmissions. Le deuxième cercle est celui des fonctions vitales, c’est-à-dire les installations et les processus sans lesquels l’État ne peut se maintenir, comme la production d’électricité ou le raffinage du pétrole. Le troisième cercle est celui de l’infrastructure. Il comprend entre autres les systèmes de transport (compagnies aériennes, chemins de fer, autoroutes, ponts, ports), comme les télécommunications. Le quatrième cercle est celui de la population. Le soutien populaire peut être le centre de gravité d’une guérilla. Le cinquième cercle est celui des forces armées. Les campagnes aériennes récentes ont montré qu’il est possible de les désorganiser et ensuite de les détruire, en les paralysant par l’attaque de leurs systèmes d’information. Les frappes ne seront plus séquentielles mais conçues dans un ensemble coordonné d’actions dirigées appelé « Opérations centrées sur les effets » (Effects Based Operations). L’idée est de dépasser la guerre d’attrition pour créer des répercussions dans le

132

INTRODUCTION AU SIÈCLE DES MENACES

Forces armées déployées

Population nationale Infrastructure nationale

Fonctions vitales Leadership national

Les cinq cercles de John Warden

domaine cognitif de l’adversaire comme de tous les acteurs de la crise, et d’influencer aussi bien sa volonté que ses capacités. Les connaissances, obtenues après digestion et fusion des informations, sont utilisées pour définir les nœuds du dispositif adverse, c’est-à-dire les lieux où se concentre une activité ou un potentiel, et les liaisons, logiques ou matérielles, entre ces nœuds. Une telle analyse systémique, dont les logiciels proviennent des jeux vidéo, permet de représenter les forces, les faiblesses, les dépendances et donc les vulnérabilités du système ennemi. Ainsi se préparent, longtemps avant l’ouverture des hostilités, des stratégies de ciblage visant un ensemble d’objectifs (ou plusieurs) ayant une interaction forte les uns avec les autres, bien que situés dans différents cercles de Warden. Le moment venu, on pourra décider de détruire tous les nœuds de l’un de ces ensembles, simultanément ou progressivement, puis les nœuds d’un autre. Tout ce travail repose sur un ISR omniscient qui utilise principalement les données fournies par les satellites de télédétection. LE SYSTÈME DE DÉFENSE DOIT DISPOSER D’UNE CONNECTIVITÉ ILLIMITÉE

Il est considéré comme une priorité absolue de créer une connectivité générale des forces et en général de tout le système de défense, afin d’obtenir la maîtrise de l’information en temps réel dans la gestion des crises et la conduite des opérations. La connectivité est destinée à permettre l’établissement d’une « cons-

CYBERWAR I

:

LA THÉORIE

133

cience situationnelle » (c’est-à-dire d’une connaissance et d’une compréhension détaillées de la situation) partagée en continu d’un bout à l’autre de la chaîne de commandement. Toute chaîne d’information comprend quatre étapes : — le recueil des données, qui se fait au moyen de capteurs de nature diverse, placés au sol, dans l’air, sur mer ou dans l’espace ; — la transmission qui se fait par satellite ou réseaux sol ; — le traitement, l’interprétation de ces données et le tri en fonction des destinataires, confiés aux services de renseignement ; — la transmission aux exécutants des résultats digérés pour eux. Rappelons avant tout développement que l’information est désormais digitale. La crise est digitale. La quantité d’information contenue dans cinq pages dactylographiées de format 21 × 27 est de 140 kilobit ; dans une image TV de 768 × 512 pixels, de 5 mégabits ; dans une heure de stéréo audio, de 4 gigabits ; dans une heure vidéo, de 800 gigabits. Les réseaux sol commerciaux à fibres optiques, capables d’acheminer aujourd’hui 10 gigabits par seconde, s’apprêtent à monter à des centaines de Gb/s et même au térabits. Le térabits/s a également été atteint dans des essais de transmission hertzienne, terrestre ou satellitaire en bande Ka, soit l’équivalent de la transmission du contenu de trois cents ans d’un journal quotidien en une seconde. Les forces américaines disposent aujourd’hui sur le théâtre d’une capacité totale de 1 gigabit par seconde. En Bosnie, les forces ont exploité un volume d’informations spatiales mille fois supérieur à ce qu’elles utilisaient pendant la guerre du Golfe. La construction d’une capacité de transmission au niveau du térabits par seconde, disponible sur les théâtres d’opérations constitue la pointe avancée du projet militaire américain. L’objectif est de mettre en place dans le futur un régime d’acheminement illimité, sans restriction de coût, de temps, ou de quantité d’information. Chaque unité doit être connectée, donc informatisée grâce à son PCS (Personnal Communication Service), téléphone ordinateur portable équivalent à un terminal Internet. Elle sera reliée au méganet, c’est-à-dire à une série de réseaux de plus en plus vastes qui engloberont aussi les capteurs. Cette mise en communication universelle, horizontale, en temps réel, permanente, constitue ce que le Pentagone appelle l’Integrated Information Infrastructure (III, ou Three Eyes) et doit être achevée à l’horizon de vingt ans. Il doit pouvoir transférer l’information de n’importe quelle source à n’importe quelle destination, instantanément, verticalement et horizontalement.

134

INTRODUCTION AU SIÈCLE DES MENACES

Le réseau ne se borne pas à transmettre, il traite l’information de façon cognitive. Comme il comprend des banques et des centres de traitement, il procède automatiquement aux tâches qui permettront de transformer les données en connaissances (stockage, gestion des flux, corrélations et fusions). Les concepteurs de ce réseau espèrent utiliser la loi de Metcalfe17, selon laquelle, rappelons-le, la puissance du réseau est proportionnelle au carré du nombre de nœuds. Les messages en provenance des capteurs sont orientés vers les bases de données qui permettent d’identifier l’origine du signal détecté par corrélation avec d’autres sources : de quel avion s’agitil ? de quel tank ? de quel régiment ? Par exemple, chaque radar de tir affecté à une batterie d’artillerie possède sa propre signature : elle a déjà été détectée, analysée, enregistrée il y a plus ou moins longtemps, par exemple par des satellites d’écoute électromagnétique et se trouve dans une banque de données où le réseau doit la découvrir automatiquement. Même démarche pour le sillage des navires observés par radar spatial. L’identification de l’adversaire, avion, char, batterie, camion, navire, se fait en temps quasi réel par ce genre de procédure utilisant des outils d’exploitation multiples et bien rodés, filtres, identification de configurations images, comparaison de données, quelque part dans un des ordinateurs situés bien loin du théâtre. La présentation des résultats de ces activités complexes, extrêmement automatisées, utilise des moyens de visualisation qui permettent aux acteurs de prendre une conscience précise du champ de bataille. Des cartes digitales, remises à jour en permanence, permettent de représenter à l’échelle le relief, l’ensemble des éléments statiques du paysage (villes et villages, ponts et routes, usines et bases…) et l’ensemble des forces adverses identifiées et surtout localisées au mètre près dans un système de référence fourni par les moyens spatiaux18. Le stratège possède une connaissance complète non seulement de la situation mais aussi de son évolution. Il a même la possibilité de se livrer à un Kriegspiel instantané en employant une simulation où il pourra prendre la place de son antagoniste. Le « brouillard de la guerre » cher à Clausewitz tend à se dissiper. Ainsi parvienton au mécanisme fondamental du succès militaire : l’accélération de la boucle nommée OODA par le colonel John Boyd, dans son analyse du combat aérien pendant la guerre du Vietnam, à savoir la séquence des opérations observation-orientation-décision-action. 17. Voir p. 21. 18. Voir p. 159.

CYBERWAR I

:

135

LA THÉORIE

Toute opération militaire peut être conçue comme se déroulant en quatre étapes, qui se succèdent en un processus circulaire se mordant la queue : l’ennemi est d’abord observé ; cette information est transmise au commandement qui analyse la situation en fonction des données dont il dispose, c’est l’orientation ; une décision d’intervention est prise ; la décision est exécutée par une action ; le résultat de l’action est observé, et la roue tourne. Le cycle OODA est la procédure qui identifie l’ensemble des paramètres définissant le champ de bataille et construit le plan d’opérations, c’est-à-dire une suite d’actions hiérarchisées : chaque action militaire possède sa propre boucle OODA avec sa constante de temps qui peut valoir des mois pour une campagne, et des minutes pour une frappe tactique. Le but à poursuivre, et à atteindre, est de faire tourner chacune de nos boucles plus rapidement que celles de l’adversaire.

Information Analyse

Choix stratégiques Directives

observation

orientation

Maîtrise de la quatrième dimension : le temps action décision Conduite Exécution

Choix tactiques Programmation Ordres

Cycle décisionnel-Boucle OODA

Introduite par l’US Navy dans le milieu des années 1990, l’idée nouvelle de la Network Centric Warfare19, ou structure réseau-centrique de l’emploi des forces, consiste à structurer les réseaux de communication afin d’accélérer les boucles OODA. L’architecture non conventionnelle de la NCW comprend trois types de réseaux parallèles interconnectés : les réseaux des capteurs (sensors) mis en œuvre dans l’espace physique (espace, air, 19. Network Centric Operations : A Capstone Concept for Naval Operations in the Information Age, Naval Warfare Development Command, Newport R. I., 19 juin 2001.

136

INTRODUCTION AU SIÈCLE DES MENACES

mer, terre) et cybernétique pour décrire la situation, les réseaux des tireurs (shooters), qui irriguent l’engagement des forces ; les réseaux d’information reliant le réseau des capteurs et le réseau des tireurs en opérant la transformation des données en connaissance via le recours aux banques si nécessaire. On ne devra pas sous-estimer l’énormité des investissements en équipements et en logiciels exigés par une telle révolution des méthodes. La NCW dépasse les concepts actuels de plates-formes ou de systèmes d’armes, habituellement focalisés sur une tâche ou mis à disposition d’une seule classe de capteurs, afin de permettre à chaque capteur de conduire éventuellement le feu de chaque tireur. Un observateur d’artillerie peut ainsi engager non seulement le feu de ses batteries, mais aussi les frappes de l’aviation tactique, voire stratégique. Dans une flotte, chaque bateau agit à la fois comme organe sensoriel ISR, comme organe de relais de transmission et comme plate-forme de combat. Chacun se trouve en mesure d’exploiter directement les capacités des autres puisqu’une infrastructure de communications sécurisées, à grande bande passante, incluant des capteurs et des systèmes de traitement des signaux, relie les unités et leur fournit la même conscience situationnelle en temps réel20. Au lieu d’un organe de combat doué seulement d’une puissance de feu rapprochée (à cause de la modestie de l’allonge de l’aéronavale embarquée), le commandement dispose d’unités démultipliées, dont les capacités sont susceptibles d’être mobilisées et utilisées à grande distance. Les forces peuvent opérer de façon distribuée21, puisque la portée des armes d’une plate-forme donnée n’est plus limitée par la portée de ses capteurs. Un navire détecte l’ennemi, et un autre, qui n’a rien détecté, tire. La dispersion géographique devient un atout, au lieu de la catastrophe redoutée de toutes les marines de guerre. L’escadre fait tourner plus vite sa boucle OODA lorsqu’elle est organisée en réseau, et chacune des plates-formes à son tour bénéficie d’une accélération de sa propre boucle. Les marines de guerre qui se rendent capables de s’intégrer dans de tels réseaux maillés gagnent en autonomie dans la mesure où elles sont ellesmêmes capables de s’organiser en sous-réseaux. Ce genre d’« effet fractal », permettant à la fois l’autonomie et l’intégration, se compare à une stratégie d’intégration active à Internet, créant des intranets et des extranets. 20. A. K. Cebrowski et John Gartska, « Network-Centric Warfare : Its Origin and Future », Naval Institute Proceedings, janvier 1998, in L. Muriawec, op. cit, p. 140. 21. L. Muriawec, op. cit.

CYBERWAR I

:

LA THÉORIE

137

Ne dirait-on pas que nous venons de décrire le fonctionnement de Wal Mart22 ? Nous avons remplacé le flux tendu par la réduction de la durée dite sensor to shooter qui sépare le moment où toute cible a été identifiée de celui où elle est attaquée. Avec le développement fulgurant des drones, le concept d’opérations réseau-centriques devient « l’épitomé de la transformation de la Défense23 ». LA NATURE DIGITALE DU THÉÂTRE D’OPÉRATIONS

Pour obtenir une rotation rapide du cycle décisionnel, il faut utiliser des moyens de traitement automatique de l’information. La boucle OODA doit être digitale sans discontinuité. La mutation technologique essentielle est l’augmentation rapide de la puissance du traitement des données par ordinateur, ce qui permet à des plates-formes plus petites de traiter un plus grand nombre d’informations selon des modes plus sophistiqués et à une vitesse plus importante chaque jour. L’information dans la zone de crise ne vient plus de l’observation par une longue-vue, mais des mesures faites par une grande diversité de capteurs, qui fournissent des signaux digitaux engendrés par une présence et appelés signatures de cette présence. Pour détecter les signatures dont la nature peut être électromagnétique, acoustique, sismique ou chimique, les capteurs sont portés par différents types de plates-formes : supports au sol, mobiles ou fixes, bouées, bateaux, avions, drones, satellites. Nous n’hésiterons pas à les décrire brièvement dans ce chapitre consacré à la théorie de Cyberwar, car la « technification » de la gestion de crise et de la conduite des opérations correspond au plus profond de l’approche américaine. Capteurs employés au sol. Le radar est un émetteur d’onde électromagnétique qui illumine la cible par un pinceau fin et en reçoit l’écho. Il est le meilleur détecteur à distance du mouvement des hommes et des véhicules grâce à sa large couverture, disponible par tous les temps, jour et nuit. Les microphones, sensibles au bruit, sont de bons instruments pour la détection rapprochée. La technologie nous offre, à côté des capteurs, des systèmes supports de ces capteurs auxquels il ne semble pas que les forces armées se soient assez intéressées. Dès 1976, les forces américaines ont utilisé dans le Sinaï une station de surveillance optique 22. Voir p. 123. 23. Déclaration de Kevin Meiners, directeur IRS pour le secrétaire adjoint à la Défense C4I, Aviation Week and Space Technology 163, 22 juin 2002.

138

INTRODUCTION AU SIÈCLE DES MENACES

du cessez-le-feu, entièrement automatisée et télécommandée, qui leur économisait un poste gardé par des troupes dans une zone difficile. On se demande pourquoi vingt ans plus tard, cette approche, qui aurait pu être complétée par une surveillance radar et une surveillance acoustique, n’a pas été utilisée sur d’autres théâtres, en Bosnie par exemple, où elle aurait pu rendre à plusieurs reprises l’initiative aux forces onusiennes, en évitant de placer des personnels dans des situations exposées de façon inutile, dérisoire et dangereuse. Le développement et l’adoption de tels moyens devraient s’imposer pour les missions humanitaires ou les missions de cessez-le-feu. Capteurs portés par avion piloté. L’US Air Force est le plus important fournisseur de données de surveillance et de renseignement, mais ses chefs avouent eux-mêmes que si elle fait du bon travail en ce qui concerne l’ISR de théâtre, elle n’est pas capable de fournir une perspective globale. Les chevaux de labour qui ont prouvé leur importance au sein du dispositif de combat sur tous les théâtres depuis la guerre du Golfe, sont les moyens suivants : — L’AWACS (Airborne Warning and Control System) porte un radar omnidirectionnel dont l’antenne est montée au-dessus du fuselage d’un Boeing 707. Sa mission est l’acquisition et l’identification de cibles aériennes dans tout l’espace aérien jusqu’à grande distance. Il fait aussi du SIGINT. — Le J-STARS est aussi un radar monté sur un Boeing 707 ; sa mission est complètement différente : elle consiste à coordonner la bataille terrestre. Son radar peut, soit détecter des mouvements de véhicules sur une zone très étendue (45 000 km2), soit se concentrer sur une zone restreinte de 600 km2 pour identifier des véhicules individuels. Un radar à synthèse d’ouverture (SAR, ou Synthetic Aperture Radar), dont les antennes reçoivent simultanément plusieurs échos et qui les recombinent, permet aussi d’obtenir des images. — Le RL-135 Rivet est un détecteur passif d’émissions électroniques (SIGINT et MASINT) monté sur avion. Dans le futur, ces trois systèmes seront remplacés par de nouvelles plates-formes, qui regrouperont les fonctions de gestion de la bataille, de communication et de renseignement sur le même avion. Les drones (avions radioguidés sans pilote). Engendrées très récemment par la loi de Moore, ces plates-formes dites UAV (Unmanned Aerial Vehicle) sont appelées à transformer non seulement l’art de la guerre classique, mais aussi la manière de mener ou de combattre Netwar, comme le démontre chaque jour l’armée israélienne. Dégagés de l’obligation d’emporter un pilote, les dro-

CYBERWAR I

:

LA THÉORIE

139

nes sont légers et mobiles ; ils peuvent rester des dizaines d’heures en l’air, et demain peut-être des dizaines de jours ; ils se prêtent naturellement aux missions « impossibles ». Les fonctions qu’ils peuvent remplir et leurs performances en vol en feront des rivaux des forces aériennes classiques, même si on peut encore estimer qu’ils ne les remplaceront pas. Pour faire comprendre par un exemple ce qu’est une opération dans un système de systèmes, explicitons le mode de fonctionnement du système constitué par des UAV déployés au-dessus de l’Afghanistan, porteurs de caméras pour reconnaissance optique, de radars à synthèse d’ouverture (SAR) qui fournissent des images à haute résolution même la nuit, même en présence de nuages, et de récepteurs pour écoute du SIGINT. Un élément support localisé en Europe contrôle le drone par une liaison satellite, et les émissions du drone sont aussi relayées par satellite jusqu’à la station de contrôle européenne, qui à son tour les transmet par satellite aux États-Unis où les données sont distribuées aux responsables de l’analyse et de la planification tactique. Alors les éléments élaborés aux États-Unis font le chemin inverse jusqu’à la station européenne pour reprogrammer les opérations du drone. Imaginons l’encombrement produit par le fonctionnement simultané non plus de trois mais de dix, cinquante UAV. Saura-t-on aller jusqu’à l’autonomie c’est-à-dire la capacité du drone à se reprogrammer tout seul à partir des informations qu’il aura recueillies ? J’incline à penser que ce genre de progrès est possible à l’horizon d’une dizaine d’années. En attendant on peut affirmer qu’un drone sans satellite et sans réseau n’a aucune valeur sur le champ de bataille digital d’aujourd’hui. Un drone sans GPS qui fournisse les coordonnées des scènes observées et du drone luimême n’a non plus aucun sens. Jusqu’à présent les UAV ont essentiellement apporté une amélioration de la connaissance situationnelle et du processus aboutissant aux « conditions d’engagement », c’est-à-dire à la décision de tirer. Ainsi peuvent être réduits les « dommages collatéraux » ou les pertes civiles, lorsque l’UAV est en communication avec l’avion chargé de la frappe ou exécute sa propre frappe. Mais les idées nouvelles prolifèrent quant à l’emploi des UAV ; l’imagination peut se donner libre cours : • Dans le domaine militaire, on cite la reconnaissance, la recherche et la récupération, le relais de communication, les prélèvements NBC (nucléaires, bactériologiques, chimiques), la détection de mines, le radar bistatique, la correction de tirs d’artillerie, le BDA, la guerre électronique, la suppression des défenses antiaériennes, le leurrage, la guérilla urbaine…

140

INTRODUCTION AU SIÈCLE DES MENACES

• Dans le domaine civil, la mesure de la pollution, la surveillance des récoltes, l’épandage, l’inspection des lignes haute tension et, en général, des équipements peu accessibles, la prospection minière, la météorologie, le maintien de l’ordre, la récupération des otages, les relais de télécom, le fret postal type Chronopost ou Fedex, les films et reportages… Au sommet du G-8 à Évian en juin 2003, la police française a utilisé des drones militaires pour localiser les perturbateurs. Le colonel Warden24 prédit que les UAV formeront 80 à 90 % de la force aérienne des États-Unis vers 2020. « Les choses approchent rapidement du point où ils seront capables de faire presque tout ce qu’un homme peut faire, excepté certaines décisions instantanées difficiles, comme de tirer ou de ne pas tirer. » Il semble évident qu’on s’acheminera vers un emploi mixte des moyens pilotés ou non. Envoyer des engins sans pilote dans la fournaise d’un système moderne intégré de défense aérienne ou sur un champ de bataille contaminé par des agents chimiques ou biologiques paraîtra plus raisonnable que de risquer des vies, non seulement pendant la mission mais surtout peut-être dans les opérations de sauvetage en zone ennemie si dangereuses pour les participants, et si dommageables sur le plan médiatique. Répétons la déclaration déjà citée de Kevin Meiners25 selon qui la combinaison du concept d’opérations réseau-centrique et des UAV est l’épitomé de la transformation de la Défense : ces deux concepts sont exactement ce que le Pentagone veut promouvoir. Capteurs portés par satellites. La télédétection est le recueil d’informations décrivant la surface du globe sous forme d’images ou de spectres. Un satellite de télédétection porte donc un capteur, qui peut être soit passif, comme un télescope ou un récepteur de signaux électromagnétiques, soit actif, comme un radar. Pour couvrir toute la Terre, l’orbite circulaire polaire est la meilleure puisqu’elle ne laisse aucun territoire hors de sa portée. Placé sur une orbite polaire héliosynchrone (inclinaison entre 91° et 98° environ), un satellite passe toujours à la même heure locale sur toute cible, ce qui permet d’observer le sol sous des conditions identiques d’éclairement d’un passage à un autre. Un satellite ne reste pas au-dessus d’une scène, mais l’observe à des intervalles qui dépendent de la latitude, du choix de l’orbite et de la construction du capteur. L’intervalle, dit temps de revisite, est compris entre une journée et plusieurs semaines selon les systèmes. Une 24. Aviation Week and Space Technology, 8 juillet 2002, vol. 157, n° 2, p. 54. 25. Voir réf. 23, p. 137.

CYBERWAR I

:

LA THÉORIE

141

vingtaine de satellites permettraient de réduire le temps qui sépare deux passages à dix minutes. L’observation optique doit être complétée par une composante radar, seule capable de fournir la permanence du renseignement de nuit ou en présence de nuages. Les satellites qui fournissent des images du sol, que ce soit dans les domaines optique ou radar, permettent de distinguer des détails de la surface terrestre de l’ordre d’une cinquantaine de centimètres. La difficulté majeure de la télédétection spatiale découle de la très grande quantité d’information que contient une image. Un carré de 20 km de côté fournira un message d’environ 3 gigabits (pour une résolution de un mètre et une allocation de 8 bits par pixel). Un satellite défilant à l’altitude constante de 800 km parcourt à peu près 7 km par seconde, c’est-à-dire qu’il couvrira les 20 km de la cible en trois secondes : il devrait donc pouvoir émettre en permanence 1 gigabit/s. Cette performance est en général loin de la portée des satellites actuels, et il est nécessaire de stocker dans une mémoire de grosse capacité un certain nombre d’images, puis de les relayer à une station de réception située sous le contrôle de l’entité possédant le satellite. On obtient donc peu d’images par orbite, et encore moins dans le cas du radar dont les informations exigent encore plus de bits : cinq cent cinquante par orbite pour Spot 5, quelques dizaines par orbite pour un SAR, sont des nombres moyens. L’application de la technique spatiale peut-être la plus importante pour les militaires est l’écoute électromagnétique (SIGINT) des signaux émis par l’adversaire. Son intérêt réside dans la capacité d’apporter une information à la fois de documentation et de situation26. Dans le domaine du renseignement de documentation, la relation étroite qui lie le signal électromagnétique à l’activité politico-militaire fait de cette information un indicateur précieux de l’imminence de crises. Dans le domaine du renseignement de situation, elle est d’un intérêt incomparable pour l’évaluation du contexte militaire (potentiel, organisation, emploi, activités des forces armées et paramilitaires, infrastructure, matériels), et elle est indispensable à la préparation des actions aériennes. 26. Dans le jargon du renseignement : — le renseignement de documentation décrit l’état des lieux, des infrastructures, des moyens de l’adversaire en général, s’attachant au long terme et aux évolutions stratégiques ; — le renseignement de situation décrit les événements instantanés et les évolutions tactiques.

142

INTRODUCTION AU SIÈCLE DES MENACES

Le satellite ouvre des perspectives nouvelles grâce à la permanence de sa disponibilité, la répétitivité de son mouvement et à sa capacité d’aller « jeter un coup d’œil » sur un site ou une région par simple programmation de la charge utile, donc sans risques et discrètement. En survolant les régions interdites aux avions, il fournira des écoutes et des localisations de meilleure qualité, mais un seul satellite ne permet pas la continuité de l’écoute : celle-ci s’obtient avec une flottille. En ce qui concerne l’imagerie satellitale, son principal intérêt est de permettre l’obtention de cartes digitales à trois dimensions, dites « modèles numériques de terrain » ou MNT, et de contribuer ainsi à la connaissance stratégique des différentes forces dans le monde, c’est-à-dire au renseignement de documentation. Pour le renseignement de situation, la longueur du temps de revisite et la présence de nuages, qui rend inexploitables 80 % des images, imposent l’emploi d’un assez grand nombre de satellites. LA PRÉCISION DES FRAPPES ET L’AUGMENTATION DE LA PROFONDEUR DU THÉÂTRE

Dans le passé, il a toujours fallu beaucoup de tirs pour toucher une cible. Depuis les origines, cette contrainte a défini les modes du combat. Au milieu de 1941, le rapport27 demandé par Winston Churchill à M. Butt sur l’efficacité du Bomber Command britannique révèle qu’un bombardier sur dix a largué ses bombes dans un rayon inférieur à 8 kilomètres de la cible. En février 1942, trois cuirassés de la Kriegsmarine, après avoir été attaqués sans succès à Brest, forcent la Manche à la barbe de l’aviation anglaise, qui sacrifie en vain avions et équipages pour les empêcher de passer. Les stratèges britanniques concluent que les seuls objectifs à la portée des bombardiers sont les villes, et décident de programmer des attaques de saturation contre les grandes agglomérations allemandes. Le nouveau commandant de la RAF, le général Sir Arthur Harris imagine des raids de mille appareils. L’impuissance des aviateurs conduit au bombardement sans discrimination. Le premier assaut, qui sera suivi de beaucoup d’autres, est mené le 30 mai 1942 contre Cologne : 1 455 tonnes de bombes sont larguées sur la ville où 477 habitants trouvent la mort et 45 000 sont jetés à la rue. Le Bomber 27. Patrick Facon, « Bombardement sur zone », Armées d’aujourd’hui, n° 73, septembre 2002, p. 67.

CYBERWAR I

:

143

LA THÉORIE

Command perd 40 appareils, c’est-à-dire 3,8 % des avions engagés. Le tableau donne le résultat des bombardements alliés sur trois installations pétrolières allemandes à Leuna, Zeitz et Ludwigshaffen-Oppen en 194428. Hors la cible Leurres Sur la cible Parmi les 12,9 % sur la cible Long feu Utiles Sol nu, en dehors des installations visées 84,1 %

3%

12,9 %

7,6 %

3,4 %

1,8 %

Même lorsqu’ils eurent acquis la maîtrise complète du ciel, il fallait statistiquement aux alliés 4 500 bombardiers larguant chacun deux tonnes de bombes pour détruire une cible ayant la taille d’une maison. Pendant la guerre du Vietnam, il fallait encore 95 appareils larguant 190 tonnes de bombes pour atteindre ladite maison. Dans les années 1970, l’entrée en lice des smart bombs29 appelées aussi Precision Guided Munitions ou PGM, aussitôt adoptées par toutes les armées de l’air dans le monde, marque vraiment un changement qualitatif majeur dans l’art de la guerre ; les experts calculent qu’une PGM obtient un résultat équivalent à celui de trente bombes normales. Pendant la guerre du Golfe, les PGM ont représenté 10,9 % du tonnage largué et 7,6 % du total des projectiles lancés. L’évolution s’est poursuivie pendant les années 1990, mais en fait, a été bouleversée à partir des opérations en Serbie par l’intervention des moyens spatiaux, c’est-à-dire la localisation des bombes larguées par avion grâce aux satellites du système GPS30. Deuxième mode du bombardement de précision, les missiles de croisière Tomahawk Land-Attack Missile ont été employés pour la première fois pendant la guerre du Golfe. Ce missile décolle d’un sous-marin, d’un navire de surface ou d’un avion, se déplace à la vitesse d’environ 700 km/h et lance sur un 28. L. Murawiec, op. cit., p. 142. 29. Deux sortes de smart bombs sont employées depuis la guerre du Vietnam : — EOGB à guidage électro-optique : une caméra de TV est montée sur la bombe, et le pilote peut choisir le point d’impact dans le champ de vue. La bombe alors se charge du reste. — LGB à guidage laser : un rayon laser partant d’un avion illumine la cible, et la bombe se dirige vers le cercle éclairé. 30. Voir p. 161.

144

INTRODUCTION AU SIÈCLE DES MENACES

objectif situé à 1 300 kilomètres une bombe de 250 kg avec une précision de l’ordre d’une dizaine de mètres. Le guidage se fait au moyen de plusieurs systèmes de bord : centrale à inertie classique, recalage par GPS, comparaison entre la carte du terrain survolé obtenue par un radar altimétrique de bord et une carte stockée en mémoire, et approche finale par comparaison entre une image stockée à bord et une image de la cible obtenue par balayage du champ de vue d’une caméra de bord. On conçoit que cette petite merveille coûte 1 million de dollars l’exemplaire. Troisième mode du bombardement de précision, l’emploi des drones. Rien n’empêche de les munir d’équipements GPS miniaturisés qui leur donnent la précision de la localisation et de guidage déjà disponibles. La précision de frappe transforme la totalité du champ stratégique. D’une part, elle réduit le nombre de missiles donc les pertes, le nombre des avions nécessaires donc les investissements, la logistique donc la lourdeur et le coût des opérations, les poids à tracter donc la dimension du train, sans oublier les dommages collatéraux dont l’impact médiatique peut se révéler décisif. D’autre part, elle permet de déconcentrer et de décentraliser la bataille que l’on peut désormais mener à distance, réduisant peu à peu l’engagement du fantassin. On en vient à la guerre à bout de bras (stand-off warfare). Dans les manuels récents du Corps des Marines, la distance moyenne du soldat avec l’ennemi est passée de mille à dix mille mètres. Ainsi s’obtient cette profondeur du champ de bataille qui permet la manœuvre stratégique.

L’officialisation de la doctrine Dans sa projection Joint Vision 2010, le DoD affiche une doctrine dont le soubassement est le concept de supériorité d’information tel que nous l’avons défini. Toutes les opérations de guerre seront conduites selon un mode interarmées. Or, jusqu’à présent, les délais nécessaires pour grouper et employer des moyens puissants y compris les hommes, les plates-formes, les armes et la logistique correspondante imposaient d’organiser séquentiellement dans le temps les opérations militaires. Au lieu de continuer à utiliser cette méthode, la gestion de l’information doit désormais permettre une manipulation simultanée de toutes les forces. Une telle démarche suit l’évolu-

CYBERWAR I

:

LA THÉORIE

145

tion des grandes structures industrielles et commerciales telle que nous l’avons rappelée31. Grâce aux armes de précision et à leur plus grande portée, les troupes adverses peuvent être éliminées avec un nombre plus faible de systèmes. Le commandement, amélioré grâce au renseignement fusionné fourni en temps réel, n’éprouve plus la nécessité d’assembler les forces prenant part à la manœuvre de nombreux jours avant l’attaque. Enfin la meilleure qualité du ciblage réduit l’importance des moyens engagés dans l’effort principal. Ces considérations amènent à penser qu’il deviendra de plus en plus aisé d’obtenir des effets de masse, c’est-à-dire la concentration de puissance nécessaire aux lieu et moment décisifs, avec un besoin de rassembler physiquement les forces bien moindre que par le passé. Nous ne pourrons certes pas éviter la présence de combattants sur le terrain, mais nous leur donnerons un avantage qualitatif majeur sur tous leurs adversaires grâce à une excellente conscience de la situation, donc la capacité de fournir à chaque instant la réponse la mieux adaptée et surtout la plus rapide à toute évolution. Enfin la confiance de chaque combattant reposera sur la connectivité générale avec ses camarades de combat, les unités en soutien et le commandement. Dans ce contexte, les fonctions traditionnelles de manœuvre, d’attaque, de protection et de logistique seront transformées selon quatre nouveaux concepts opérationnels. La manœuvre de domination est l’application des capacités d’information, d’engagement et de mobilité pour positionner et employer des unités très dispersées dans des opérations combinées menées à une vitesse et un rythme qui dépassent ceux de l’ennemi. Nous retrouvons le swarming de Netwar. L’engagement de précision qui a pour objectif de détruire les cibles ennemies, doit successivement les localiser, déclencher l’attaque, estimer le niveau de succès (BDA) et se tenir prêt à recommencer. C’est la généralisation de la boucle OODA. La protection multidimensionnelle complète s’efforcera de protéger nos forces contre les moyens techniques de l’ennemi en leur assurant la liberté d’action pendant le déploiement, la manœuvre et l’attaque, tout en leur fournissant une défense étagée à de nombreuses couches. La logistique focalisée est la fusion des technologies de l’information, de la logistique et du transport destinées à fournir une réponse rapide à une crise, suivre les stocks et leurs trajets, et ravitailler les unités de façon synchronisée où qu’elles soient, sans 31. Voir p. 123.

146

INTRODUCTION AU SIÈCLE DES MENACES

rmation Superiority Info

ology Innovations Techn

avoir recours à de gros stocks préentreposés sur le théâtre. Rapide signifie ici heures et jours, à comparer avec les semaines ou mois nécessaires encore aujourd’hui pour les opérations de ce genre. C’est le flux tendu. L’ensemble des quatre concepts précédents aboutit à la notion de « domination du spectre complet », c’est-à-dire la maîtrise de l’ensemble des activités militaires, de l’assistance humanitaire jusqu’aux conflits de forte intensité. Un dessin du document JV-2010 représente les quatre concepts sous forme de flèches parallèles convergeant sur la Full Spectrum Dominance. Les flèches passent à travers deux anneaux qui leur donnent leur synergie et sur lesquelles on lit les mots Technological Innovations et Information Superiority. La doctrine JV-2010 entre dans le détail en ce qui concerne les moyens nécessaires à la mise en œuvre des quatre concepts, et expose ouvertement qu’ils reposent tous sur les moyens spatiaux : l’espace n’est plus un gadget, mais une composante essentielle de la Défense.

Dominant Man

euver

Precision Engagement Focused Logistics ction sional Prote Full-Dimen

Decisive Operations

Full Spectrum Dominance

Les quatre concepts opérationnels de JV-2010

L’USSPACECOM, ou commandement des forces spatiales, a traduit dans la doctrine Joint Vision 2020 les conséquences de la doctrine Joint Vision 2010 pour les forces armées spatiales américaines. Les idées principales en ont été exposées dans un mémorandum du secrétaire à la Défense du 9 juillet 1999. À l’US Space Command sont confiées les missions de dominer la dimension spatiale des opérations militaires, et d’intégrer les forces spatiales dans des capacités de combat sur tout le spectre du conflit. Le secrétaire à la Défense Donald Rumsfeld l’a incorporé dans un ensemble plus vaste, le Strategic Command. La doctrine Joint

CYBERWAR I

:

LA THÉORIE

147

Vision 2020 repose sur quatre concepts opérationnels déduits de la mission du Space Command, des concepts opérationnels de Joint Vision 2010 et de ce que l’on peut prévoir de l’environnement stratégique du futur. Le contrôle de l’espace est la capacité d’assurer aux forces des États-Unis et de leurs alliés un accès ininterrompu à l’orbite, la liberté des opérations dans le milieu spatial et le pouvoir de l’interdire aux autres, si nécessaire32. L’engagement global se préoccupe des menaces à longue portée (engins balistiques et missiles de croisière), de la nécessité de les contrer et du besoin d’une défense avancée dans un contexte de réduction des bases extérieures. Il combine la surveillance globale de la Terre (voir tout à tout moment), la défense antimissile à l’échelle mondiale et l’application de la force à partir de l’espace. L’intégration complète des forces consiste à introduire « sans couture » l’information venue de l’espace dans les forces de combat, c’est-à-dire faire prendre en compte l’espace à tous les échelons de la hiérarchie et l’intégrer dans toutes les actions militaires ; elle exige donc la sensibilisation et l’entraînement des personnels et surtout la dissémination de ces informations obtenues à partir de l’espace par le réseau informatique national de défense. La formation des personnels (actuellement réservée aux écoles militaires supérieures) dans les matières spatiales sera assurée à tous les niveaux à partir de 2005. Un organe de coordination, USCINCSPACE, a pour objectif l’injection du spatial du haut en bas du DoD. En 2020 les combattants auront été entraînés pour capitaliser complètement l’avantage des capacités spatiales. Le partenariat global, concept qui se pose en composante transversale des trois autres, aux buts plus opérationnels, consiste à prendre avantage des systèmes spatiaux civils, commerciaux et internationaux. L’atout de cette politique est de diminuer les coûts de la Défense tout en augmentant ses moyens. Certaines missions, telles que l’imagerie de la Terre ou la navigation par exemple, seront vraisemblablement des candidates pour un transfert dans le domaine commercial. Vers 2020 les affaires spatiales, 32. La notion de Space Control est définie en annexe du document comme « les opérations de combat et de soutien de combat visant à garantir la liberté d’action des États-Unis et de leurs alliés et à empêcher celles de leurs adversaires dans l’espace. Les missions de Space Control comprennent : la surveillance de l’espace ; la protection des systèmes américains et alliés ; la capacité à empêcher un adversaire d’utiliser des systèmes et des services spatiaux contre les intérêts de sécurité nationale des États-Unis ; la capacité à empêcher l’emploi de systèmes et de services spatiaux hostiles aux États-Unis ; et le soutien à l’organisation des capacités C3I ».

148

INTRODUCTION AU SIÈCLE DES MENACES

civiles et militaires, seront traitées aux États-Unis par une structure interagences de coordination. On peut tenir pour certains que l’importance de l’espace dans la doctrine militaire américaine et l’avance technique que leur donneront leurs investissements transformeront le prétendu partenariat en un instrument de domination sur l’ensemble des activités militaires dans le monde. Le « partenariat global » sera donc non seulement, comme le dit Joint Vision 2020, un multiplicateur de forces pour chacun des concepts opérationnels de Joint Vision 2010, mais aussi un multiplicateur de forces des États-Unis à l’intérieur de toute coalition dont ils seront les leaders. Le Congrès des États-Unis et le secrétaire à la Défense ont appointé un comité indépendant chargé d’évaluer les structures de gestion et le statut de l’espace dans le dispositif militaire américain33. Constitué de hautes personnalités de l’establishment à la retraite et de parlementaires, il a siégé de juillet 2000 jusqu’au 11 janvier 2001, date à laquelle il a publié son rapport. Il a été présidé par Donald H. Rumsfeld, jusqu’en décembre 2000, date à laquelle cet ancien secrétaire d’État à la Défense a retrouvé ce poste dans le cabinet nouvellement formé par le président George W. Bush. Nous utiliserons ultérieurement cet important document très officiel, connu sous le titre de Second Rapport Rumsfeld, mais il apparaît utile de citer sa première phrase : « Le Comité a conclu à l’unanimité que la sécurité et le bien-être des États-Unis, de ses alliés et de ses amis, reposent sur la capacité de la nation à opérer dans l’espace. »

Aucun autre État dans le monde ne souscrirait aujourd’hui à une telle affirmation, qui porte, on le notera, aussi bien sur les aspects civils que les aspects militaires de « la sécurité et du bienêtre ». Le Comité n’a fait que réaffirmer une doctrine qui fait l’unanimité dans la classe dirigeante américaine depuis longtemps, et qui sous-tend les directives JV-2010 et JV-2020. L’accord sur la nécessité de maîtriser l’information à toutes les étapes qui la constituent est désormais général. Les techniques et les systèmes spatiaux sont aujourd’hui considérés comme nécessaires à la mise en œuvre de la Full Spectrum Dominance34. 33. Commission to Assess United States National Security Space Management and Organization, disponible sur le Web : 34. On consultera à ce sujet l’étude de X. Pasco, Espace, place de l’outil spatial au sein des capacités militaires américaines du futur, Fondation de la recherche stratégique, décembre 1999, n° 698/FR/OSF.

CYBERWAR I

:

LA THÉORIE

149

Il est de bon ton de considérer l’importance centrale attribuée par les États-Unis à la composante spatiale de leurs forces avec une certaine ironie : « Trop de valeur attachée à la technique au détriment du combattant », disent beaucoup de militaires européens de haut rang. Nous ne les suivrons pas dans cette critique. Les États-Unis sont la première puissance spatiale du monde et ils sont à même de comprendre l’évolution des techniques de l’information qui se produit chez eux. Ils s’appuient sur les réflexions de leur Think Tanks dont nous n’avons pas l’équivalent. Ils sont aussi la première puissance militaire. Ils voient juste lorsqu’ils développent la doctrine de l’Information Warfare. Nous verrons au prochain chapitre les résultats que les premières applications de la doctrine ont permis d’obtenir dans les conflits récents, et prévenons le lecteur qu’il ne s’agit là que d’un commencement. La « transformation » des forces armées américaines est encore à venir et le monde n’a encore perçu ni la véritable nature, ni le véritable potentiel de Cyberwar.

Coup d’œil sur les systèmes spatiaux employés par le DoD En 2004, les États-Unis dominent largement les dépenses spatiales mondiales avec 16 milliards de dollars pour les programmes civils et 20 milliards de dollars pour les programmes militaires, auxquels s’ajoutent une bonne dizaine pour les programmes secrets de défense dits blacks. Le budget militaire spatial américain augmente continûment depuis 1995, et cette croissance s’accélère sur tous les postes. Dans le domaine militaire spatial, la position américaine est sans partage. Les programmes de la Russie ne sont que très partiellement renouvelés. Quant au reste du monde, le principal budget est celui de la France, trentesept fois inférieur à celui des États-Unis. La différence d’ordre de grandeur entre l’effort des Américains et celui des autres puissances tient au fait que les États-Unis, d’une part exploitent une quinzaine de systèmes opérationnels, et d’autre part consacrent des efforts importants à la RD. Trois systèmes spatiaux constituent le socle de la force aérospatiale, les satellites de télécommunication, de localisation et de télédétection. S’y ajoutent des systèmes annexes tels que la météorologie et la surveillance de l’espace, l’alerte et la défense antimissiles35. 35. Pour ces derniers domaines, voir le chapitre VI.

150

INTRODUCTION AU SIÈCLE DES MENACES

LES TRANSMISSIONS SPATIALES

Le développement rapide des télécommunications pendant les dernières années n’a pas reposé uniquement sur les moyens spatiaux. Certains pensent même que l’âge d’or des satellites est déjà passé, les moyens terrestres ayant retrouvé leur compétitivité (fibres optiques à très grande capacité, réseaux terrestres de télécoms mobiles), et l’avantage des satellites (large zone géographique couverte d’un seul coup) ne serait plus déterminant puisque les utilisateurs sont très concentrés dans les pays industrialisés et dans les grandes agglomérations des pays en développement. Toutefois, leur compétitivité n’est pas contestée dans deux domaines où les satellites géostationnaires (GEO) ont connu un immense succès, la diffusion à partir d’un émetteur vers un grand nombre de récepteurs, et les transmissions à large bande. De plus, des opérations de guerre se déroulent souvent dans des territoires dépourvus d’infrastructure, où le satellite procure les capacités nécessaires. L’architecture des télécommunications militaires des ÉtatsUnis, définie par le Space Architect en 1996, repose sur la coexistence d’un noyau dur maintenu sous le strict contrôle du DoD afin de maintenir des priorités d’accès et de confidentialité, avec un secteur « tout venant » dont le partage avec les ressources civiles est variable. Cette migration vers l’emploi des ressources civiles s’accélère : pendant la guerre du Golfe, 75 % des télécommunications de théâtre avaient transité par les satellites militaires progressivement renforcés par 350 lignes commerciales. Dans les opérations au Kosovo en 1999 et en Irak en 2003, respectivement 60 % et 80 % des télécommunications militaires sont passés par des satellites commerciaux36. L’importance attachée aux télécommunications spatiales et le besoin de les protéger par redondance ont conduit le DoD à mettre en place plusieurs systèmes de satellites. Le système Milstar a pour mission d’assurer toutes les communications dites protégées du DoD, c’est-à-dire résistantes au brouillage, peu détectables et peu interceptables. Le premier des satellites Milstar a été placé en orbite géostationnaire le 36. Les dénominations des bandes de fréquence sont les suivantes : VHF : 0,33 GHz ; C : 4 à 6 GHz, Ku : 12 à 14 GHz ; SHF : 3 à 30 GHz ; Ka : 30 à 40 GHz ; EHF : 30-300 GHz. La technologie moderne permet de monter en fréquence, ce qui augmente la bande.

CYBERWAR I

:

LA THÉORIE

151

7 février 1994. Six satellites ont été commandés, dont le dernier a été lancé en 2002. Souvent décrit comme un « central dans le ciel », Milstar répond directement sans l’intervention d’opérateurs aux demandes des utilisateurs, c’est-à-dire fournit les services d’un réseau dans les communications point à point. Les liaisons satellitesatellite de Milstar établissent cette connectivité mondiale qui est à la base de la pensée américaine. Le réseau couvre le globe sans faire appel à des stations sol. Les routeurs, les processeurs et les liaisons sont dans l’espace. Les stations sol peuvent être aussi bien un récepteur porté à dos d’homme, ou un terminal placé dans un sous-marin ou un avion que des stations munies de grandes antennes. L’utilisation tactique de Milstar progresse rapidement avec la multiplication des récepteurs de terrain. Le système DSCS (Defense Satellite Communications System) sert aux transmissions à très haute priorité entre les différents centres de commandement, y compris les messages d’alerte et d’action envoyés aux forces nucléaires. Le premier de ces satellites a été lancé en 1971. Aujourd’hui neuf satellites de la génération actuelle (DSCS-3) sont opérationnels en orbite géostationnaire, dont cinq sont actifs et quatre en réserve. La constellation se fait vieille, sa vie opérationnelle sera étendue, vers 2006, par une nouvelle famille de capacité doublée. D’ici là, vers 2004, le Pentagone achètera trois satellites commerciaux à émission large bande. Après 2008, cette opération sera renouvelée sur trois satellites. Le système UFO (UHF Follow-On), contrôlé par la Navy, fournit en priorité les capacités de communication entre les unités navales à la mer et le commandement à terre, ainsi que les capacités de diffusion de la flotte et certaines utilisations tactiques. Huit satellites UFO, placés sur une orbite excentrique (1 40040 000 km) du type Molnya, fournissent une couverture mondiale. Leur succession sera assurée à partir de 2009 par la flottille Mobile User Objective System comprenant 4 à 6 satellites. Le rachat en 2001 par le DoD du système privé Iridium en déconfiture semble remplir un besoin en communications avec les mobiles qui pourrait croître beaucoup lorsque les UAV se développeront. Le programme GBS (Global Broadcasting System) a été conçu en 1995 pour répondre aux besoins du DoD dans le domaine de la retransmission, de la réception au sol et de l’exploitation des données. Si nous insistons sur la variété des systèmes de télécommunication du DoD, c’est pour faire entrer dans l’esprit du lecteur que

152

INTRODUCTION AU SIÈCLE DES MENACES

dans les conflits modernes les États-Unis donnent la priorité absolue à la capacité et à la sûreté de la transmission des informations, et que ce besoin ne peut être assuré, quel que soit le théâtre, restreint ou étendu, proche ou éloigné des bases et du commandement, que par des systèmes redondants de satellites géostationnaires. Les moyens d’aujourd’hui sont pourtant jugés très insuffisants pour supporter la guerre réseau-centrique et les liaisons temps réel avec les drones devenus essentiels à l’architecture des boucles OODA. En 2001, le DoD, sous l’influence du secrétaire à la Défense Donald Rumsfeld, a mis à l’étude un vaste programme d’expansion des capacités en télécommunications militaires, la Transformational Communication Architecture (TCA), dont l’urgence a été soulignée en 2002 par la campagne en Afghanistan. D’une part, celle-ci s’est déroulée dans un pays dénué de toute infrastructure terrestre de communication, et, d’autre part les opérations ont impliqué de nombreux drones aux besoins illimités en bande passante : l’utilisation des liaisons militaires spatiales a été poussée à ses limites37. Il faut aujourd’hui, répétons-le, disposer de gigabits par seconde sur le champ de bataille. La TCA se propose de multiplier par dix la bande que les planificateurs du Pentagone considéraient comme leur objectif avant l’arrivée de Rumsfeld, d’un côté par une refonte du système spatial de communication et de l’autre par l’adoption d’une stratégie tout-IP. À l’horizon 2012, la future constellation T-Sat (Transformational Satellites), mise en chantier en 2004, disposera de liaisons laser entre satellites et de routeurs IP intégrés dans les satellites. Une cascade de programmes de communication permettra à n’importe qui, du soldat sur le théâtre au logisticien dans son dépôt de Pennsylvanie, d’être connecté en permanence à l’Internet mondial de défense. Le concept généralise à toutes les forces l’approche réseau-centrique. Les États-Unis jouent à fond la dualité dans les programmes de RD et de télécommunications spatiales militaires, et leur affectent des montants considérables sur le budget du DoD. La TCA sera un système dual qui intégrera les capacités commerciales civiles et militaires pour faire face aux pointes de trafic engendrées par les crises. Inversement, toutes les initiatives américaines en matière de grands projets spatiaux civils exploitent les innovations technologiques issues des programmes de télécommunications de la Défense, essentiellement sous la tutelle de la DARPA. Aussi impor37. Voir p. 210.

CYBERWAR I

:

LA THÉORIE

153

tant est le soutien du plan de charge des fabricants américains grâce au robuste programme de satellites militaires qui constitue l’essentiel de leur chiffre d’affaires. En fait, le spatial militaire structure l’industrie spatiale tout entière : les activités commerciales s’affirment sur la valorisation de la RD et de l’appareil industriel développé à des fins militaires. La RD du DoD est la source de la puissance spatiale civile et militaire des États-Unis. LA TÉLÉDÉTECTION

Le renseignement image

Le besoin de recueillir du renseignement par voie spatiale s’est fait sentir dès le début de la guerre froide, avant même que les États-Unis n’eussent acquis la capacité de lancer et d’utiliser des satellites. En 1956, ils envoyèrent au-dessus de la Soviétie des centaines de ballons équipés de caméras, jusqu’à ce que les protestations de Moscou eussent obtenu l’arrêt de ce programme, appelé Genetrix. Scénario identique en 1958 lorsqu’ils récidivèrent avec des ballons en polyéthylène flottant dans la stratosphère au-dessus de 30 kilomètres. Les survols de territoires adverses par les avions stratosphériques U-2 volant à 22 kilomètres d’altitude sont devenus célèbres lorsque le 1er mai 1960 l’un d’eux a été abattu, et son pilote Francis Gary Powers traduit en jugement à Moscou. Powers avait pour mission de photographier les missiles à longue portée SS-6 en cours de montage sur le polygone de Plessetsk. L’incident fournit un fort soutien aux programmes de satellites de reconnaissance soviétiques et américains. Aux États-Unis, le programme des satellites imageurs a été considéré, dès le début, comme une affaire d’État très secrète, traitée au plus haut niveau par des hommes dépendant directement du président. Lorsque, le 7 février 1958, Eisenhower38 en décida le démarrage sur un dossier bâti avec les idées de la Rand, il en confia la responsabilité non aux militaires de l’Air Force qui avaient soutenu et payé les études, mais à la CIA déjà chargée de l’U-2. Le même jour, il créa ARPA pour prendre en charge l’aspect public de la RD militaire, y compris celle du nouveau projet. Le programme, baptisé Corona, reçut pour objectif la mise au point pour le printemps 1959 d’un satellite opérationnel de reconnaissance photographique employant une capsule désorbitable et récupérable par un avion traînant un filet. Il serait camouflé dans le programme des satellites Discoverer, censés étudier la rentrée 38. Jeffrey T. Richelson, America’s Secret Eyes in Space, New York, Harper Business, 1990.

154

INTRODUCTION AU SIÈCLE DES MENACES

dans l’atmosphère. Il pèserait 200 kg, la capsule 90 kg. Le patron de Corona était Richard Bissell Jr, qui avait présidé au développement de l’U-2 après avoir été la cheville ouvrière du Plan Marshall. Qualifié par un autre directeur de la CIA d’ordinateur humain, il pouvait outwit, outspeak, outthink quiconque à sa portée. Enragé de secret, il élimina aussitôt la Rand du projet. Discoverer I fut lancé le 28 février 1959 de la base de Vandenberg, un an après la prise de décision ! Que le projet ait représenté le sommet de la difficulté se traduisit par l’échec des douze premières tentatives. La première récupération réussie fut celle de la capsule technologique Discoverer XIII démunie de caméra, le 10 août 1960. Désormais le système était au point et les tirs réussis se succédèrent environ toutes les six semaines. Le premier satellite Corona entièrement équipé, Discoverer XIV, lancé le 18 août suivant sur une orbite inclinée à 81°, de périgée 181 km et d’apogée 800 km, obtint des images de la base spatiale soviétique de Plessetsk avec une résolution de 15 à 30 m. La conséquence de l’extraordinaire succès fut la décision prise par le président de créer le NRO39, agence nationale qui dépendrait directement de lui car il voulait s’assurer (wanted to make damn sure) qu’elle échapperait au contrôle de l’Air Force. La priorité donnée au NRO s’apparentait à celle qu’avait reçue pendant la guerre le « Projet Manhattan » (développement de la bombe nucléaire). Et en effet Corona devait se révéler un facteur décisif dans l’évolution des rapports soviéto-américains. Premier épisode : les images recueillies par les Discoverer XXIX à XXXVI entre le 30 août et le 12 décembre 1961, montrèrent au secrétaire à la Défense Robert McNamara que le nombre d’ICBM soviétiques déployés ne dépassait pas dix à quinze au lieu des deux cents annoncés par les services de renseignement. À l’étonnement du monde, McNamara annonça dans une conférence de presse de février 1962, que le fameux missile gap sur l’existence duquel John Kennedy avait bâti sa campagne victorieuse, n’existait pas. Désormais un flux régulier de photographies couvrant les sites soviétiques de missiles à longue portée informa le gouvernement américain sur la force réelle de son antagoniste. Les Soviétiques ne restèrent pas inactifs et déployèrent dès 1962 un système similaire très actif, où la récupération se faisait au sol dans le Kazakhstan. Le 15 juillet 1963, Khrouchtchev déclara dans une interview donnée au New York Times, que l’inspection sur sites était devenue inutile, puisque des satellites pouvaient remplir cette fonction : « Peut-être vous montrerai-je nos pho39. Voir la définition du NRO, p. 157.

CYBERWAR I

:

LA THÉORIE

155

tos. » Et en effet il en disposait. Il était devenu possible aux Deux Grands d’adopter une politique réaliste reposant sur une information concrète : la voie était ouverte à un accord de désarmement, même si la négociation devait encore durer neuf ans. Les commentateurs estiment aujourd’hui que ces programmes furent bénéfiques, puisqu’ils contribuèrent à l’élaboration d’un climat de confiance entre les Deux Grands. Seuls à disposer de ce moyen et des informations recueillies sur l’adversaire, ils se sentaient membres d’un club très fermé où l’on échangeait de précieuses données, et acceptèrent la mise en place de mesures de vérification non intrusive des armements nucléaires sans lesquelles ces accords perdaient tout sens. Le premier traité de désarmement (Strategic Arms Limitation Treaty I, ou SALT-1) fut signé en mai 1972, marquant une première étape dans la désescalade de la guerre froide. Sans Corona et ses successeurs KH, sans leurs homologues soviétiques, la stabilisation de la course aux armements aurait été impossible : dans le traité, aucune allusion à des inspections sur place n’apparaissait ; elles étaient remplacées par des moyens nationaux techniques de vérification, termes qui désignaient les satellites. Vint alors la révolution : le 19 décembre 1976, un Titan III D mit sur orbite le KH-11 dont l’objectif était le temps réel. Si l’utilité du satellite pour le renseignement stratégique à long terme avait été prouvée, le système n’avait rien apporté pendant la série de crises qui avaient marqué les années 1960 : ni pendant l’affrontement de 1962, où les U-2 avaient fourni à Kennedy la preuve de l’introduction à Cuba de missiles soviétiques, ni pendant la guerre des Six Jours pendant laquelle les Soviétiques lancèrent, dit-on, plus d’une vingtaine de satellites, mais que les premiers KH ne purent surveiller, ni pendant l’invasion de Prague en août 1968, où d’excellentes photos d’un KH-4B montrant la concentration soviétique ne furent exploitées que plusieurs jours après l’attaque. La CIA fit adopter au président Nixon le retour à la conception du satellite portant une caméra de télévision, telle qu’elle avait été imaginée au tout début par la Rand, car les temps avaient changé, la loi de Moore se faisait sentir : deux ingénieurs de Bell Telephone Laboratories, William Boyle et George Smith avaient inventé les matrices CCD à la fin des années 1960. Plus question de film argentique ni de récupération par capsule. Le détecteur était un ensemble de quelques centaines de milliers de cellules photoélectriques. Le temps quasi réel devenait possible techniquement. En conséquence, le président Carter signe le traité SALT-2 le 1er juin 1979.

156

INTRODUCTION AU SIÈCLE DES MENACES

À partir de 1989, des images radar ont assuré aux Américains une surveillance tout temps grâce au SAR porté par les satellites Lacrosse. Complétant les KH, ils fournissent aux États-Unis une capacité inégalée à ce jour d’observations permanentes de la Terre avec une résolution décimétrique. Couplés à des relais spatiaux de télécommunications à haut débit de données, ces systèmes n’ont plus seulement une importance stratégique, mais offrent du renseignement pour la gestion des crises. La guerre du Golfe a marqué le tournant. L’utilisation nouvelle de l’image satellitale à des fins opérationnelles y a été due, certes, à la nature désertique du terrain, en général non couvert par des nuages, mais aussi à la disparition de la menace soviétique qui a permis aux télescopes et radars américains de se détourner des cibles offertes par les forces du pacte de Varsovie. Aujourd’hui le système spatial de renseignement et de surveillance déployé par les États-Unis, dit National Reconnaissance Program (NRP), comprend en permanence au moins trois satellites de surveillance optique (KH), deux satellites radars (Lacrosse), de nombreux satellites d’écoute électronique et trois satellites relais, plus quelques satellites spécialisés ou expérimentaux. Pour l’avenir proche, le programme prévu, dit Future Imagery Architecture (FIA), vise à renouveler l’ensemble des composants du NRP. Son budget prévisionnel sur les vingt prochaines années s’élève à 25 milliards de dollars (gageons qu’il sera dépassé). Le contrat signé avec Boeing porte sur le développement, le lancement et les opérations d’une constellation de 24 satellites permettant l’observation permanente à résolution décimétrique de tout point du globe en temps quasi réel, et fournissant 8 à 20 fois plus d’images que les Keyhole et Lacrosse opérationnels aujourd’hui. Les premiers démonstrateurs seront lancés en 2005-2006. Dès le début de l’année 1990 trois consortiums industriels américains ont tenté de développer à leurs frais des satellites imageurs, de technologie beaucoup plus moderne que les KH. Après de nombreuses difficultés, Ikonos 3 a été mis en orbite en 2000, et Quick Bird en 2001. Ils fournissent un produit commercial déclassifié, des images de résolution 80 cm pour Ikonos et 61 cm pour Quick Bird. La NIMA40 surveille étroitement cette évolution. Elle achète une part importante des images (au moins 50 % pour Ikonos et 100 % en cas de crise comme celle de septembre 2001) et interdit la mise à disposition de tout client pendant vingt-quatre heures après la prise de vue. 40. Voir la définition de la NIMA , p. 158.

CYBERWAR I

:

LA THÉORIE

157

Le radar spatial

Quelles que soient les difficultés de leur développement, l’énormité de leur consommation électrique, et la complexité du traitement des données, les radars en orbite présentent l’avantage unique de fournir des données tout temps : ils fonctionnent la nuit comme le jour, et en présence de nuages. Leur valeur militaire est donc bien supérieure aux imageurs du domaine visible. Les États-Unis disposent des Lacrosse, monstres de quinze tonnes, de résolution 30 à 90 cm. Mais leur long temps de revisite (une journée) ne correspond pas aux ambitions de la FIA affichées pour le futur. Après avoir échoué à convaincre le Congrès de mettre en place la constellation de 24 satellites Discoverer II, dont le temps de visite n’aurait pas dépassé 15 minutes sur tout le globe, l’US Air Force se contentera des 9 satellites de la constellation SBR (Space Based Radar) qui devraient être placés en orbite à partir de 2012. L’organisation des sources IMINT

Les réflexions du DoD dans le domaine image sont orientées d’un côté par la nécessité de mettre en place une Future Imagerie Architecture (FIA) adaptée à la nouvelle doctrine militaire, et, de l’autre, par le développement parallèle de plusieurs systèmes de surveillance dans les domaines radar et infrarouge. La communauté du renseignement a encouragé le développement de satellites de grande complexité et de grand coût (il s’agit de plusieurs milliards de dollars chaque année), mais l’exploitation et la dissémination des données recueillies laissent à désirer. De plus, la nouvelle façon de conduire les opérations militaires exige que l’information soit transmise directement aux commandants de théâtre sans passer par les agences de Washington. Traiter ces deux problèmes constitue le défi principal posé aux deux organismes chargés respectivement de recueillir et de produire du renseignement image à partir de satellites, le National Reconnaissance Office (NRO) et la National Imagery and Mapping Agency (NIMA). Le NRO, dont l’existence remonte à 1961, mais n’a été révélée qu’en 1992, a été formé au sein du DoD, mais dépend du directeur national du renseignement (Director of Central Intelligence, ou DCI) en ce qui concerne l’appropriation des fonds. Il est responsable du développement, de l’acquisition et de l’opération des satellites, et du traitement des données brutes pour distribution aux utilisateurs. Son budget est estimé à 6,9 milliards de dollars en 2001.

158

INTRODUCTION AU SIÈCLE DES MENACES

La politique du NRO, définie en grand secret par un petit nombre de scientifiques et d’ingénieurs de haut niveau, toujours fortement soutenue par la Maison Blanche et le Congrès, a favorisé l’innovation technologique plutôt que le respect des spécifications, c’est-à-dire que des crédits importants ont été engagés souvent pour développer des méthodes nouvelles sans applications pratiques immédiates. Disons que l’Agence a su longtemps équilibrer intelligemment ses efforts entre la recherche de base et le développement. L’enfant chéri du NRO est aujourd’hui la FIA. La NIMA, qui emploie 7 600 personnes (en 2002) a été créée en octobre 1996 par le regroupement d’éléments venus de la CIA (National Photographic Interpretation Center ou NPIC, Central Imagery Office), et du DoD (Defense Intelligence Agency, Defense Mapping Agency et autres). Elle est le fournisseur principal du DoD en imagerie et a pour principal objectif la fabrication des cartes géographiques sur papier (production en 1999 de 29 millions de cartes). Elle s’est engagée dans la fabrication de MNT sur la moitié des terres émergées. La préoccupation principale de la NIMA est la création d’une « grille géospatiale », c’est-à-dire d’une banque de données rassemblées à partir de tous les segments de la communauté du renseignement et de toutes les sources « ouvertes », organisées autour de points de base géographiques et regroupant des informations de tout genre. Le client devrait pouvoir identifier un lieu sur une carte numérique, obtenir les caractères du terrain et les constructions, enfin accéder à une banque rafraîchie de renseignements récents sur les activités menées localement, y compris les données statistiques, la composition ethnique de la population… Car le souvenir de la bombe d’une tonne lâchée le 7 mai 1999 par un bombardier B-2 sur un bâtiment de Belgrade supposé abriter la Direction fédérale yougoslave du ravitaillement militaire, mais qui était en réalité l’ambassade de Chine, est encore très cuisant, non parce qu’il en résulta trois morts, mais parce que nonobstant des excuses et des compensations fournies par les États-Unis, une détérioration préoccupante des rapports sinoaméricains s’ensuivit. L’incident a démontré l’importance cruciale de l’intégration de l’imagerie satellitale des installations au sol avec d’autres formes de renseignement qui essaient d’identifier ce qui se passe à l’intérieur de ces installations.

CYBERWAR I

:

LA THÉORIE

159

Écoute électromagnétique

Nous nous bornerons dans ce domaine très secret, à signaler l’existence de la quatrième génération des programmes SIGINT : le COMINT est assuré par les satellites géostationnaires de l’US Air Force Mercury et l’ELINT par les géostationnaires de la CIA Mentor, les satellites en orbite intermédiaire de l’US Air Force Trumpet et les SB-WASS en orbite basse de l’US Navy. Tous ces systèmes remplacent la troisième génération qui était opérationnelle au moment de la guerre du Golfe. LA MÉTÉOROLOGIE

Le DoD dispose d’un ensemble de satellites météorologiques appelé Defense Meteorological Satellite Program ou DMSP. Il a compris jusqu’à présent quatorze satellites commandés dans la génération en cours pour un montant de 3,4 milliards, dont quatre encore à lancer. À partir de 2005, le National Polar-Orbiting Operational Environmental Satellite Program (NPOES) comprendra deux satellites à lancer jusqu’en 2013 et quatre en option, destinés à remplacer DMSP (militaire) et TIROS (civil) pour un montant global de 5 milliards partagé entre le DoD et l’Agence civile de l’environnement NOAA. LA NAVIGATION-LOCALISATION

Le système spatial de navigation a été d’abord déployé sous le nom de Transit par l’US Navy pour le guidage de ses sous-marins. Imité par la Soviétie, il a été amélioré sous le nom de Navstar, puis de GPS. Le programme Navstar-GPS a compris 109 satellites commandés depuis 1979 pour un total de 11,5 milliards de dollars, dont six en construction. Le principe de la localisation spatiale d’un point, fixe ou mobile, consiste en l’observation simultanée par un récepteur placé à ce point, de quatre satellites qui émettent chacun un signal dont le récepteur mesure la vitesse relative par effet Doppler. Le récepteur calcule alors la position des satellites de la constellation repérée par rapport à la surface du globe et en déduit sa propre position. Un canal est accessible aux utilisateurs civils et un autre, protégé, seulement aux utilisateurs militaires. Bien que sous direction militaire, le système américain GPS, constitué d’une constellation de 24 satellites en orbite circulaire d’altitude 20 000 km, fournit aujourd’hui à des millions d’utilisateurs, militaires mais aussi civils, une information instantanée sur

160

INTRODUCTION AU SIÈCLE DES MENACES

leur position à tout moment et partout sur le globe. De plus, de très nombreuses applications utilisent le temps qu’ils distribuent, typiquement pour synchroniser les stations de base des réseaux de communication entre mobiles. Un système de principe identique, appelé Glonass a été déployé par la Soviétie, mais il souffre des difficultés économiques de la Russie. Son segment utilisateurs est restreint à quelques dizaines de milliers de terminaux utilisés par les forces armées russes. La constellation compte aujourd’hui moins de dix satellites opérationnels (sur vingt-cinq) qui ne permettent plus d’assurer le service nominal. Le service GPS est placé sous l’autorité du Space Command de l’US Air Force, depuis la directive Clinton de janvier 1996. Le budget est entièrement abondé par le DoD qui le gère et dirige les opérations à partir de Falcon Air Force Base à Colorado Springs, Colorado. La finalité et la priorité militaire sont ainsi clairement affichées. Autres caractéristiques : le service est gratuit pour tous les utilisateurs et disponible partout pour tous. Il n’est pas garanti et rejette toute responsabilité civile ; son accès libre n’est assuré que jusqu’en 2006. Les Américains insistent sur le fait que puisque ce service est disponible, il est inutile qu’un autre pays ou groupe de pays (l’Union européenne par exemple) s’ingénie à en déployer un autre, d’autant plus que le nouveau venu gênerait le système existant par des interférences difficiles à éviter. Amis, remettez-vous-en à la bienveillance de l’oncle Sam. Le service est constamment amélioré en précision et en « intégrité » (il s’agit de la certitude que le service sera effectivement fourni à tous, en tout temps et en tout lieu). Aujourd’hui, la précision de la localisation d’un utilisateur est de l’ordre d’une dizaine de mètres. Elle peut atteindre dès maintenant le mètre, à condition que soit utilisée une méthode différentielle, c’est-à-dire l’emploi d’une balise placée au sol à une distance modérée. Le satellite compare les signaux de la balise et du client pour affiner la précision. Plusieurs générations de constellations GPS seront successivement placées en orbite afin d’améliorer la précision qui devrait atteindre la cinquantaine de centimètres en 2006 et le centimètre vers 2012. La technique de navigation et de localisation par satellites a été développée par les États-Unis et la Soviétie pour des besoins militaires. Or l’apport de ces systèmes à de très nombreuses activités humaines est tel qu’ils débordent aujourd’hui largement de leur vocation initiale et tendent à s’imposer comme un service de grande consommation. Ils sont appelés à intervenir de manière

CYBERWAR I

:

LA THÉORIE

161

croissante à tous les stades de la chaîne spatiale et aéronautique, civile et militaire, et deviendront un élément clé dans d’autres domaines essentiels pour l’économie (télécommunications, transports, réseaux bancaires…). De leur maîtrise dépend donc directement ou indirectement celle de l’ensemble des applications spatiales et aéronautiques, civiles et militaires, et aussi du bon fonctionnement de quantité de réseaux et services essentiels pour la société. L’immense importance de la navigation satellitale réside dans le fait que le système crée un espace de référence dans lequel les lieux, les objets, les mobiles sont placés avec une précision métrique ou supérieure. Ainsi un avion, ou un automobiliste peuvent se localiser à l’intérieur d’un référentiel digital dans lequel on peut introduire des données de toutes sortes. Par exemple il est prévu de contrôler l’ensemble de la navigation aérienne civile par GPS ; l’orientation des voitures particulières dans le tissu urbain est déjà entrée dans les mœurs. Mais c’est dans le domaine militaire que les conséquences pourraient être les plus profondes, par la transformation radicale de la représentation du champ de bataille qu’utilisent les forces armées. Les systèmes de navigation par satellite constituent le moyen le plus précis et le plus avantageux pour assurer le positionnement, la navigation et la synchronisation de tous les systèmes d’armes. L’économie réalisée en faisant appel à la seule navigation par satellite se situe en effet à deux niveaux : sur le coût des équipements à bord des systèmes d’armes, et sur le nombre de systèmes d’armes nécessaires pour accomplir une mission (nombre de bombes ou de missiles tirés, nombre de passages avion sur un objectif donné, etc.) en raison de la précision obtenue. L’évolution de la technologie employée opérationnellement par les États-Unis dans les derniers conflits a donné au GPS une place centrale dans la conduite des opérations. La grande nouveauté durant les hostilités au Kosovo a émané de l’utilisation de nouvelles armes de précision guidées par GPS : le Joint Direct Attack Munition (JDAM) et le Joint Stand-Off Weapon (JSOW). Considérée comme un tournant historique dans le secteur des missiles, la mise en œuvre de ces deux armes tirées à distance combinait les informations de navigation d’un capteur inertiel et d’un récepteur de positionnement par satellite. Ces moyens offraient une précision (13 m pour des portées de 10 à 30 km), certes inférieure aux armements guidés par laser ou infrarouge, mais possédant l’inestimable avantage d’être indépendante tant des conditions météorologiques que de l’altitude de largage. L’évolution s’est alors accélérée.

162

INTRODUCTION AU SIÈCLE DES MENACES

Emploi des munitions air-sol par les États-Unis Théâtre

Type

Nombre

Pourcentage

Irak, 1991 (Desert Storm, 37 jours)

Non guidé PGM : laser

245 000 20 450

92 8

Serbie, 1999 (Allied Force, 78 jours)

Non guidé PGM : laser PGM : GPS

16 000 7 000 700

66 31 3

Afghanistan, 2001 (Enduring Freedom)

Non guidé PGM : laser PGM : GPS

9 000 6 000 7 000

41 27 32

Le kit JDAM commercialisé par Boeing se place sur une bombe ordinaire. Il comprend un récepteur de positionnement GPS couplé à un capteur inertiel à gyrofibre et agissant sur des gouvernes rajoutées à l’arrière du corps de bombe. Le coût des récepteurs pour les systèmes sophistiqués se situe autour de 12 000 à 15 000 € et l’objectif de coût pour les récepteurs de bombes guidées varie entre 1 000 et 2 000 €. Les ennemis ne peuvent-ils pas se servir du GPS, disponible pour tout utilisateur ? Certes. L’attitude américaine vis-à-vis de ce problème très sérieux consiste en premier lieu à interdire sur tout théâtre d’opérations l’utilisation des services civils du GPS en procédant à un brouillage intense sur la fréquence correspondante et dans toute la zone concernée. La répartition en fréquence des signaux à usage militaire est telle que ce brouillage ne les affecte pas et seuls les utilisateurs militaires capables de recevoir les signaux cryptés correspondants restent opérationnels. Pour décoder les signaux il est nécessaire de disposer de récepteurs équipés de composants cryptographiques et d’une clé fournie par les Américains. Jusqu’à une date récente, la partie cryptographique était composée de deux puces, achetées par le gouvernement utilisateur auprès du gouvernement américain, et intégrées ensuite dans le récepteur par l’industriel responsable. Avec la nouvelle génération du GPS, la fourniture cryptographique imposée par les ÉtatsUnis est un chip, qui représente 75 à 80 % du récepteur complet. Une clé spécifique est affectée à chaque utilisateur ou groupe d’utilisateurs (entité privée, pays, coalition…). À tout moment, les militaires américains ont la possibilité de modifier cette clé et d’interdire la réception du signal à l’utilisateur concerné. Pour l’exportation, les États-Unis ont établi unilatéralement une liste de 32 pays et utilisateurs privés, incluant les 17 pays de

CYBERWAR I

:

LA THÉORIE

163

l’OTAN hors États-Unis, qui sont habilités à recevoir le GPS militaire. En dehors des 32 pays ou utilisateurs habilités, aucune utilisation du GPS militaire n’est possible.

Conclusion en forme d’anticipation Un article paru le 11 juin 1997 dans Jane’s Defense Weekly décrit les moyens avec lesquels une coalition menée en 2015 par les États-Unis s’opposerait à un coup de force iranien. Ils comprennent entre autres un réseau de 250 satellites fournissant en temps réel vingt-quatre heures par jour une couverture globale image à une résolution décimétrique, munis de capteurs hyperspectraux, une couverture radar, une couverture des émissions électromagnétiques. Non seulement toute activité stratégique (missiles balistiques de théâtre, fabrications nucléaires, développement d’armes biologiques et chimiques) est détectée, mais un tableau détaillé de l’infrastructure adverse, y compris les mouvements de troupes, de véhicules blindés ou non, est tenu à jour. Avant le déploiement de la première unité sur le théâtre, les Américains et leurs alliés connaissent les capacités de combat de l’adversaire et les cibles ont été définies au mètre près ; les munitions de précision sont guidées au centimètre par la constellation spatiale GPS III. Ajoutons à ce que l’on n’apercevait pas encore en 1997, l’introduction du GPS dans les boucles OODA qui a permis de les faire tourner à grande vitesse. Ce système spatial a donné une nouvelle assise à la doctrine de conduite de la bataille, et peutêtre de la guerre. À l’heure actuelle la communauté spatiale militaire aux États-Unis subit une révolution culturelle majeure. L’espace ne fait plus partie du domaine de la RD. Il s’agit de l’opérationaliser, c’est-à-dire de le rendre compréhensible et utilisable par les forces engagées sur le champ de bataille. Les communications de toute nature, la localisation qui s’applique aussi bien aux troupes qu’aux missiles guidés, la météorologie, la collecte d’images dans les domaines radar et optique, la cartographie numérique, l’écoute électromagnétique, la détection, la trajectographie et la destruction des engins ennemis deviennent des systèmes intégrés dans les forces de théâtre, dont l’utilisation tend à descendre sans filtrage jusqu’à l’homme sur le terrain, c’est-à-dire que l’espace pénètre profondément dans la conception des systèmes d’armes et leur emploi. En mai 2002, environ neuf cent cinquante véhicules blindés ont participé à des manœuvres sur le polygone de Fort Irwin

164

INTRODUCTION AU SIÈCLE DES MENACES

(Californie) dont l’objectif était d’essayer l’emploi de PC reliés à des satellites, placés à bord de chaque véhicule. L’appareil fournit à l’équipage une carte tridimensionnelle du paysage, et au commandement, loin de là, l’identification de chaque véhicule, sa localisation et la quantité de munitions dont il dispose. L’exercice mettait en œuvre pour la première fois le concept d’une armée digitale, dont le schéma copié sur Internet utilise un réseau de modems sans fil, de communications par satellite et de liaisons sol classiques afin de construire une description computérisée du champ de bataille. Le système pourrait s’étendre au fantassin individuel ; on se dirige vers des boucles ultrarapides où un colonel pourrait prendre des décisions aujourd’hui réservées à un lieutenant. Les difficultés se situeront-elles au niveau culturel, si la quantité d’information fournie sature l’esprit du soldat qui ne saurait qu’en faire ? Le commandement estime, au contraire, que les futures recrues issues de générations jeunes, habituées des jeux vidéo, sauront facilement s’en accommoder.

Chapitre V

CYBERWAR II : LA PRATIQUE

La première guerre du Golfe (Desert Storm) Déclenchées par l’invasion irakienne du Koweït le 1er août 1990, les opérations menées contre Saddam Hussein par les États-Unis et leurs alliés marquent un tournant dans la pratique de la guerre, sous deux aspects, l’un et l’autre façonnés par l’impact des investissements en technologie. L’EMPLOI DES MOYENS AÉRIENS

Le plan d’attaque « Instant Thunder » a été inspiré par le bureau de l’Air Force dirigé, à l’époque, par le colonel John Warden. La riposte à l’agression irakienne contre le Koweït a été construite sur l’idée qu’il fallait détruire les centres de gravité de l’ennemi. « Un centre de gravité est un élément d’importance fondamentale pour l’ennemi, des points de vue stratégique, économique, ou même émotionnel, dont la perte affaiblirait sérieusement la volonté ou la capacité de combattre. L’adversaire est un système dont il convient de comprendre le mode de fonctionnement. »

Le concept employé dans l’opération Desert Storm est dérivé de la doctrine Airland Battle qui s’articule désormais en trois phases : la conquête de la maîtrise du ciel avec la neutralisation, sinon la destruction, des systèmes de commandement, des bases aériennes et des moyens sol-air ; la destruction du deuxième éche-

166

INTRODUCTION AU SIÈCLE DES MENACES

lon ennemi, ainsi que des dépôts logistiques et des moyens permettant l’acheminement de cette logistique : ponts, routes, etc. ; enfin, lors de l’engagement terrestre, si nécessaire, et seulement si nécessaire, l’intervention directe des troupes terrestres. Instant Thunder fut donc conçu pour frapper massivement et pour détruire dans un délai très court les cibles stratégiques irakiennes (84 dans la première semaine). Le premier jour de l’attaque, 2 430 avions (dont un quart non américains) avaient été massés au pourtour du théâtre. À la fin des opérations, leur nombre était monté à 2 780, dont 60 % environ se consacraient à l’attaque. La phase aérienne débuta le 16 janvier 1991, par des frappes de missiles de croisière lancés par des B-52 partis des États-Unis. La campagne aérienne innova par l’emploi massif de technologies nouvelles (furtivité, brouillage électronique, armes de précision…). Ainsi, sur un total de 71 627 tonnes1 de charges explosives larguées par les forces américaines dans Desert Storm, 6 631 tonnes (soit 9,26 %) étaient des bombes « intelligentes », responsables de 75 % des dommages causés ; elles auraient pu être acheminées par seulement cinq vols quotidiens d’avionscargos C-5A. Les objectifs de la campagne étaient : l’isolement et la paralysie du régime irakien, l’obtention de la supériorité dans l’espace aérien, la destruction des capacités de guerre NBC (nucléaire, bactériologique, chimique), l’éradication des capacités offensives militaires de l’Irak, la neutralisation de l’armée irakienne et l’effondrement de ses moyens mécanisés stationnés au Koweït. Après quarante-trois jours de bombardement sans perte d’un avion, il suffit de quatre-vingt-seize heures d’opérations terrestres pour mettre l’Irak à genoux. L’EMPLOI DES MOYENS SPATIAUX

La guerre du Golfe fait passer le point d’application des moyens militaires spatiaux, de l’orientation stratégique adoptée pendant la guerre froide à leur exploitation opérative et tactique. Les moyens opérationnels nouveaux ont montré leur caractère désormais indispensable : les besoins en communication des unités déployées en Arabie Saoudite ont été satisfaits par l’achat de cinquante mille émetteurs-récepteurs Inmarsat ; le GPS découvert par les équipages aériens est soudain devenu une aide précieuse 1. Edward N. Luttwak, Strategy, the Logic of War and Peace, Cambridge, Mass., Harvard University Press, 2001 ; traduction française, Le Grand Livre de la stratégie, Paris, Odile Jacob, 2002.

CYBERWAR II

:

LA PRATIQUE

167

aux missions ; les images Spot achetées en masse par le NRO à Spot-Image ont permis la fabrication en temps quasi réel de MNT permettant de simuler les missions de bombardement avant le vol. Les satellites KH-11, KH-12 et Lacrosse ont détourné leur regard des silos soviétiques pour le braquer sur les concentrations de troupes, de camions et de tanks de Saddam Hussein. Deux déclarations de généraux américains ayant commandé sur le théâtre doivent retenir notre attention : 1. Soixante-dix pour cent des opérations spatiales militaires pendant la guerre du Golfe ont eu une finalité tactique. 2. Sans les satellites de télécommunications, les opérations auraient été extrêmement difficiles et peut-être impossibles. Certes, le nombre sans précédent de systèmes spatiaux militaires déployés sur le théâtre, satellites et systèmes sol, aussi bien que les conditions climatiques particulières qui en rendaient l’usage anormalement favorable, ont fait de ce conflit la première guerre spatiale. La stratégie d’Instant Thunder repose sur l’acquisition et l’exploitation du renseignement. Les moyens aériens y jouent un grand rôle, mais leurs performances sont limitées, en particulier avant le déclenchement des opérations, puisqu’ils ne peuvent survoler alors le territoire adverse, et les systèmes spatiaux reçoivent la mission vitale de combler les déficiences en temps de réponse, reconnaissance, acquisition de cibles et C3I. L’emploi de systèmes spatiaux sur théâtre a été rodé dans l’invasion de Panama, Just Cause, en décembre 1989, où quelques soldats étaient équipés de récepteurs GPS. Les forces avaient reçu la priorité de transmission sur les satellites UHF et ont utilisé 60 % de la capacité totale UHF des satellites du DoD, ce qui a permis aux troupes de converser entre elles grâce à des récepteurs portables à dos d’homme, etc. Dans la guerre du Golfe, on recense comme satellites utilisés à des fins militaires : • imagerie : 3 KH-11, 3 KH-12, 1 Lacrosse (à comparer avec un seul KH-11 en orbite en 1986), plus utilisation importante de Spot et de Landsat ; • écoute : 1 Magnum (ELINT pour la CIA) ; 1 Chalet-Vortex (COMINT pour l’US Air Force), tous deux géostationnaires ; au moins 12 satellites en orbite basse White Cloud Naval Oceanic Surveillance Satellite (NOSS), constellation de 4 ou 5 flottes comportant chacune un maître et trois esclaves ; 3 subsatellites lancés avec le KH-12 en juin 1990. En tout 15 à 20 satellites ; • météorologie : 3 DMSP, dont un lancé en janvier 1991 ; • localisation : 15 à 16 Navstar (GPS) ;

168

INTRODUCTION AU SIÈCLE DES MENACES

• télécommunications : 2 Fleetsatcom, 2 DCS III sur l’océan Indien, 2 autres sur l’Atlantique, Macsat (minisatellite lancé par Pegasus pour transmettre des données UHF pour le corps des Marines). On aboutit à un total d’environ 40 à 45 satellites opérationnels américains qui se répartissent en deux classes : soit très gros satellites (KH, Magnum, DCS III), soit flottilles (White Cloud, Navstar, Macsat). Un semi-exploit remarqué a été la défense anti-Scud : 37 missiles Scud, assez voisins des vieux V-2 nazis ont été tirés par les Irakiens sur Israël (qui ne participait pas au conflit). Pour la défense des villes attaquées, les Américains ont improvisé l’adaptation du système d’armes Patriot, développé pour l’interception rapprochée des missiles de théâtre. Il s’est révélé peu adéquat car, détruisant l’engin ennemi au voisinage de sa cible, il créait de nombreux débris dont la chute créait plus de dégâts qu’un impact unique localisé. Pour nous, l’intérêt de cet épisode repose sur l’insertion d’une chaîne spatiale temps réel dans le bouclier antimissile : un satellite DSP détectait le tir, puis transmettait aux États-Unis la valeur des coordonnées de la trajectoire balistique. Les ordres à donner à la batterie de Patriot située en Israël, élaborés aussitôt, étaient renvoyés toujours par satellite et arrivaient en principe à temps pour une interception – le tout en moins de six minutes. La pratique a surtout montré les insuffisances du système et la leçon en a été méditée. La guerre du Golfe a transformé l’emploi de l’imagerie spatiale par les militaires américains, en démontrant très concrètement leur grande valeur opérationnelle et tactique. Paradoxe étonnant, c’est à l’imagerie Spot, française, commerciale et non américaine, qu’est due cette véritable révolution2. L’US Air Force et la Navy ont recommandé d’incorporer l’imagerie Spot dans la capacité spatiale de reconnaissance3, après avoir découvert que les chances de détruire une cible passeraient de 30 % si les équipages disposaient de cartes, à 70 % avec l’emploi de données Spot4. Grâce à sa résolution modeste mais bien adaptée (10 m pour des images panchromatiques) et à sa capacité de stéréographie, Spot peut fournir une catégorisation tridimensionnelle des terrains et de leur environnement à grande distance (MNT), qui apporte un avantage essentiel à la préparation et à l’exécution des opérations 2. James M. Gifford et Vincent Kirnan, « Military Calls Space Superiority Essential », Space News, 6-12 mai 1991. 3. Craig Covault, « USAF Urges Greater Use of Spot Based on Golf War Experience », Aviation Week and Space Technology, 13 juillet 1992. 4. Jay Lowndes, « War’s Aftermath Treated », Space News, 22-28 avril 1991.

CYBERWAR II

:

LA PRATIQUE

169

aériennes, navales et terrestres. L’imagerie panchromatique Spot ressemble étroitement, en résolution et en aspect visuel, à l’image infrarouge utilisée par les équipages pour leurs missions, en particulier ceux des avions furtifs F 117-A. Citons comme exemple l’emploi des images Spot pendant les opérations suivantes : la préparation rapide et l’exécution d’un raid de F-111 contre un bâtiment de Koweït City qui entraîna la mort de plusieurs généraux irakiens ; l’attaque du ministère de la Défense, du Centre de renseignement, du Centre de contrôle de la défense aérienne : l’identification de sites de lancement dans la chasse aux Scuds ; le sauvetage d’un pilote F-16 descendu, impossible sans les données Spot. LA GUERRE ASSISTÉE PAR ORDINATEUR

Le général Norman Schwartzkopf, commandant en chef des forces alliées, nomma celui de ses subordonnés qui était responsable de la composante aérienne américaine, commandant des forces aériennes combinées (JFACC, ou Joint Force Air Component Commander), et donc chargé de la planification des opérations aériennes, de leur coordination et de la répartition des missions au sein des forces aériennes de la coalition provenant de quatorze origines différentes. Deux catégories de travaux étaient confiés au JFACC : la liste des cibles avec les séquences d’attaque (Master Attack Plan, ou MAP), et les ordres définissant les détails nécessaires à l’exécution des missions (Air Task Orders, ou ATO). Au sein du JFACC, un groupe d’officiers américains avec quelques Anglais était connu sous le nom de Black Hole (c’est dire le secret qui l’entourait), mais, en fait, officiellement intitulé SPG (Special Planning Group), il se réservait la primauté de la conception et de la décision. Cette situation traduisait sur le terrain l’avance doctrinale et surtout l’avantage américain dans tous les aspects de l’emploi des forces aérospatiales. Le SPG prépara le plan de la campagne aérienne et, durant les opérations, mena trois processus en parallèle : les opérations du jour, l’élaboration des ATO pour le lendemain, des MAP pour le surlendemain et au-delà. L’ensemble était extrêmement informatisé et faisait large appel à la simulation. Désormais, la doctrine « Air and Space Power » sera mise en pratique ; elle est définie comme l’application synergistique des systèmes aériens, spatiaux et informationnels pour projeter une puissance militaire stratégique globale.

170

INTRODUCTION AU SIÈCLE DES MENACES

L’affaire de Somalie Nous nous arrêterons un moment sur cet épisode peu glorieux parce qu’il illustre les difficultés qu’a rencontrées, et surtout que rencontrera au XXIe siècle, l’emploi de la force étatique dans un contexte flou. Est-il surprenant que l’arrogance du gouvernement américain, ivre de la victoire remportée sur l’Irak, ait mis de côté les idées que nous venons d’exposer pour se lancer dans une aventure irréfléchie ? Avec la croissance de l’hyperpuissance des États-Unis, nous devons craindre que beaucoup d’erreurs semblables à celle du président Bush (I) ne se répètent. Le caractère principal de la situation en Somalie, pays aux faibles ressources, est le rapide accroissement de la population qui passera de 7,1 millions à 23,4 millions d’âmes entre 1990 et 2025, si le rythme de 2,9 % par an qu’il connaît aujourd’hui se maintient jusqu’à cette date. Le taux d’accroissement de la population urbaine est aujourd’hui de 4,8 % par an, c’est-à-dire que l’urbanisation passera, entre 1990 et 2025, de 24,2 % à 45,9 %. Un Lumpenproletariat aux abois envahit les villes. Nous ne nous étonnerons pas de ce que cette modification rapide de la structure sociale se traduise par des troubles politiques. Dans les années 1980, trois mouvements rebelles s’étaient formés pour renverser le régime du président Syaad Barre : le Mouvement national somalien (MNS), créé en 1981 dans l’ethnie des Issas au nord du pays ; le Congrès somalien unifié (CSU), fondé en 1989 par les Hawiyé au Centre ; le Mouvement patriotique somalien (MPS), regroupant en 1989 les Ogadeni au Sud. Après la chute du président Barre, en janvier 1991, les rebelles du MNS ont décrété l’indépendance de leur région, devenue le Somaliland, et rejeté toute idée de réunification. Dans le même temps, les Hawiyé du CSU s’emparent du pouvoir dans la capitale Mogadiscio, et les Ogadeni déçus redescendent pour la plupart dans le sud du pays. Le 17 novembre 1991 éclate à Mogadiscio la « guerre de quatre mois » entre deux tendances du CSU, c’est-à-dire les Abgal, partisans du président de la République par intérim Ali Mahdi, et les Haber Ghédir, partisans du général Mohamed Farah Aïdid, président du CSU. Les différents mouvements, qui s’étaient alliés en vue de la chute de l’ex-président Barre, sont désormais opposés. L’absence de pouvoir central a ravivé les vieilles traditions tribales fondées sur les lois de la Kabila, le clan pastoral et guerrier. Des factions cherchent chacune à diriger des portions de territoire ou de secteurs de villes. Dans le même temps, la haine

CYBERWAR II

:

LA PRATIQUE

171

ancestrale entre les Ogadeni et les Majertines, au nord-est du pays, s’est accentuée, ainsi que l’opposition entre les fondamentalistes islamistes, qui voient dans la religion la seule possibilité de fédérer le pays, et les partisans d’un État républicain. Les soldats, soit gouvernementaux soit rebelles, se transforment en bandes de pillards, d’abord au détriment des paysans, volés, massacrés, chassés de leur terre par la peur vers des camps démunis de toute structure. La production agricole s’effondre. La famine gagne alors les villes où les stocks de vivres, saisis par la force, font l’objet d’un racket impitoyable. Le symbole du pouvoir destructeur devient le technical, un camion sur lequel est monté une mitrailleuse ou un canon, et qui parcourt les rues à tombeau ouvert. Un tel chaos est trop pittoresque pour ne pas attirer les chasseurs d’images. Les médias présentent à loisir des mourants en piteux état. Les organisations humanitaires, l’œil sur la télévision, s’en mêlent. Le secrétaire général de l’ONU, l’Égyptien Boutros Boutros-Ghali, sensible par naissance à tout ce qui agite cette partie du monde, affirme qu’un tiers de la population risque à brève échéance la mort par la faim et parvient à faire décider par son organisation l’envoi d’un corps expéditionnaire, l’UNISOM. Trois facteurs poussent les États-Unis à soutenir l’action du secrétaire général. Tout d’abord, l’influence dont disposent certains groupes de pression, en particulier la minorité noire, tant dans la définition que dans la mise en œuvre de la diplomatie africaine du pays. Ensuite, l’intervention américaine, tout en affichant des objectifs humanitaires, marque la volonté de ne pas laisser s’installer un désordre propice au fondamentalisme islamiste dans une région perçue comme l’arrière-pays du golfe Persique. Enfin, le président Bush, à la veille d’une réélection difficile, espère refaire le coup joué en Irak et regagner ainsi un prestige militaire qui s’est évaporé. Sous le drapeau de l’ONU, l’action militaire Restore Hope est organisée par les États-Unis. Précédés par un régiment de cinéastes et de reporters, trente mille hommes débarquent à Mogadiscio devant les caméras, occupent le port et s’affairent à sécuriser le transport des marchandises jusqu’en ville, pendant que quelques autres troupes montrent le drapeau dans les provinces. L’expédition n’a aucune mission définie : rétablir l’ordre ? Fusiller les racketteurs ? Sauver des vies ? Rétablir un État ? Disons que ces objectifs politiques peu clairs sont poursuivis avec des moyens militaires lourds et coûteux, mais totalement inadaptés au terrain. L’ONU ne trouve nulle part un appui politique puisque tous les chefs locaux, grands ou petits, profitent de l’anarchie. La situa-

172

INTRODUCTION AU SIÈCLE DES MENACES

tion de ses troupes sur le terrain se dégrade ; des soldats sont délibérément assassinés. Un caractère commun aux interventions onusiennes commence à transparaître : les casques bleus, pris en otage par des factions qui visent à acquérir des avantages pour les négociations, sont peu à peu forcés de placer leur propre sécurité au sommet de leurs priorités, sans plus se soucier des populations qu’ils étaient soi-disant venus secourir, et ils finissent par tirer sur la foule, comme fait toute autre faction. Au début de 1993, l’ONU décide de « soutenir » la Somalie « jusqu’à ce qu’elle se soit donné de nouvelles institutions », c’està-dire pendant deux ans, jusqu’au 31 mars 1995. Par quel miracle ces institutions devraient-elles surgir du néant ? Soudain le secrétaire général de l’ONU, qui n’aime pas Aïdid, fait décider que ce criminel de guerre doit être arrêté par les troupes onusiennes. Le vain ratissage de Mogadiscio est confié à des patrouilles de soldats terrorisés qui n’hésitent pas à tuer dans les rues. Contre un chef de bande qui se fond dans la population, les Américains ont la stupidité de tenter des opérations de police en utilisant leurs commandos présentés comme invincibles. Le 3 octobre 1993, dans le quartier de Bakara, ces rangers sont défaits par plus malin et mieux entraîné qu’eux. Des cadavres yankees dénudés sont traînés par la foule en liesse devant les caméras. Le public américain ne le tolère pas ; il croit toujours que ses soldats peuvent mener un combat sans pertes. Désormais le sort de l’intervention des États-Unis est scellé. La télévision l’amena, la télévision la remporte. Les troupes américaines partent, sans que l’Administration Clinton se soucie de l’ONU, qui ne dispose plus pour rebâtir le pays que de quelques bataillons disparates. Les guérilleros urbains de l’Alliance nationale somalienne, organisée par Aïdid, reprennent progressivement possession des rues de Mogadiscio sud. Les casques bleus abandonnent leurs points de contrôle et leurs casernements, les uns après les autres, pendant que les technicals réapparus narguent les soldats pakistanais retranchés derrière les barbelés du camp de l’UNISOM et désireux avant tout de sauver leur peau. Au moment où se termine la mission de l’UNISOM, quel bilan porter sur elle ? Si les récoltes ont atteint, en 1994, 80 % de leur niveau d’avant les troubles, il est improbable que la reconstruction du pays puisse être envisagée, encore moins engagée. Aucun gouvernement national, ne serait-ce que transitoire, n’est en vue ; aucune institution n’a été créée. Le nombre des factions, qui avaient signé en mars 1994 un accord de réconciliation à Nairobi (au prix de 150 000 dollars pour l’ONU), est passé de

CYBERWAR II

:

LA PRATIQUE

173

seize à vingt et une. Aucun signe de compromis n’est perceptible entre les pro- et les anti-Aïdid. Les chefs de guerre ont désormais intérêt à traire la vache à lait qu’est l’ONU plutôt qu’à faire la paix. Chacun vit de l’anarchie. Aïdid exige 600 000 dollars de dédommagement après une invitation lancée aux chefs de la région centrale. L’ONU a promis à Abder Rahman Ahmed Ali Tuur, ancien président du Somaliland, 75 000 dollars pour convoquer une conférence qui n’aura jamais lieu. Les clans convoitent le matériel de l’UNISOM, dont la seule composante civile est estimée à 130 millions de dollars, et espèrent bien s’en emparer lors du retrait des 15 000 derniers casques bleus, le 31 mars 1995. Il faudra le leur abandonner pour pouvoir évacuer le personnel sans trop de risque ; petite somme si on la compare aux 77 millions de dollars que coûte par mois l’opération onusienne depuis 1993. Le retrait des casques bleus déclenche de nouveaux combats pour la maîtrise de la capitale : le général Aïdid tient le port et Ali Mahdi a fait savoir que, s’il n’y a pas accès, il empêchera tout navire de s’en approcher. Il y est déjà parvenu quelques fois à coups de lance-roquettes. Quant à l’aérodrome, un sous-clan, celui d’Haber Guidir, opposé à Aïdid, a conquis les alentours. En toute inconscience, les responsables de certaines organisations non gouvernementales, avec la française Action internationale contre la faim (AICF), décident de se maintenir à Mogadiscio. Le départ des casques bleus permet aux brigands de prendre les humanitaires comme otages et d’extraire ainsi des nations riches les dollars que l’ONU ne leur donnera plus. Certes, ces organisations achètent déjà leur protection, mais le retrait des soldats onusiens relancera un racket qui n’a en fait jamais cessé par suite de l’incapacité de l’UNISOM à assurer leur sécurité. Le prix des armes augmente au quartier de Bakara pendant que les sacs de farine italienne, de riz thaïlandais, de bière belge et de thé kenyan payés par vous et moi, cher lecteur, s’y entassent chez les gros mercantis avec les médicaments détournés des dons de l’Organisation mondiale de la santé, qui passent en vingt-quatre heures des hôpitaux aux échoppes les mieux fournies d’Afrique. Les lignes qui précèdent montrent que l’objectif de l’ONU n’a pas été atteint : l’État somalien n’a pas été reconstruit et ne le sera pas de longtemps. Prototype de « l’État échoué », il ne dispose ni de gouvernement, ni de banque centrale, ni de services publics (police et justice), ni de fonctionnaires. En 2004, dix chefs de guerre dominent chacun un quartier de Mogadiscio. Cinq présidents et plusieurs Premiers ministres se sont autoproclamés pour

174

INTRODUCTION AU SIÈCLE DES MENACES

ce qui reste du pays. L’objectif des humanitaires n’a pas non plus été atteint : la population, aussi misérable qu’avant l’intervention, vit avec 0,4 dollar par jour. L’échec n’est dû ni au désaccord des intervenants, puisqu’un mandat précis avait été confié à une coalition, à savoir les ÉtatsUnis et leurs clients, ni aux difficultés de commandement sur le terrain, puisque les Américains tenaient solidement les rênes. Il est dû à l’inadéquation des moyens employés pour résoudre le problème. L’ONU sous la pression des États-Unis, eux-mêmes poussés par les médias, eux-mêmes poussés par les « humanitaires », a décidé d’employer la force afin de rétablir l’État somalien. L’échec est donc dû à l’inadéquation des moyens militaires employés pour résoudre le problème. Les Américains ont envoyé, au prix d’un milliard de dollars, une force d’intervention qui, avec des tanks et des avions, était censée remplir une mission civile. Si l’on répond qu’il fallait d’abord rétablir l’ordre, ce qui est raisonnable, alors il fallait tirer et tuer du monde, il fallait être prêt à accepter des pertes importantes dans les rangs onusiens, il fallait faire la guerre. Une action de force ne peut réussir que si l’on emploie la force. De ce point de vue, les opérations contre l’Irak en 1991 sont un modèle : la décision de faire la guerre a été prise par les coalisés, et elle a été exécutée avec les moyens nécessaires pour la mener à bien. Disons que la règle doit être de réunir les moyens de sa politique, ou de mener la politique de ses moyens. Il fallait 2 000 avions et 500 000 hommes pour abattre l’Irak ; ils ont été trouvés et employés. Si une puissance importante était nécessaire pour réduire les factions somaliennes, il n’y avait qu’une alternative : soit la réunir et l’engager, soit ne pas s’en mêler. Mais placer sur le terrain des forces trop faibles et mal adaptées pour détruire l’ennemi, avec l’intention de ne s’en servir que pour gesticuler devant les caméras de CNN, ne pouvait que se terminer par un échec. De quelle utilité ont été ces troupes de choc, ces rangers célébrés par la propagande américaine, qui foutent le camp parce qu’une douzaine d’entre eux se sont fait scalper par des irréguliers ? De quelle utilité ont été ces canons, ces hélicoptères dans les bidonvilles surpeuplés ? Pourquoi n’a-t-on pas écouté les officiers italiens qui possédaient une connaissance séculaire des mœurs locales ? À ces erreurs s’est ajoutée celle qui s’est révélée destructrice : l’utilisation des moyens informationnels à contre-emploi. La défaite des Américains a été consommée dans la sphère du virtuel. Ils sauront s’en souvenir et retenir la leçon de Somalie pour considérer désormais les opérations militaires comme un des aspects de l’Information Warfare.

CYBERWAR II

:

LA PRATIQUE

175

L’implosion de la Yougoslavie. Première période : la guerre de Bosnie

© Tardy

Nous consacrerons quelques pages à ces événements atroces, parce qu’ils ont démontré les tendances majeures de l’évolution militaire, d’une part l’impuissance des Européens, incapables de dépasser une conception désormais obsolète des relations internationales confiées à des diplomates sans vision, et surtout de projeter des forces suffisantes pour dominer le conflit sur un théâtre pourtant proche, d’autre part la puissance des États-Unis qui, après avoir longtemps laissé pourrir la situation, ont finalement réglé le problème à eux seuls quand ils se sont décidés à bouger.

Les groupes éthniques en Yougoslavie (d’après Tardy)

LE DÉBUT DE LA CRISE

Tout en conservant un régime de parti unique jusqu’en 1992 pour les républiques et en 1991 pour la fédération, la Yougoslavie a connu une exacerbation des haines interethniques et de la phraséologie nationaliste : l’ennemi n’est plus le bourgeois, mais l’ous-

176

INTRODUCTION AU SIÈCLE DES MENACES

tachi croate, le tchetnik serbe, l’intégriste musulman. Le pays compte, en 1992, une vingtaine de régions ou provinces dites autonomes, dont une dizaine sous domination serbe et, en dehors de la Slovénie, chaque république est confrontée à la volonté de ses minorités nationales, qui comptent souvent plus de 40 % de la population locale, de ne plus supporter la domination de la majorité. En conséquence, les institutions créées par Tito pour maintenir une cohésion menacée par les souvenirs d’un long passé disparaissent. Les négociations entreprises en 1991 pour transformer l’État en une confédération souple se heurtent aux haines accumulées. Le 25 juin 1991, la Slovénie et la Croatie déclarent unilatéralement leur indépendance. La parole est désormais aux militaires. Belgrade a fait main basse sur la totalité de l’armement de l’ancienne armée fédérale, jadis la quatrième d’Europe, et croit posséder une supériorité écrasante sur les autres républiques. Les hostilités se déclencheront en plusieurs phases. Première phase

Les forces serbes interviennent en Slovénie, mais se heurtent à une défense territoriale bien préparée et font retraite dès le 18 juillet. Le 8 octobre, Ljubljana se retire des instances fédérales ; le 26 octobre, les derniers soldats fédéraux quittent la Slovénie. Le sort des armes a réglé la crise slovène. Deuxième phase

Il n’en est pas de même en Croatie où vivent six cent mille Serbes, dont un quart dans les régions rurales au Sud et à l’Est, la Dalmatie, la Krajina croate et la Slavonie, revendiquées cependant par les partisans de la Grande Serbie. Zagreb n’entend pas céder ces territoires. Dès l’été 1990, les combats entre forces croates et milices serbes se multiplient. L’armée fédérale est déployée en Croatie en juillet 1991 pour appuyer les milices serbes qu’elle équipe et entretient. La guérilla est désormais une guerre classique. L’agressivité serbe s’exerce en même temps en Bosnie-Herzégovine. Là coexistent un million neuf cent mille Bosniaques, un million quatre cent mille Serbes et sept cent cinquante mille Croates. Le dépeçage commence dès l’été 1991, quand, le 16 septembre, les Serbes de la Krajina bosniaque proclament leur autonomie afin de préparer leur union avec une Grande Serbie. Plusieurs villes suivent cet exemple et se constituent en « régions autonomes ». Les populations serbes retirent leurs représentants des instances de la République. En leur absence, le Parlement de Bosnie-Herzégovine proclame l’indépendance, le 15 octobre 1991,

CYBERWAR II

:

177

LA PRATIQUE

et déclare sa neutralité dans le conflit qui oppose la Serbie à la Croatie, puis demande sa reconnaissance à la CE. Les Serbes annoncent, le 21 décembre, le regroupement de leurs régions autonomes en une république de la Bosnie-Herzégovine serbe. 5

L’INTERVENTIONNISME DE LA FRANCE

Dès la déclaration d’indépendance de la Slovénie et de la Croatie, le 25 juin 1991, la France montre sa volonté de se poser en acteur incontournable dans le processus de règlement du conflit. Plus tard, dans une interview au Monde6, le ministre des Affaires étrangères, M. Alain Juppé répondra à la question : « La France a-t-elle selon vous une responsabilité particulière dans cette région ? » « On ne peut considérer qu’il y aurait une sorte d’enclave dans les Balkans qui ne nous concernerait pas. Je pense vraiment que nos intérêts, peut-être pas vitaux mais sans doute essentiels, sont en cause dans cette affaire et cela justifie que l’on y consacre son temps et son énergie. » En fait cette défense d’intérêts « essentiels » s’accompagne surtout de considérations bien plus douteuses de nature gaullienne. Comme le souligne Alex MacLeod : « Tout au long du déroulement de la crise yougoslave, la France tentera de jouer un rôle de premier plan en adoptant une stratégie qui assure sa présence dans toutes les instances décisionnelles, formelles ou informelles, où elle s’efforcera de prendre les devants là où elle le peut, ou fera des pressions pour faire échouer des mesures qu’elle estime contraires à ses propres intérêts. […] Derrière ce désir d’assumer ce rôle de leader plane un des objectifs clés de la politique étrangère française, celui de garder le rang international de la France7. »

La ligne constante des gouvernements français découle de l’exploit du général de Gaulle qui, grâce à Winston Churchill, a obtenu en 1945 un strapontin à la table où fut signé l’armistice et un fauteuil de représentant permanent au Conseil de sécurité de l’ONU. Sans la volonté de consacrer les ressources nécessaires aux moyens sur lesquels repose la réalité d’une vraie position de puissance, ce rang à l’ONU ne correspond qu’à un vain discours. Les gouvernements français qui se sont succédé depuis de Gaulle ne possèdent plus que ce fauteuil pour exister sur la scène mondiale. À chaque crise, leur objectif est de prendre une posture qui leur 5. On consultera avec beaucoup d’intérêt le livre de Thierry Tardy, La France et la gestion des conflits yougoslaves (1991-1995), Bruxelles, Bruylant, 1999. 6. Le Monde, 24 février 1994. 7. Alex MacLeod, « La France à la recherche du leadership international », Relations internationales et stratégiques, automne 1995, n° 19, p. 76.

178

INTRODUCTION AU SIÈCLE DES MENACES

permette de peser par leur seule présence diplomatique sur les décisions prises par les vrais maîtres du jeu. À cette infatuation s’est ajoutée une grande sensibilité à la stridence des « intellectuels » pour qui les pétitions, les marches dans les rues, les apparitions à la télévision tiennent lieu de connaissance des terrains, d’analyse des situations et surtout de compréhension des rapports de forces au XXIe siècle. L’ardent désir de monter sur les tréteaux explique alors que, des cinq membres permanents du Conseil de sécurité et des douze États de la CE, la France ait été le pays le plus acharné à promouvoir la mise en place en Yougoslavie d’une force d’interposition. Son activisme découlait de la volonté de plastronner sur la scène internationale plutôt que de régler le douloureux problème des déchirements ethniques. Les objectifs du président Mitterrand dans son intervention balkanique n’étaient pas moins vieillots que son obsession du « rang ». Homme du passé ne comprenant pas l’évolution historique, il était partisan du maintien de la Fédération yougoslave à la Tito, c’est-à-dire qu’il penchait vers les Serbes qui la défendaient, et fermait les yeux sur leurs exactions. LES VELLÉITÉS D’INTERVENTION SOUS LE DRAPEAU EUROPÉEN

La CE est la première, dès juin 1991, à intervenir en s’efforçant d’obtenir l’arrêt des hostilités en Croatie. Elle dépêche sur place ses représentants et ses observateurs, prend les premières sanctions économiques, établit une instance de négociation pour résoudre l’ensemble des problèmes yougoslaves : une conférence pour la paix en Yougoslavie, présidée par Lord Carrington, assistée d’une commission d’arbitrage présidée par Robert Badinter, se réunit à La Haye le 7 septembre 1991. Ces efforts de médiation n’empêchent pas la crise de s’aggraver. La conférence de La Haye échoue piteusement : elle ne parvient pas à trouver les voies d’une solution politique. La volonté de ne pas contrer les Serbes et de rétablir le statu quo ante amène le ministre français des Affaires étrangères Roland Dumas à évoquer, pour la première fois le 24 juillet 1991, l’envoi éventuel d’une force d’interposition en Yougoslavie. Le 6 août, il fait allusion à des « casques bleus européens ». Comme la France voit en l’UEO8 ce que le traité de Maastricht appellera « la composante de Défense » de l’Union européenne, cette structure croupion est sollicitée initialement. Alors que les combats s’amplifient en Krajina et en Slavonie, le président Mitterrand et 8. Voir p. 290, la définition de l’UEO.

CYBERWAR II

:

LA PRATIQUE

179

le chancelier Kohl proposent, le 19 septembre 1991, qu’une force de paix de l’UEO soit engagée en Croatie pour y superviser un accord de cessez-le-feu. La proposition est immédiatement rejetée par le Danemark, le Portugal et surtout le Royaume-Uni : toute tentative de forger une identité européenne de sécurité se heurte à l’opposition des Britanniques. Le rejet du plan francoallemand démontre l’incapacité des douze États européens à faire preuve d’un minimum de cohésion politique. Le général Jean Cot, qui commandera la FORPRONU de juillet 1993 à mars 1994, a écrit9 : « Avec beaucoup d’autres, j’ai la conviction que l’on pouvait arrêter les Serbes en octobre 1991 avec trois bateaux, trois douzaines d’avions et trois milliers d’hommes engagés à Dubrovnik et Vukovar pour marquer sans équivoque la détermination de la Communauté européenne […]. Aveuglement délibéré. Ce débat européen de septembre 1991 restera sans doute comme la plus grave des occasions manquées, pas seulement pour la guerre yougoslave mais aussi pour l’avenir de l’Europe. Les Britanniques ont une part de responsabilité très importante. On peut se demander aujourd’hui si la France n’aurait pas pu et dû forcer le destin en s’engageant sans eux, avec quelques autres. »

Constatant que les institutions européennes ne permettent pas la poursuite de ses objectifs, la France se tourne vers les Nations unies. Avec ce changement d’orientation, elle va changer de partenaire, puisque au tandem européen franco-allemand se substituera le tandem onusien franco-britannique. Le 3 octobre 1991, la Yougoslavie est tuée : le bloc serbe exclut de la présidence les représentants, non seulement des républiques sécessionnistes slovène et croate, mais aussi ceux de Macédoine et de Bosnie-Herzégovine. La CE est divisée sur la question explosive de la reconnaissance en tant que nouveaux États des provinces qui se détachent peu à peu de l’ex-Yougoslavie. La France aime les Serbes par réminiscence de la Première Guerre mondiale ; l’Allemagne aime les Croates et les Slovènes par réminiscence de l’Empire austro-hongrois, et elle prendra la décision de reconnaître la Croatie et la Slovénie le 23 décembre 1991, action unilatérale en contradiction avec les « lignes directives » fixées par la CE, qui retirera toute influence à la diplomatie européenne. La plupart des autres pays suivront l’exemple allemand en ordre dispersé. La CE s’y résoudra le 15 janvier 1992.

9. Général Jean Cot (sous la direction de), Dernière guerre balkanique ?, Fondation pour les études de Défense, Paris, L’Harmattan, 1996, p. 120.

180

INTRODUCTION AU SIÈCLE DES MENACES

RECOURS AUX NATIONS UNIES

Le Conseil de sécurité des Nations unies est saisi pour la première fois de la question yougoslave le 9 septembre 1991 à la demande du Canada. La France présente alors un ambitieux projet de résolution qui propose d’ordonner un arrêt immédiat des hostilités, d’établir une « force d’urgence » et de décréter un embargo sur les armes à destination de la Yougoslavie. Le projet fait à peu près l’unanimité contre lui et, le 25 septembre, le Conseil de sécurité adopte finalement la résolution 713 qui décide bien un embargo sur les armes à destination des belligérants, mais ne fait aucune mention de force d’urgence. Le type d’intervention privilégié par le Conseil de sécurité est, dès le départ, l’opération traditionnelle de maintien de la paix, c’est-à-dire le déploiement d’une force d’interposition avec l’assentiment des parties et après la conclusion d’un accord de cessez-lefeu. À l’insistance de la France, l’idée d’une force d’interposition en Croatie est admise et le représentant du secrétaire général en Yougoslavie, Cyrus Vance, la fait accepter le 23 novembre par les Serbes et les Croates, avec la signature d’un cessez-le-feu en présence de Lord Carrington, président de la conférence sur la Yougoslavie. L’ONU a ainsi la main. Vance établit un plan de déploiement de la force qui deviendra la Force de protection des Nations unies (FORPRONU), « opération provisoire menée pour créer les conditions de paix et de sécurité qu’exige la négociation d’un règlement d’ensemble de la crise yougoslave. Elle ne préjugerait en rien de l’issue de cette négociation ». Le plan Vance, qui prévoit le déploiement de dix mille hommes, est approuvé le 15 décembre par le Conseil de sécurité, qui adopte, le 21 février 1992, la création de la Force (Résolution 749), puis, le 7 avril, autorise son déploiement (Résolution 749) dans trois zones protégées avec quartier général à Sarajevo. Le total atteint 14 389 hommes dont 10 400 militaires (infanterie). Des cinq membres permanents du Conseil de sécurité et des douze États de la CE, la France a été le pays le plus actif à promouvoir la mise en place d’une force d’interposition, d’abord auprès de l’UEO, puis à l’ONU. On peut légitimement lui attribuer la paternité de l’imbécile FORPRONU, à qui elle fournit le plus gros contingent (2 062 hommes sur 14 389). Le recours à l’ONU démontre l’impuissance de l’Europe à s’affirmer sous forme politique.

CYBERWAR II

:

LA PRATIQUE

181

Mise en place en Croatie, au début de 1992, la force onusienne se heurte au refus des milices serbes de remettre leurs armes, tandis qu’aucun accord politique n’est conclu en raison des positions inconciliables entre Serbes et Croates sur le contrôle de la zone. Son déploiement commence difficilement en avril et mai, dans l’hostilité de tous les camps. Le 24 avril 1992, les Parlements de Serbie et du Monténégro proclament la naissance de la troisième Yougoslavie. Elle compte dix millions de Serbes, six cent mille Monténégrins et des minorités ethniques auxquelles Belgrade donne le statut de nations : un million quatre cent mille Hongrois en Voïvodine, trois cent mille musulmans au Sandjak et deux millions d’Albanais au Kosovo et au Monténégro. Les combats font rage de juillet à décembre en Slavonie et en Dalmatie. Les tentatives de médiation échouent : quatorze cessez-le-feu sont signés et aussitôt violés par les deux parties. Sur la ligne de front en Croatie à partir de mars 1992, les casques bleus ne réussissent pas à remplir leurs missions initiales, désarmer les milices locales et assurer le retour des réfugiés. Au contraire les milices serbes parviennent à « décroatiser » la Slavonie et une partie de la Dalmatie, et « serbiser » la Voïvodine. Troisième phase : les Européens face à la guerre en Bosnie-Herzégovine

Quand à son tour la Bosnie-Herzégovine s’enflamme, à la fin de mars 1992, et surtout après sa reconnaissance par la CE (6 avril), le chaos va grandissant. La défense territoriale croate et musulmane y regroupe cent mille soldats auxquels s’ajoutent des groupes armés venus de Croatie, mais les forces serbes alignent cent mille hommes de l’armée de la république de Bosnie-Herzégovine serbe, placée sous les ordres du général Ratko Mladic, et deux cent mille paramilitaires serbes. Les Croates et les musulmans n’ont pas les moyens de se défendre du fait de l’embargo sur les armes voté par l’ONU. Les efforts des institutions internationales se multiplient dans trois domaines : recherche d’un règlement politique (toujours sans succès), assistance humanitaire (dont l’efficacité reste limitée) et pressions sur la Serbie (embargo décidé par le Conseil de sécurité par sa résolution 757, le 30 mai 1992). L’embargo frappe toutes les transactions économiques, s’accompagne d’une suspension des relations culturelles et même sportives, et d’une réduction du niveau de représentation diplomatique. Si aucune organisation ne s’engage dans le conflit pour arrêter l’expansion serbe, malgré les objurgations du gouvernement bosniaque, il existe chez certains la tentation d’agir en force pour ouvrir et préserver les « couloirs humanitaires » ou des « zones

182

INTRODUCTION AU SIÈCLE DES MENACES

protégées » abritant des réfugiés. La détresse des populations et les exactions qu’elles subissent semblent y pousser, mais les gouvernements des principaux pays, qui craignent d’être entraînés dans l’engrenage du conflit, s’y opposent. Le nom même de Sarajevo refroidit toute ardeur officielle. On se souvient que ces genslà ont réussi en 1914 à mettre le feu à la planète. Qu’ils s’étripent s’ils le veulent, mais sans nous ! Alors qu’en Croatie les combats opposent Croates et Serbes en des lieux géographiquement limités et d’une topographie simple, la situation bosnienne se caractérise par l’absence de fronts établis, des combats impliquant trois parties et une mobilité imprévisible des hostilités dans la totalité d’un pays montagneux et difficile d’accès. En outre, si l’on parvient, tant bien que mal, à obtenir en Croatie un cessez-le-feu de la part des deux camps, plus intéressés, au moins provisoirement, à l’arrêt de la guerre qu’à sa continuation, il est impossible de progresser en BosnieHerzégovine, où, à chaque tentative, l’une ou l’autre des parties s’oppose à tout accord. Dans les deux cas, l’ONU examine la possibilité de déclencher une opération de maintien de la paix, mais si celle-ci est possible pour la Croatie, la situation bosnienne ne l’autorise pas. En Bosnie-Herzégovine, il est impossible d’envisager le déploiement d’une force en l’absence d’un accord de cessez-le-feu durable, jamais obtenu entre le printemps 1992 et l’automne 1995. Son incapacité à déployer une opération de maintien de la paix amène le Conseil de sécurité à favoriser une action a priori moins risquée, l’opération à vocation humanitaire, d’abord sur l’aéroport de Sarajevo, puis en d’autres endroits de la Bosnie-Herzégovine. Il élargit, par sa résolution 758 du 8 juin, le mandat de la FORPRONU, en lui donnant une telle mission en Bosnie, à l’exclusion de toute action en matière de maintien de la paix. Les deux résolutions 770 et 771 du 13 août insisteront, l’une sur ce caractère humanitaire qui reflète la pression des opinions publiques mobilisées par les médias, sans proposer de véritables moyens d’action, et l’autre sur la condamnation de l’épuration ethnique. Toute logique de force est noyée dans la dynamique de l’option diplomatique. Au cours de l’année 1992, la politique française en ex-Yougoslavie s’articule autour de deux axes : l’action diplomatique et l’action humanitaire. Son attitude théâtrale trouve son acmé dans la visite grotesque de Mitterrand à Sarajevo le 28 juin, destinée à convaincre les amis serbes de ne pas asphyxier l’aéroport. À l’origine de ce geste personnel, sans conséquence, qui surprend le chancelier allemand Helmut Kohl et le Premier ministre anglais

CYBERWAR II

:

LA PRATIQUE

183

John Major, l’on trouve non des ministres responsables, mais des écrivaillons habitués des chaînes de télévision. Il faut attendre le mois de juillet pour voir démarrer une politique humanitaire en Bosnie, soutenue par quatre bataillons de casques bleus désarmés par leurs instructions. Le général Morillon10, qui les commande, installe son PC à Sarajevo. Confronté à l’hostilité de la population qui jette des pierres à ses soldats, bombarde sa résidence au mortier, assassine le vice-Premier ministre bosniaque Tarajlic, il est réduit à la gesticulation personnelle. À aucun moment du conflit, la présence de ses troupes n’a eu le moindre impact sur le déroulement des opérations militaires, qui a vu les avancées serbe et croate et la défaite des musulmans. L’ONU et la CE, dans leurs efforts conjoints pour parvenir à un règlement de paix dans le conflit bosnien, n’ont jamais envisagé l’usage de la force contre les agresseurs, non plus que la levée de l’embargo sur les armes, qui ne gênait que les musulmans. Les pressions à l’encontre de la Serbie, désignée par la communauté internationale comme le responsable principal de la guerre en Bosnie, se sont limitées à la mise en place, les 30 mai et 17 novembre 1992, de sanctions économiques renforcées par un blocus imposé le 17 avril 1993. Si ces mesures ont contribué aux difficultés de la Serbie, elles ne l’ont pas empêchée de poursuivre ses opérations militaires en Bosnie-Herzégovine. Le 14 septembre 1992, le mandat de la FORPRONU est élargi à tout le territoire de la Bosnie-Herzégovine. Les casques bleus doivent11 « appuyer les efforts du HCR (Haut Commissariat aux réfugiés) pour administrer les secours humanitaires ». Un étatmajor fourni par l’ONU est installé à Kiseljak, près de Sarajevo, pour gérer l’interdiction du survol de la Bosnie par l’aviation yougoslave. La force de 25 000 hommes, dont 4 400 Français, déployée en Bosnie n’a pas le droit de s’interposer entre deux factions après la signature d’un cessez-le-feu, ni l’autorisation de tirer pour se défendre. L’échec des mesures de coercition vis-à-vis de Belgrade s’est accompagné d’une série de revers diplomatiques dans le cadre des tentatives de règlement du conflit bosniaque. La première initiative, prise à Bruxelles en mars 1992 sous les auspices de la CE, avait pour but d’opérer une décentralisation de la Bosnie-Herzégovine sur une base ethnique, afin de satisfaire la volonté d’autonomie 10. Général Philippe Morillon, Croire et oser. Chronique de Sarajevo, Paris, Grasset, 1993. 11. Rapport du secrétaire général de l’ONU sur la situation en Bosnie-Herzégovine, S/24540 du 10 septembre 1992.

184

INTRODUCTION AU SIÈCLE DES MENACES

des Serbes et des Croates tout en sauvant son intégralité territoriale. Le déclenchement des hostilités, au début d’avril, y mit fin. Quatre mois plus tard, en août 1992, la conférence de Londres devait « institutionnaliser » la conférence de paix sur l’ex-Yougoslavie, placée sous les auspices de deux « coprésidents », David Owen et Cyrus Vance, chargés respectivement par la CE et l’ONU d’élaborer un règlement de paix pour la Bosnie. Ces deux derniers proposent, le 2 janvier 1993, un plan de paix en trois volets, portant sur les modalités d’un cessez-le-feu, sur les « principes constitutionnels » d’une future Bosnie-Herzégovine largement décentralisée et sur la répartition des territoires entre les trois communautés nationales. Selon ce plan, les Serbes (31 % de la population) auraient obtenu 40 % du territoire, les Croates (17 % de la population) et les musulmans (44 % de la population), chacun 25 % du territoire, tandis que Sarajevo deviendrait une ville « ouverte ». À la différence des Croates et des musulmans qui ont accepté ce plan, les Serbes le rejettent en signifiant leur refus de restituer une partie de leurs conquêtes. Aussi, alors que les négociations sur le plan Vance-Owen se poursuivent jusqu’au mois de mai, la guerre et la purification ethnique continuent à sévir en Bosnie orientale et centrale, où Serbes et Croates combattent parallèlement les musulmans. L’ONU entérine cette nouvelle « réalité » le 23 mai 1993 par l’accord de Washington, qui abandonne de facto le plan VanceOwen et crée, à sa place, des « zones de sécurité » pour les musulmans (les villes de Srebrenica, Sarajevo, Tuzla, Zepa, Goradze et Bihac), tandis qu’il attribue aux Serbes et aux Croates respectivement deux tiers et un quart du territoire de la Bosnie-Herzégovine. Celle-ci fait l’objet, le 16 juin 1993, d’un plan de partage entre Belgrade et Zagreb, négocié durant l’été 1993 sous l’égide des médiateurs de l’ONU et de la CE, Thorvald Stoltenberg et David Owen. Les Serbes de Bosnie ont, d’une part, assuré leur emprise sur les territoires qu’ils possédaient avant le commencement des hostilités, puis, à partir de l’hiver 1992-1993, ils occupent la Bosnie orientale, en majorité musulmane, et ce d’autant plus facilement que leurs principaux adversaires, les Croates, ont conclu avec eux une trêve pour s’opposer ensemble aux musulmans. Le concept de purification ethnique, élaboré par Belgrade et mis en œuvre dès 1991 par l’assassinat des élites, l’expulsion des populations non serbes, la multiplication des camps de détention, les sévices sur les femmes, les enfants et les personnes âgées, la destruction des maisons, des hôpitaux, des magasins, des bureaux de poste, des systèmes d’approvisionnement en eau et en électricité, rend précaire, dès l’été 1993, la situation des musulmans : entre deux cent et trois cent mille morts, entre vingt et cinquante mille fem-

CYBERWAR II

:

LA PRATIQUE

185

mes violées, sept cent mille réfugiés en Croatie et à l’étranger, le reste, soit un peu plus d’un million de personnes, entassées dans des zones de sécurité (Sarajevo, Bihac, Tuzla, Srebrenica) privées d’eau, d’électricité, de nourriture, de médicaments et soumises à des brimades incessantes. Le 18 août 1993, les belligérants acceptent que Sarajevo devienne une cité démilitarisée, placée sous le contrôle de l’ONU qui en assurera la préservation pour deux ans. Les Serbes n’en continuent pas moins le blocus, pendant que les Bosniaques se livrent à des provocations quotidiennes. L’internationalisation de Sarajevo ne sera obtenue qu’au prix de menaces répétées de l’OTAN en janvier 1994, et le principe d’une zone démilitarisée de 20 km de diamètre autour de la ville sera accepté. Le statut de « zone de sécurité » n’entraîne aucune protection des régions concernées. Sur le terrain, la FORPRONU ne dispose ni de l’armement ni des effectifs nécessaires à l’accomplissement de ses missions. Pour la France qui rejette aussi bien l’option de la frappe aérienne que celle du retrait des casques bleus, la FORPRONU est plus que jamais la seule possibilité, et les zones de sécurité constituent une solution provisoire mais acceptable. Les élections de 1993 et l’arrivée au pouvoir d’une majorité de droite ne changent pas l’orientation de sa politique désormais passée sous la direction du ministre des Affaires étrangères Alain Juppé. Elle s’inscrit sans ambiguïté dans la ligne Mitterrand, c’est-à-dire à la fois la poursuite de l’action humanitaire et la diplomatie, avec un refus catégorique de toute action militaire, interdite par l’absence de volonté, française ou européenne. Il faut vraiment le cerveau d’une « belle âme » parisienne ou celui d’un fonctionnaire du Quai d’Orsay pour concevoir à la fois la militarisation (sans armes) des opérations onusiennes et le déploiement d’une action humanitaire, le tout dans un environnement de guerre. Mal définies, non défendues, les zones de sécurité deviennent rapidement des zones d’insécurité. Le siège de Sarajevo, les attaques serbes contre les enclaves de Bihac, de Srebrenica et de Zepa démontreront dans l’horreur sanglante la stupidité des responsables français. La faiblesse des effectifs déployés pour les protéger rend illusoire l’application de la résolution 836 du 4 juin 1993 autorisant la FORPRONU à exercer une légitime défense dans des cas limités. Les Serbes s’attachent à liquider les enclaves musulmanes, se moquant de la lâcheté des forces onusiennes. En octobre 1993, le général Cot, qui commande la FORPRONU pour l’ex-Yougoslavie, déplore12 que « l’originalité de 12. Le Monde, 12 octobre 1993.

186

INTRODUCTION AU SIÈCLE DES MENACES

l’ONU soit de voter des résolutions qui se transforment en missions pour les militaires sans donner les moyens de les mener ». Le siège de Sarajevo se poursuit avec ses morts quotidiens. La France met le dossier bosnien à l’ordre du jour du sommet de l’OTAN les 10 et 11 janvier 1994, initiative qui traduit son irritation grandissante devant l’impuissance onusienne et qui n’obtient aucun succès. Les Français ont appelé les Américains à la rescousse ! Le 5 février, un obus de mortier (peut-être bosnien) tombe sur le marché de Markale, faisant 68 tués et 200 blessés. Sous le coup de l’émotion, Alain Juppé obtient que le Conseil de l’Atlantique Nord fulmine le 9 février un ultimatum intimant le retrait des armes lourdes serbes à vingt kilomètres du centre de Sarajevo, sous la menace de représailles aériennes. Grâce à la pression russe, les Serbes obtempèrent et Sarajevo retrouve un calme provisoire. L’incident révèle les limites de la position française, car l’ultimatum ne s’inscrit pas dans le cadre d’une stratégie. Les images de la télévision ont engendré une réponse ponctuelle, un geste sentimental sans lendemain : le recours éventuel aux frappes aériennes qui fut présenté pendant deux ans par la diplomatie française comme improductif, difficile à réaliser et extrêmement dangereux pour les casques bleus, devenait soudain possible, souhaitable, impératif ! La France avait réussi à se fourrer dans un guêpier ; elle ne pouvait ni maintenir le statu quo, ni se retirer. Entrée en Bosnie sous l’égide de l’ONU, elle ne disposait que de l’OTAN pour en sortir, qu’il s’agît de frappes aériennes, d’un plan de retrait ou d’un plan de paix. Elle prit l’initiative de faire créer le 25 avril 1994, le « groupe de contact » qui réunissait les États-Unis, la Russie, la France, la République fédérale allemande et le Royaume-Uni, directoire imposé par la carence des institutions internationales. L’ONU est écartée du processus diplomatique. L’appel aux Américains se présente comme le dernier recours. L’offensive serbe en avril contre la zone de sécurité de Gorazde, au cours de laquelle des soldats anglais sont blessés, amène, le 11, une frappe de l’OTAN, premier soutien rapproché du personnel de la FORPRONU, mais les assauts serbes reprennent à la fin du mois de mai sans réaction de l’OTAN. La fermeté montrée à Sarajevo ne s’exerce pas à Gorazde. La FORPRONU est paralysée par la poursuite générale des combats ; le Conseil de sécurité porte ses effectifs le 27 avril à 40 000 hommes, dont 6 300 Français (nombre ramené à 4 600 à la fin de l’année). Alors que 1994 se termine, aucune perspective de règlement n’apparaît. La France qui menace de se retirer de la FORPRONU ne possède même pas les moyens d’assurer elle-même son propre

CYBERWAR II

:

LA PRATIQUE

187

retrait. En décembre, un document interne de l’ONU souligne13 l’impasse où se trouvent ses troupes « incapables de protéger l’acheminement de l’aide humanitaire, incapables de dissuader les attaques, incapables de se défendre et incapables de se retirer ». Comme l’a souligné Pierre Hassner14 : « L’année 1991-1992 fut l’échec de la Communauté européenne, 1992-1993 celui de l’ONU et 1993-1994 celui de l’OTAN. »

Il est temps que les gens sérieux interviennent. L’action de l’ONU (en réalité des Européens, France et Angleterre principalement) souffre des mêmes maux que l’action américaine en Somalie : l’absence d’un objectif politique et l’inadéquation totale des moyens militaires déployés vis-à-vis des combattants en présence. Les forces terrestres (limitées à de l’infanterie) se trouvent placées dans des conditions impossibles qui limitent leurs capacités à celles de la Croix-Rouge, avec l’interdiction de se défendre. Ayant eu l’occasion d’attirer l’attention de l’amiral Jacques Lanxade, chef d’état-major des Armées françaises, sur la possibilité d’assurer beaucoup des fonctions confiées aux malheureuses troupes, par des méthodes automatiques de surveillances électronique et optique similaires à celles qu’avaient employées les Américains pour le cessez-le-feu au Sinaï en 1976, je me fis répondre que les solutions sur le terrain ne pouvaient être techniques, mais devaient reposer sur le soldat. Les forces aériennes sont empêchées d’intervenir par la pusillanimité de l’ONU, qui craint la réaction serbe pour la vie de ses soldats déployés sur le terrain. Qui a jamais pu penser que l’ONU pouvait mener une guerre ? Le précédent de la campagne de Corée nous rappelle que si son drapeau a servi (une fois) pour couvrir une coalition efficace, c’était parce que les États-Unis le brandissaient. Il n’en est pas de même en Bosnie. Le frein à la combativité de l’ONU provient de ce que les États engagés, France, Angleterre et autres Européens se préoccupent exclusivement de la sécurité de leurs troupes envoyées imprudemment sur un théâtre difficile, et pas du tout de celle des malheureuses populations, bosniaques ou autres. Pourquoi risquer la vie d’un pioupiou, ce qui bouleverserait les opinions publiques manipulées par les commentaires des chaînes télévisées avides d’hémoglo13. Mémorandum interne du Département des opérations de maintien de la paix du Secrétariat général de l’ONU, cité par Jean Willem Honig et Norbert Both, Srebrenica-Record of a War Crime, Londres, Penguin Books, 1996, p. 157. 14. Pierre Hassner, « Une autre analyse de la guerre en ex-Yougoslavie », Relations internationales et stratégiques, été 1994, n° 18, p. 106-107.

188

INTRODUCTION AU SIÈCLE DES MENACES

bine, dans des opérations de guerre dont personne, parmi les politiques ou les militaires, ne serait capable d’expliciter les objectifs ? L’Europe se couvre de honte et de ridicule au prix de 1,6 milliard de dollars par an. Cent vingt avions de l’OTAN sont déployés sur les bases italiennes de l’Alliance sans possibilité d’agir : quarante tournent en l’air, attendant en vain l’ordre d’attaquer. À quoi sert une arme si son possesseur n’ose s’en servir ? Au printemps de 1995, en dépit d’une trêve relative maintenue depuis janvier, chacun sent que le statu quo ne peut plus durer. Les casques bleus, devenus la cible des fauteurs de guerre, ne peuvent pas plus assurer leur propre sécurité, que remplir leur mission d’aide aux populations civiles. Les Serbes contrôlent de près l’aéroport de Sarajevo, seule voie d’approvisionnement de la FORPRONU, et tirent sur tout ce qui bouge, femmes, enfants et soldats français. Le 24 mai, le commandement de la FORPRONU en Bosnie leur lance un nouvel ultimatum afin d’obtenir le respect de la zone d’exclusion des armes lourdes décrété en février 1994. Le 25, devant l’absence de réaction à son ultimatum, l’OTAN frappe un dépôt de munitions serbe près de Pale. En représailles, les Serbes bombardent cinq des six zones de sécurité provoquant un massacre à Tuzla, 76 morts et 150 blessés. Le 26, ils prennent en otages deux cents casques bleus dont plus de cent Français et les utilisent comme boucliers humains. Le monde entier voit à la télévision les soldats français agiter misérablement un drapeau blanc. Pour effacer la fâcheuse impression, le président Chirac ordonne à ses troupes de reprendre le petit poste du pont de Verbranja le 27 mai. Lors d’une conférence des ministres de la Défense des États de l’UE et de l’OTAN, le 3 juin, la France propose la création d’une Force de réaction rapide (FRR) habilitée à se défendre, dévolue à la protection des casques bleus et au soutien de leurs missions. Il ne s’agit que d’assurer la sécurité de la FORPRONU, non celle des populations. Elle écarte ainsi délibérément la structure onusienne considérée comme responsable du désastre, pour y substituer les forces otaniennes. Le principe de la FRR est adopté le 11 juin. Les canons otaniens permettront de dégager Sarajevo au mois d’août en forçant le commandement serbe à un cessez-le-feu local, mais ils ne changeront strictement rien à la situation générale politique ou militaire, contrairement aux allégations flamboyantes de M. Alain Juppé, et de son directeur de cabinet M. Dominique de Villepin, qui affirment encore aujourd’hui avoir, grâce à cette initiative, permis le règlement du drame bosnien. À propos d’une telle suffisance, ou plutôt d’un tel aveuglement, on ne peut qu’approuver la remarque d’un diplo-

CYBERWAR II

:

LA PRATIQUE

189

mate en poste à Bruxelles : « Comme l’Afrique a ses singes, l’Europe a ses Français. » Le 6 juillet, les Serbes engagent une offensive pour liquider l’enclave de Srebrenica, où un bataillon de casques bleus hollandais est censé assurer la sauvegarde de milliers de Bosniaques. Le 11, les dirigeants politiques français et allemands, c’est-à-dire le président Chirac et le chancelier Kohl, se trouvent ensemble à Strasbourg. Au milieu de la réunion, deux coups de téléphone successifs de Hans Van Mierlo, ministre des Affaires étrangères des Pays-Bas, annoncent au ministre allemand de la Défense Klaus Kinkel que les troupes serbes ont pénétré dans Srebrenica et se trouvent au contact des forces néerlandaises et de la population. Les casques bleus avaient demandé en vain à six reprises un soutien aérien au général Janvier, commandant la FORPRONU. Alors se déroule une scène de farce qui ferait rire si elle ne se déroulait en filigrane d’un drame, puisque le régiment hollandais, l’arme au pied, laisse massacrer sept mille Bosniaques sans lever le petit doigt pour s’interposer. D’après le témoignage15 du conseiller diplomatique du président de la république française, Jean-David Levitte, plus tard représentant de la France à l’ONU : « Jacques Chirac, entendant Kinkel, explose. Furieux, il se tourne vers les militaires (les chefs d’état-major des armées françaises et allemandes), leur dit qu’on ne peut pas continuer à travailler comme ça, qu’il n’est pas acceptable qu’on apprenne la chute de Srebrenica par un coup de téléphone. Il demande une suspension de séance et les invite à aller s’informer. »

S’informer ! Relevons ce terme employé par le chef constitutionnel des forces armées françaises. Certes la situation était de ce point de vue désastreuse : chaque contingent en Bosnie informait de ce qui se passait sur place à la fois sa capitale et les responsables de l’ONU. Il n’y avait aucune passerelle entre ces différents circuits. Nous sommes en 1995 et voilà où en sont les capacités et les pratiques des Européens, alors que depuis 1970, le puissant mouvement intellectuel que nous avons décrit amène les ÉtatsUnis à placer l’information au cœur de la pratique militaire ! Suivant le sort de Srebrenica, l’enclave de Zepa tombe le 25 juillet. L’importance conférée à la création de ces zones par la France fait de leur abandon le symbole du renoncement et de l’absence de volonté à mettre en œuvre les résolutions du Conseil de sécurité. L’échec consacre la faillite militaire et politique de la France. La main passe. 15. Le Monde, 30 janvier 2001.

190

INTRODUCTION AU SIÈCLE DES MENACES

LES ÉTATS-UNIS S’IMPOSENT

L’année 1995 voit le tournant de la crise avec le changement de la politique américaine. Pendant toute la crise, les États-Unis ont estimé que l’affaire regardait les Européens et qu’il n’était pas question pour eux de se laisser impliquer dans une aventure marécageuse. Les deux précédents d’Irak et de Somalie montraient que la seule politique susceptible d’un soutien populaire est celle du « zéro mort ». La seule intervention américaine avait été diplomatique. Exaspérés par l’incroyable carence de leurs alliés, les ÉtatsUnis réagissent enfin. Comptons pour rien la mission privée de l’ex-président Jimmy Carter qui a obtenu en décembre 1994 un cessez-le-feu de quatre mois. La réalité est ailleurs. Depuis longtemps les Américains étaient persuadés de la nécessité de renforcer militairement les adversaires des Serbes. Ils insistaient auprès des Européens, qui s’en irritaient, pour que fût levé l’embargo qui asphyxiait les Croates et les Bosniaques. Alors que le président Clinton était critiqué comme incapable de diriger l’alliance occidentale, une opération secrète avait commencé à la fin de 1994. Les 1er et 2 mai se produisit la première conséquence visible de cette action : des troupes croates écartèrent sans difficulté quelques casques bleus stationnés sur la ligne de cessez-le-feu, pour éliminer les enclaves serbes et s’emparer de toute la Slavonie occidentale. Il apparaissait au grand jour que la Croatie avait mis sur pied une force bien équipée, en dépit de l’embargo, et la presse s’en fit l’écho16. Au début d’août, à la surprise générale, une véritable armée croate écrasa en quelques jours les garnisons serbes de la Krajina et submergea cette région d’où les habitants, serbes depuis des siècles, durent s’enfuir à leur tour sous une violente pression militaire. Sans risque de se tromper, on peut attribuer au gouvernement américain, qu’il s’agisse de la CIA ou du DoD, le retournement spectaculaire qui ruinait les espoirs d’une grande Serbie. Quelle qu’ait été l’origine de l’abondant matériel qui soudain se trouva dans les mains croates (y compris un drone Gnat !), l’entraînement et peut-être l’encadrement de cette armée sortie de nulle part furent assurés par une entreprise basée à Alexandrie (Virginie), à cinq cents mètres du Pentagone, Military Procurement Ressources Inc. ou MPRI, qui s’en défend. Cette société fondée en 1988 par des officiers supérieurs à la retraite compte plus 16. International Herald Tribune, 10 mai 1995.

CYBERWAR II

:

LA PRATIQUE

191

de huit cents employés permanents et maintient à jour une liste de douze mille cinq cents professionnels de la défense et du maintien de l’ordre. Le site web de MPRI décrit son activité comme la fourniture d’éducation, d’entraînement, d’expertise organisationnelle et de développement tout autour du monde, dans les domaines de la défense, de la sécurité et de la préparation au leadership. MPRI sert les besoins du gouvernement des États-Unis et de gouvernements étrangers sous licence du State Department. Elle annonce qu’elle peut remplir toute tâche ou accomplir toute mission exigeant une expertise en matière militaire (s’arrêtant avant le combat) ou en maintien de l’ordre. En Croatie, MPRI dirigeait officiellement le programme DTAP (Democracy Transition Assistance Program). Approuvé par le gouvernement américain, il consistait à fournir l’encadrement des forces armées. Depuis 1996, soulignant sa présence dans le pays, MPRI s’est engagé dans deux autres programmes d’orientation militaire. À la fin des hostilités, elle a créé un camp en Croatie et un autre pour les Croates en Turquie. Rien de tout cela ne se faisait, ni ne se fait encore, en pleine lumière. L’encadrement américain provient de la société Dyncorps (Dynamics Corporation) qui emploie des « ingénieurs » venus des activités militaires, de sécurité et du BTP. MPRI prétend n’avoir besoin que de soixante-douze heures pour constituer une équipe de formation au combat. Elle est ou a été très présente en Afrique, en Angola, en Sierra Leone, en Afrique du Sud où elle ne se montre guère à découvert, et elle avoue elle-même travailler dans l’ex-Soviétie (où elle coordonne le transport de marchandises humanitaires du Département d’État), en Macédoine, au Kosovo, au Nigeria, en Guinée équatoriale, en Colombie (lutte antidrogue), au Koweït (entraînement des unités américaines), en Arabie Saoudite, à Taiwan. Bien sûr, il ne s’agit que d’instruction et de conseil, à des niveaux variés… L’existence de MPRI marque une tendance nouvelle, la privatisation des opérations de sécurité et des opérations militaires grâce à la création de sociétés qui peuvent à tout moment être récupérées par le gouvernement. Ces nouvelles Private Military Companies tentent de se débarrasser de l’image véhiculée naguère par les officines de mercenariat. À côté de MPRI émergent Kellog, Brown & Root (KBR), filiale d’Halliburton spécialisée dans l’appui logistique à la sécurité des infrastructures énergétiques, et Kinnell Corp. qui, comme MPRI, s’occupe de fournir des conseillers militaires privés. Les pays européens s’appuient sur la charte des Nations unies, et à l’inverse, les États-Unis sur une créativité institutionnelle permanente.

192

INTRODUCTION AU SIÈCLE DES MENACES

Que l’offensive éclair des Croates ait été entièrement manipulée par les États-Unis est démontré par le fait que désormais le président Clinton est devenu le maître du jeu. Ils avaient toujours préconisé la nécessité de frappes aériennes. Les Serbes leur en fournissent le prétexte en bombardant le marché de Sarajevo, tuant trente-sept personnes le 28 août. Dès le 30, l’OTAN riposte par la campagne aérienne « Deliberate Force » avec complète participation américaine. L’infrastructure de la Bosnie orientale sous contrôle serbo-bosniaque est écrasée par 3 515 sorties avec le largage de 1 026 bombes, pour la plupart PGM, contre 338 objectifs serbes. Par cette opération qui enfin affaiblit gravement les forces de l’agresseur, l’OTAN et les Américains écartent la France de la gestion du conflit, malgré sa participation, via l’OTAN et la FRR, à l’opération. Si la FRR déverse 1 300 obus sur les positions serbes dans la journée du 30 août, elle s’arrête dès la soirée. Seule l’aviation de l’OTAN continue les frappes. Le président Chirac veut reprendre l’initiative à la télévision en proposant, le 3 septembre, un moratoire des bombardements pour sauver les Serbes, et les Américains le remettent à sa place en tirant, quelques heures plus tard, 80 missiles Tomahawk sur lesdits Serbes. Ils ont fait une entrée vraiment fracassante sur la scène, et leur double action, sur le terrain grâce aux Croates et dans les airs, emporte la décision. Les Serbes acceptent pour la première fois de retirer leurs armes lourdes des alentours de Sarajevo. Les frappes s’interrompent le 14 septembre. La défaite serbe est totale. Dès le 10 août, l’administration Clinton s’est engagée dans un processus diplomatique très vigoureux. Le secrétaire d’État adjoint pour les affaires européennes Richard Holbrooke parvient à se faire écouter des Serbes, des Croates et même des musulmans bosniaques qui préfèrent recourir à ses bons offices plutôt qu’à ceux du médiateur européen Carl Bildt. Le 5 octobre, le président Clinton annonce lui-même qu’un cessez-le-feu a été accepté par les parties. Une conférence se réunit le 1er novembre sur une base de l’US Air Force à Dayton (Ohio), sous l’égide américaine : les Serbes ont compris que l’entrée en lice d’une armée croate créée et encadrée par les services secrets de l’oncle Sam siffle la fin de la partie. Le 21 novembre, tous acceptent une solution raisonnable. La Bosnie est maintenue dans son unité, mais comprend désormais deux entités : la Fédération croato-bosniaque et la république serbe de Bosnie, avec un gouvernement central (et un fédéral), une présidence, un Parlement et une Cour constitutionnelle. Le territoire est attribué pour 49 % à une République serbe et 51 % à une Fédération croato-musulmane. Un gouvernement central éma-

CYBERWAR II

:

LA PRATIQUE

193

nant des trois groupes serbe, croate et musulman, est établi sous la supervision d’abord de l’ONU puis de l’OTAN ; la Croatie garde la Krajina serbe. La pax americana amène un bref répit dans la descente aux enfers de la Yougoslavie. L’amiral américain Leighton Smith commandera la force de pacification (Implementation Force ou IFOR). À la tête des forces interarmées alliées pour le sud de l’Europe à Naples, il a eu la responsabilité d’organiser les raids aériens de l’OTAN contre les objectifs serbes de Bosnie. Déployée en novembre, l’IFOR, qui compte six mille hommes, aura pour mission de séparer les combattants. Les accords de Dayton sont un exemple type de ces armistices imposés aux puissances de second ordre, qui ne règlent rien au fond et empêchent la mutation de la guerre en paix : ils ont condamné la Bosnie à rester divisée en camps armés rivaux, dans un climat permanent d’hostilité larvée. L’évolution des événements en Bosnie est bonne pour la paix et les populations jusque-là traitées de tous les côtés avec sauvagerie, mais mauvaise pour les Européens et surtout pour l’ONU. Certes l’échec de l’ONU est avant tout celui des États membres qui n’ont jamais réussi à élaborer une stratégie cohérente. Comme les Américains en Somalie, ils n’ont pas voulu faire la guerre, tout en employant des instruments militaires qui, de toute façon, n’étaient pas adaptés à la situation. Mais les diplomates, surpris par tous les développements importants, ont maintenu le principe d’impartialité sur lequel ils fondaient leur action ou plutôt leur inaction. Discrédité par l’attitude onusienne au Cambodge où les Khmers rouges coupables de génocide sont traités « impartialement » par l’organisation internationale, ce principe plaît pourtant aux Européens, car il permet de parler sans rien faire. L’ONU n’en a pas moins perdu la guerre de Bosnie. Et pendant que leurs alliés palabrent sans même analyser les raisons de leur nullité, les États-Unis se renforcent. Depuis la guerre du Golfe ils gardent la certitude que la force aérospatiale doit devenir le cœur de leur puissance militaire, c’est-à-dire qu’ils s’engagent à fond vers la RMA : JV-2010 est promulguée en 1996. De l’échec somalien, ils ont conclu que la participation aux opérations onusiennes doit être regardée comme une mauvaise solution à une crise. De la Bosnie, ils retiennent que les Européens ne possèdent vraiment plus la moindre capacité militaire, et encore moins une vision politique. Dans tous les cas, les forces américaines devront rester sous commandement américain, dans tous les cas la bénédiction de l’ONU est devenue le baiser de la mort : elle engendre des pesanteurs et même une paralysie incompatible avec la doctrine mili-

194

INTRODUCTION AU SIÈCLE DES MENACES

taire américaine, qui repose sur l’information totale dans les forces et la violence rapide. L’Amérique s’en est passée dans ses interventions au Panama, à la Grenade et aux Philippines, elle aurait fait de même, s’il l’avait fallu, au Koweït. Sa doctrine politique n’a pas encore atteint le stade de l’unilatéralisme du futur président George Bush II, mais elle s’en rapproche. Une crise de plus et le pas sera franchi, non pour des raisons philosophiques, mais, tout simplement, parce qu’à tous les niveaux techniques, les États-Unis se trouvent hors du rang. L’effet de la DIRD se fait sentir.

L’implosion de la Yougoslavie. Seconde période : l’opération Allied Force au Kosovo Les provocations incessantes du gouvernement yougoslave de Slobodan Milošević ont abouti à une situation semi-insurrectionnelle au Kosovo, où la population, qui appartient en majorité à l’ethnie albanaise, donne un soutien de plus en plus marqué à un mouvement nationaliste, l’UCK, certes porteur d’un souhait d’autonomie par rapport à Belgrade, mais aussi composé de mafieux et de racketteurs. Une conférence internationale placée sous l’égide de l’ONU, réunie en février 1999 au château de Rambouillet pour arrêter l’escalade, se termine par une rupture. L’OTAN se décide alors à passer à l’acte, poussée maintenant par la confiance que nourrissent les Anglo-Américains dans l’efficacité de la « force aérospatiale ». L’OFFENSIVE AÉRIENNE

Le 24 mars 1999 commence une offensive aérienne associant quatorze nations membres de l’OTAN contre les forces serbes. Elle s’achèvera après soixante-dix-huit jours de bombardement, le 10 juin. Dès le début, les coalisés ont affirmé qu’ils s’interdisaient de mener des opérations terrestres. Leur objectif était de forcer le gouvernement serbe à reconnaître au Kosovo une certaine autonomie politique et culturelle, par des frappes aériennes sur les forces serbes et sur les « centres de gravité de la Serbie ». En principe, l’opération Allied Force était divisée en trois phases : d’abord la destruction des capacités de défense antiaérienne de l’armée yougoslave, puis celle des capacités de militaires et paramilitaires serbes à mener des actions terrestres au Kosovo, enfin celle des forces armées yougoslaves sur tout leur territoire national. Aucun de

CYBERWAR II

:

LA PRATIQUE

195

ces résultats ne fut atteint17. Beaucoup de critiques ont été émises sur la stratégie mise en œuvre. Le colonel John Warden estimait, en mai 1999, que l’approche suivie avait été bureaucratique, compartimentée et peu compétente. En effet, les principes que ce stratège avait développés pendant la guerre du Golfe préconisaient de mobiliser un maximum d’appareils pour porter, dès les premières heures du conflit, des coups décisifs à l’adversaire. Or le premier jour d’Allied Force, l’OTAN n’aligna que 430 avions dont 230 américains. Lors des trente-huit premiers jours de Desert Storm18, les Alliés avaient effectué 100 000 sorties et largué 226 000 munitions contre 1 200 cibles, alors que pour la même période au Kosovo, 12 000 sorties furent effectuées et 4 000 munitions larguées sur 230 sites. Pendant les trente-huit premiers jours, l’OTAN se borne à 340 sorties par jour dont 130 d’attaque ; ce n’est qu’à partir du cinquantième jour que l’offensive s’intensifie. D’après le secrétaire à la Défense William Cohen, 37 225 sorties eurent lieu au total contre 109 870 pendant la guerre du Golfe. Pour le général britannique Michael Short, commandant de l’opération et responsable du centre d’opérations implanté à Vicenza (Combined Air Operations Center, ou CAOC), des facteurs politiques, c’est-à-dire des divergences entre gouvernements coalisés, ont bridé le rythme et l’ampleur de la campagne aérienne. En fait, les coalisés étaient soumis à la contrainte « zéro mort » ; d’où la lenteur et les précautions imposées aux opérations aériennes. Le commandement allié soucieux de ne perdre ni un aviateur ni un avion laissa ainsi, sans état d’âme, les soldats et policiers serbes circulant en véhicules blindés terroriser des centaines de milliers de Kosovars albanais. La guerre du Kosovo est la première guerre de l’histoire où seuls des civils sont tués. Bien que la presse, les intellectuels de tous bords, les médias, les hommes politiques aient renchéri de sarcasmes, c’est un fait que le 3 juin 1999, sans que les forces terrestres de l’OTAN eussent été engagées, Slobodan Milošević et le Parlement serbe acceptèrent le plan de paix imposé par l’OTAN avec la complicité des Russes, sur des bases quasi identiques à ce qu’ils avaient refusé à Rambouillet (évacuation du Kosovo par les troupes serbes, présence internationale civile et militaire agréée par l’ONU sous contrôle OTAN, administration intérimaire déterminée par le 17. Arnaud Martins Da Torre, « Les illusions dangereuses d’une victoire aérienne », La Revue internationale et stratégique, n° 36, hiver 1999-2000, IRIS, PUF. 18. Yves Boyer, « La force aérospatiale a-t-elle pris l’ascendant sur les autres armées ? », Bulletin de documentation du Centre d’enseignement supérieur aérien, n° 542, mars 2000.

196

INTRODUCTION AU SIÈCLE DES MENACES

Conseil de sécurité, démilitarisation des partisans kosovars de l’UCK, statut du Kosovo maintenu dans la Yougoslavie). Il faut donc admettre que les moyens employés ont permis de résoudre la crise et surtout de la circonscrire, et qu’il s’agit d’un succès complet. Le conflit a permis de valider plusieurs concepts. D’abord, deux concepts organisationnels : le premier est le Global Power, c’est-à-dire la capacité de l’US Air Force à mener des raids à partir du territoire américain. Les bombardiers furtifs B-2 ont été engagés pour la première fois. Décollant de leur base de Whiteman dans le Missouri, ils larguaient leurs bombes JDAM d’une tonne à chaque vol sur seize cibles yougoslaves séparées et retournaient se poser sans escale à leur point de départ. L’USAF déploya les trois types d’appareils de sa force stratégique : les B-52 armés de missiles de croisière ACM-86 et de bombes guidées ou non, les B-1 et les B-2. Ainsi l’USAF affichait-elle sa capacité de frapper tout objectif sur la surface du globe avec une précision décamétrique, par tous temps. Le second concept opérationnel, l’Aerospace Expeditionary Force (AEF), issu de la guerre du Golfe, prévoit la constitution d’unités composées de différents types d’appareils (intercepteurs, bombardiers, ravitailleurs) susceptibles d’être déployés rapidement et de manière autonome pour une durée de quatre-vingt-dix jours. L’USAF disposait, en 1999, de dix AEF, capables, chacun de répondre à une crise limitée. Ensuite ont été validés des concepts paradigmatiques, ceux de la RMA. D’abord, le bombardement de précision (quelques mètres) est devenu une réalité opérationnelle. Des infrastructures vitales ont été détruites chez l’adversaire par des moyens peu nombreux. Ce que deux raids de trois cents B-17 (environ trois mille hommes) larguant trois mille bombes contre les installations allemandes de Schweinfurt n’ont pu paralyser, deux F-117 (deux hommes à bord) le font avec quatre bombes. Les Américains ont utilisé 650 JDAM, et se sont trouvés presque à court de munitions. Aujourd’hui, la production est de 500 par mois. Les armées de l’air d’Italie et d’Israël ont manifesté l’intention de s’en équiper. Boeing développe des bombes assez légères pour que quatre-vingts d’entre elles puissent être larguées en un seul raid par les B-1 et les B-2. Des controverses se sont élevées sur la précision réelle, diminuée par la consigne donnée aux aviateurs de ne pas descendre au-dessous de 15 000 pieds (4 500 mètres) afin d’éviter les coups de la défense antiaérienne serbe jamais neutralisée. En fait, cette limitation n’a pas empêché les smart bombs d’atteindre leur cible à 99 % et a fait baisser le taux de perte à 0,03 % par sortie, à comparer avec 9 % pour les bombardements

CYBERWAR II

:

LA PRATIQUE

197

alliés sur l’Allemagne en 1943. Bien que 630 missiles antiaériens (SAM) aient été tirés contre des avions de l’OTAN, l’Alliance n’a perdu que deux avions, quinze drones et aucune vie humaine. Second concept paradigmatique : il faut séparer les résultats tactiques obtenus sur les éléments de la IIIe Armée stationnée au Kosovo, des frappes stratégiques visant les « centres de gravité » serbes. Pour ce qui est des bombardements tactiques, le Pentagone a prétendu que 27 % des chars (93 sur 350 engagés), 33 % des véhicules de combat d’infanterie (153 sur 450) et 52 % des pièces d’artillerie (389 sur 740) avaient été détruits19. Les pertes serbes s’élèveraient aux environs de cinq mille hommes sur une force de trente-cinq mille aidée de seize mille cinq cents policiers et paramilitaires. Si les résultats avaient été plus mauvais (et c’est bien possible qu’ils l’aient été), rien n’aurait été changé. En effet en ce qui concerne les bombardements stratégiques, planifiés selon la logique des cercles de Warden, la perte de 100 % des capacités de raffinage de pétrole, 70 % de la production d’électricité, 65 % de la capacité de production de munitions, 70 % des moyens d’entretien des avions, les dommages très graves portés aux émetteurs de télévision et aux réseaux ferroviaires et routiers avec la destruction des ponts sur l’ensemble du territoire, cette lente mais irrésistible attaque du domaine cognitif des dirigeants serbes a permis d’aboutir aux résultats politiques escomptés. Les « opérations centrées sur les effets » du Kosovo ont ainsi confirmé la prépondérance du facteur aérien dans la guerre de l’information. Et les Américains ont fourni 70 % des avions engagés par l’OTAN. 20

LA DIMENSION SPATIALE DE LA GUERRE CONTRE LA YOUGOSLAVIE

Durant les opérations de l’OTAN, l’outil spatial a assuré de nombreuses missions traditionnellement dévolues au renseignement, dont les principales étaient la connaissance et le suivi du mouvement des forces armées, la reconnaissance du terrain (cartographie et sa numérisation), le dénombrement et l’identification des cibles potentielles et par suite l’aide à la planification des bombardements et l’appréciation des dommages infligés aux Serbes, la surveillance des mouvements des réfugiés kosovars, la prévision météorologique, élément indispensable à la préparation des 19. Rapport et conférence de presse du général John Corley, 8 mai 2000, cité dans International Herald Tribune. 20. Florence Gaillard, « La dimension spatiale de la guerre contre la Yougoslavie », La Revue internationale et stratégique, n° 36, p. 117-119.

198

INTRODUCTION AU SIÈCLE DES MENACES

raids, la navigation et la localisation des moyens aériens, marins et terrestres, de même que la précision de tir des PGM. En outre, il a garanti, en matière de télécommunications, la plupart des liaisons sur le théâtre des opérations et entre les forces alliées ainsi qu’entre l’OTAN et les États-Unis. En particulier il a permis l’acheminement des données recueillies par les différents systèmes aériens « temps réel » (drones, avions d’écoute ou de reconnaissance). Les moyens spatiaux sont ainsi, dès aujourd’hui, devenus la véritable colonne vertébrale du renseignement, élément vital en temps de crise, de conflit ou de guerre. Pour la conduite de l’opération Allied Force, ils se décomposaient comme suit : • au niveau européen, quatre systèmes militaires étaient opérationnels : Hélios-1A (tripartite : France, Espagne, Italie), observation optique de jour et par temps clair ; Syracuse-2 (français), Hispasat (espagnol) et Skynet-4 (anglais) pour les télécommunications ; • l’OTAN, quant à elle, disposait, en propre, de deux satellites de télécommunications : NATO-4A et 4B ; • seuls les Américains pouvaient exploiter la totalité des ressources spatiales. Ils disposaient d’une cinquantaine de satellites pouvant remplir des missions très diversifiées : pour l’observation, des Lacrosse-2 et 3 et des KH-12 (au nombre de trois) et, pour l’acheminement de l’information, des Milstar, des DSCS-3 et des UHF Follow-On. À ce dispositif s’ajoutaient les satellites de météorologie, ceux pour l’alerte antimissile (cinq satellites opérationnels à la date d’intervention de l’OTAN) et pour l’écoute électronique. Enfin, 27 satellites composaient la constellation GPS pour la navigation-localisation. La liste n’est pas exhaustive : par exemple les satellites d’écoute sont couverts par le secret. À ces liaisons, il faut ajouter le contrôle et la gestion des satellites de télécommunications NATO-4 (OTAN comme son nom l’indique) et Skynet-4 (britannique) par la station américaine d’Onizuka (Californie) de l’USAF ; • des moyens civils furent mis à contribution, notamment pour l’observation, avec l’utilisation des images de Spot (français), Landsat (américain), IRS (indien) et pour les télécommunications avec le réseau d’Inmarsat. En dehors du recueil premier des informations, toute une organisation a été mise en place par les Américains, en Europe même, pour assurer l’utilisation des données satellitales. Un accord entre le NRO, la NIMA et les Forces armées a permis de créer une structure appelée OSO (Operational Support Office) pour gérer le flux des données temps réel relatives au déroulement

CYBERWAR II

:

LA PRATIQUE

199

des opérations sur le théâtre. De plus, les mêmes agences ont commencé à employer le RTS (Rapid Targeting System) qui prépare le ciblage à partir de données recueillies par JSTARS ou UAV, fusionnées avec des images satellites rendues disponibles à un très bas niveau de classification. Ces organes sont placés au PC de commandement et de conduite, le CAOC. Outre les unités américaines assurant la gestion des moyens spatiaux et la préparation du réseau de communications d’Allied Force, un officier de liaison a été placé auprès du commandement suprême allié en Europe (SACEUR) ; il constituait le lien direct entre l’US Space Com et le général Clark commandant les forces de l’OTAN engagées. La leçon du Kosovo est claire. Désormais, la puissance aérospatiale peut façonner le cours des événements en limitant, modérant ou contrôlant l’escalade grâce aux outils dont elle dispose : systèmes de surveillance, de traitement et de diffusion de l’information, et de frappes précises. Si l’espace a pris la place prépondérante dans la constitution de banques de données, indispensables aussi bien pour la gestion de crises à haut niveau que pour la fabrication des cartes et de MNT, et qu’il contribue à leur rafraîchissement en temps quasi réel, il joue désormais un rôle majeur dans la conduite de la bataille aérienne par le fait qu’il fournit son architecture à la boucle OODA. Grâce aux progrès accomplis depuis la guerre du Golfe en matière de recueil de renseignement et de traitement de l’information, les avions de l’OTAN participant à l’opération Allied Force étaient en mesure de recevoir des informations collectées par des U-2 ou des drones et qui, traitées sur la base aérienne américaine de Beale en Californie, étaient envoyées dans un délai extrêmement court au CAOC à Vicenza. L’OTAN pouvait ainsi attaquer des cibles d’opportunité dont les coordonnées avaient été transmises au poste de commandement aéroporté (Airborne Command Center, à bord d’un avion C-130 de l’US Air Force) qui se chargeait de sélectionner les avions en patrouille pour traiter les cibles repérées. C’est ce qui s’est produit à différentes reprises lorsque, par exemple, des chasseurs bombardiers F-15E recevaient des informations en temps quasi réel pour prendre à partie des sites de missiles serbes sol-air SA6. On voit se confirmer sur le théâtre l’aspect système de l’intervention spatiale. Pour effectuer un tir d’artillerie, les cibles sont désignées par une fusion de données de renseignement, en partie recueillies par les satellites d’écoute. Les projectiles sont guidés par GPS. L’ensemble est structuré par les liaisons qu’assurent les satellites de télécommunications. Se met déjà en place le concept de dominance assurée par les trois constellations de communication, navigation et renseignement, mais de plus ces systèmes sont

200

INTRODUCTION AU SIÈCLE DES MENACES

intégrés dans un système de systèmes : la doctrine Perry-Owens est suivie à la lettre. Beaucoup de commentateurs ont critiqué l’emploi de la seule arme aérienne au début des opérations, pour faire amende honorable à la capitulation de Milošević. Ils n’avaient pas compris que ce n’était pas une guerre aérienne qui était menée par l’OTAN, c’est-à-dire par les États-Unis, mais une guerre aérospatiale. LE GRAND ET LES PETITS

L’organisation de la gestion des données par transmissions satellitales répond à la domination quantitative et qualitative américaine. En conséquence, s’il existait bien une structure de coordination regroupant plusieurs pays alliés et les forces armées américaines, pour recueillir, traiter et distribuer le renseignement, des critiques se sont élevées pour dénoncer une transmission parcellaire des informations de la part des Américains. Ainsi Dieter Schanz, président du Comité Espace au Bundestag, déclarait le 17 mai 1999 : « Here we are involved in a conflict together and we have only restricted access. » Il paraissait clair que « les alliés européens n’avaient pas accès aux analyses globalisantes du renseignement américain provenant de leur cinquantaine de satellites ». Dans une guerre aérienne menée par une coalition, l’essentiel est le choix des cibles, qui ne dépend pas seulement de considérations militaires. Il est confié par l’OTAN à un Targeting Committee où les partenaires importants sont représentés : toute frappe doit avoir été approuvée par un représentant politique de chacun des membres de la coalition, ou « legal adviser », afin d’évaluer l’importance des éventuels dommages collatéraux. Les Américains se sont bien gardés de fournir à leurs alliés les informations recueillies par leurs capteurs « secrets » (sur satellites et sur avions) et ont élaboré à partir de leurs connaissances les listes de cibles de bombardement sur lesquelles les alliés devaient choisir ce qui leur convenait. Ils ont ainsi imposé leur stratégie d’un bout à l’autre du conflit. Les discussions ont été violentes, surtout lorsque les Français qui ne portaient que 13 % de l’effort aérien, prétendaient interdire à tous, en particulier aux Américains, de bombarder certaines cibles qui leur paraissaient à sauvegarder pour des raisons de politique et de politique parfois française. L’expérience a montré que seules des propositions reposant sur un renseignement sûr permettaient d’éviter le recours à de très hautes instances. Ce dernier n’est évidemment pas compatible, s’il se généralise, avec une gestion saine

CYBERWAR II

:

LA PRATIQUE

201

de la coalition. Renseignement sûr signifie entre autres données, images de résolution décimétrique, dont seuls disposent les Américains… Après des éclats de voix incroyables, les Français (non les militaires, mais leurs patrons parisiens) qui passaient déjà pour des fanfarons ridicules et impuissants, ont été classés comme des nuisants à n’incorporer en aucun cas dans une coalition. Jusqu’à présent, les États-Unis ont réussi à la fois à surveiller les autres pays grâce à des moyens de renseignement inégalés, et aussi à informer leurs alliés sans que ces derniers eussent la capacité de vérifier la véracité des allégations. L’OTAN ne dispose pour son renseignement ni d’instruments, ni d’un système propre et indépendant. Le renseignement OTAN est constitué par ce que les États membres, c’est-à-dire les États-Unis pour 70 à 80 %, veulent bien mettre à la disposition commune. Certaines des sources sont spatiales, par exemple les transcriptions de conversations enregistrées par les satellites d’écoute, ou des analyses, sous forme de textes, d’images à haute résolution prises par des satellites américains Keyhole ou Lacrosse. Si les États-Unis approuvent une opération, comme dans le cas de l’opération Épervier, menée par la France au Tchad en 1986 et 1987, ils fournissent du renseignement, et précieux, y compris des images d’intérêt tactique. Sinon, ils coupent le robinet. Par exemple, pendant la guerre en Bosnie, l’Allemagne a cessé de recevoir les informations américaines qu’elle utilise habituellement. Autre exemple, l’opération Sharp Guard visait de 1993 à 1995 à faire respecter l’embargo décidé par les Nations unies sur la circulation des armements autour de la Bosnie. Lorsque le Congrès américain a cessé de soutenir cet embargo en novembre 1994, la France et la Grande-Bretagne ont été privées de renseignement spatial américain sur les mouvements de bateaux dans l’Adriatique. La faiblesse militaire de l’Europe et sa dépendance des ÉtatsUnis ont éclaté comme un véritable facteur géopolitique de première grandeur, compris par les Américains et minimisé par les Européens. Le général allemand Klaus Naumann, président pendant trois ans jusqu’en 1999 du Comité militaire de l’OTAN, a osé dire en mai 1999 : « Toutes ces merveilleuses déclarations sur la Défense européenne et l’identité de sécurité me font admirer l’imagination des politiciens qui les rédigent. Nous n’avons pas de munitions tirables à distance et sommes obligés de nous rapprocher de la cible, ce qui est la chose la plus stupide que vous puissiez faire. »

202

INTRODUCTION AU SIÈCLE DES MENACES

Or la précision des frappes et la longueur de l’allonge se sont substituées à la puissance de feu et à l’attrition. Elles représentent l’avantage asymétrique des États-Unis sur toute autre puissance militaire.

La guerre contre les talibans Avant les attentats organisés le 11 septembre 2001 par le réseau islamiste Al-Qaida, les États-Unis exerçaient de facto sur la société internationale une domination qu’aucun empire n’avait possédée avant eux. Ils n’éprouvaient cependant pas tout à fait la volonté de s’imposer. Le 11 septembre leur a donné cette volonté en plaçant les questions de défense au premier rang de leurs préoccupations : l’attaque d’un ennemi inattendu, caché, portée avec succès contre les symboles de leur puissance était avant tout un fait militaire, et c’est bien ainsi que le perçut le président Bush II, d’une part en affirmant que le pays était entré dans la guerre contre le terrorisme, et d’autre part en augmentant aussitôt de 48 milliards de dollars le budget du DoD, somme supérieure au budget de la Défense britannique. L’événement a précipité la cristallisation de tendances que l’équipe gouvernementale, où abondent les vétérans blanchis sous le président Reagan, n’avait pas dissimulées, dès son arrivée au pouvoir. Le 22 janvier 2001, Le Monde avait publié une interview de Richard Perle, ancien sous-secrétaire à la Défense, devenu président de l’influent Defense Review Board du Pentagone, dont suivent les passages les plus significatifs : « Question : Approuvez-vous les efforts de défense européens ? Réponse : […] L’Europe est-elle prête à payer pour une défense véritablement indépendante, sans avoir besoin de notre aide logistique et de renseignement ? Elle en est encore bien loin. Certains veulent une Europe plus indépendante, mais la plupart veulent l’apparence de l’indépendance sans dépenser d’argent. Pour le moment il ne s’agit que de mots, et les mots ça ne coûte pas cher. Vous parlez d’organisation, de structures, de processus de décision et pas d’augmentation des investissements ; ça ne va pas bien loin. Or c’est le cœur du problème. […] Nous sommes inquiets de la faiblesse des dépenses militaires et des capacités réelles de défense de l’Europe. Nous voulons une Europe plus étroitement intégrée, mais avec laquelle nous ayons de bonnes et confortables relations. Sinon, il faudra en tirer les conséquences comme c’est déjà le cas pour certaines questions et pour certains pays. »

Le message est clair : nous, les États-Unis, possédons un système de défense car nous lui consacrons le financement néces-

CYBERWAR II

:

LA PRATIQUE

203

saire. Les autres nations n’en ont pas, et elles n’ont donc pas droit à la parole dans les affaires du monde. Le lecteur de ces pages ne sera pas surpris par la vigueur des propos de Perle, qui ne traduisent que la plus stricte vérité. Ils n’en méritent que plus d’attention. Nous avons insisté sur l’extraordinaire élargissement du fossé qui sépare aujourd’hui la puissance militaire des États-Unis et celle de leurs alliés. Hubert Védrine, ministre français des Affaires étrangères, déclara dans la semaine qui suivit la destruction du World Trade Center, que les relations entre les États-Unis « humiliés », le reste du monde et les institutions internationales, devraient changer parce que les méthodes américaines étaient devenues impossibles. Démentant cette analyse, le président Bush II a immédiatement engagé une contre-offensive en ne mobilisant que ses propres forces. Alors que les alliés de l’OTAN ont offert leur aide collective, le 12 septembre 2001, en vertu de l’article 5 du traité de 1949 portant sur la solidarité défensive des partenaires, pour la première fois dans l’histoire de l’Alliance, les États-Unis leur ont fait savoir qu’en ce qui concernait les réalités de la guerre « we will call you if we need you ». Cette phrase choisie pour titre d’un excellent article21 de John Vinokur, expose clairement le message envoyé aux ministres de l’OTAN réunis à Bruxelles à la fin de septembre. À la proposition faite par le chancelier allemand Gerhard Schröder de fournir des troupes pour combattre sur le terrain, les Américains ont répondu qu’ils refusent les soldats mais acceptent les dollars, selon le précédent de la guerre du Golfe. La Suddeutsche Zeitung a écrit que les Américains appliquent la méthode du « raisin dans le gâteau », choisissent ce qui leur plaît et jettent presque tout le reste. La décision des États-Unis de réserver un rôle actif en Afghanistan à leurs propres forces s’explique par deux raisons : d’une part les aviateurs ne souhaitent pas être embarrassés dans la conduite de la guerre aérienne par des considérations politiques du genre qu’introduit un Jacques Chirac et, d’autre part, le DoD, voulant imposer sa vision des événements à la presse mondiale, ne tolère aucun témoin des dommages collatéraux infligés par ses troupes. De toute façon, les États-Unis ayant été attaqués, considèrent que la riposte est leur guerre. Ils appliquent le concept de nationcadre (Nation Lead) qui ne permet pas à des alliés de participer directement à la planification des opérations. George Bush a 21. International Herald Tribune, 3 octobre 2001.

204

INTRODUCTION AU SIÈCLE DES MENACES

décidé d’éliminer les talibans qui dominent l’Afghanistan et protègent Al-Qaida ; l’exécution est planifiée et conduite par le Central Command localisé à Tampa (Floride) et contrôlée par les hautes autorités américaines. Pour diriger les opérations aériennes, le JFACC et le CAOC sont installés sur la base Prince Sultan, à AlKharj en Arabie Saoudite. Leurs communications utilisent des systèmes spécifiques de l’US Air Force, non interopérables avec l’OTAN. Il en sera de même pour les communications des Forces spéciales engagées au sol. Les commentateurs, les hommes politiques et en général l’opinion publique mondiale promettent l’enlisement aux Américains. Le journal madrilène El Pais publie, le 23 septembre, les interviews de cinq officiers soviétiques, vétérans endurcis de la campagne d’Afghanistan (1979-1989). • Général Boris Gromov, aujourd’hui gouverneur de la province de Moscou : « Pour un combattant, il faut trois ou quatre soldats chargés de le ravitailler. » • Colonel Eugene Zelenov, dernier soldat à évacuer l’Afghanistan en 1989 : « Prévoir vingt hommes contre un combattant afghan […]. Sans armes de destruction massive ou chimique, le bombardement aérien ne délogera personne dans les montagnes. » • Général Rouslan Aushev, héros de l’Union soviétique, aujourd’hui président de la république d’Ingouchie : « Les Américains doivent beaucoup réfléchir, nous n’avons pas assez réfléchi. […] Toute la puissance s’abattra sur les civils […] on peut écraser l’Afghanistan, mais pour le conquérir, les pertes seront énormes. » • Général Alexandre Rütskoï, héros de l’Union soviétique, ancien président de la république de Russie : « Bombarder pour se venger ne sera qu’une farce politique. […] L’Afghanistan ne sera pas une guerre éclair. […] Si les Américains entrent en Afghanistan, ils auront encore plus de problèmes que les Soviétiques. » • Colonel Franz Klintsevitch, dirigeant du parti russe gouvernemental Edinstvo (Unité) : « Il faut retarder le plus possible l’intervention des troupes terrestres. […] Les États-Unis doivent s’attendre à une guerre de plusieurs décennies, sauf à tuer toute la population. » Personne en dehors des États-Unis ne comprend qu’après le passage aux laboratoires du Golfe et du Kosovo, les leçons apprises et bien apprises par l’establishment militaire américain ont fait éclore la RMA dont les principes vont directement s’appliquer. La campagne américaine en Afghanistan, menée depuis l’automne 2001, n’a fait que confirmer les tendances des dix dernières années. Elle a reposé sur la notion d’Information Dominance. Les forces américaines ont donné une démonstration de ce

CYBERWAR II

:

LA PRATIQUE

205

que peut être une conduite d’opérations irriguée par un système spatial où les trois catégories de satellites sont connectées les unes aux autres avec une prépondérance du rôle capital joué par GPS. Il faut d’abord considérer l’activité avant-crise qui consiste à acquérir une connaissance approfondie de l’adversaire et du théâtre éventuel, grâce essentiellement aux satellites d’observation. On passe ensuite à la conduite des opérations sur le théâtre qui, dans la doctrine américaine, sont avant tout aériennes. L’effort est porté sur l’accélération de la boucle OODA. La guerre aérospatiale commence à faible intensité le 7 octobre 2001. Le directeur de la CIA George Tenet persuade le président Bush d’acheter les chefs tribaux pour 70 millions de dollars. Les forces spéciales sont mises en place dès le 15 auprès de l’Alliance du Nord, une coalition hétéroclite d’Afghans antitalibans. À la fin du mois, des bottes et des uniformes neufs lui sont livrés. Le rythme des opérations s’accélère soudain. En une semaine le régime taliban est détruit, le territoire qu’il contrôle passe de 90 % à 10 % du pays. Ses vingt-cinq mille combattants subissent 30 % de pertes. Le 10 novembre, Mazar-e-Charif, puis Kaboul le 13, puis Kunduz le 26, tombent aux mains des irréguliers soldés par les Américains. Le 6 décembre, le mollah Omar, chef des talibans, s’enfuit de Kandahar. L’opération appelée Enduring Freedom est le premier conflit où le renseignement a été l’arme principale des Américains, qui ont disposé d’un ISR « persistant » (capacité de maintenir la surveillance vingt-quatre heures sur vingt-quatre), intégré aux niveaux tactiques et opératifs et contrôlant le recueil des données. Les capteurs, moyens sol, drones, avions, satellites communiquaient en permanence avec le CAOC ou entre eux, en dépit de la difficulté du terrain ou des vents de sable. La pratique différait beaucoup de celle du Kosovo où le ciblage se faisait encore parfois sans référence aux priorités du haut commandement ; par exemple des avions y étaient détournés de cibles importantes telles que l’infrastructure, pour attaquer des tanks. En Afghanistan, l’ISR explique le ciblage aux opérationnels plus en amont dans le processus : ceux qui frappent sont très savants sur la cible avant d’y parvenir et sont mieux armés pour éviter tant les menaces que les dommages collatéraux sur les personnes et sur l’environnement. Les Afghans n’ont jamais cédé sous la pression des bombardements soviétiques. La méthode américaine les annihile. Elle repose sur la mise en place d’un trio tactique : 1° L’engagement de bombardiers à longue portée. Les B-52 effectuent 10 % des missions et larguent 70 % des munitions, 16 JDAM à chaque bord. Ils sont basés dans l’île de Diego Garcia à

206

INTRODUCTION AU SIÈCLE DES MENACES

3 500 km de leur cible. Les B-2 constituent une flotte de 24 avions basés aux États-Unis. Les B-1 sont les seuls à opérer d’une base terrestre rapprochée, celle d’Oman, à 1 800 km. Les F-16 et F-117 n’ont que 900 km d’autonomie. Leur fonction de bombardement est destinée à disparaître, comme le montre le tableau suivant qui présente le prix d’une munition larguée, pour les différents types d’avions : Type

F-117

F-16

B-2

B-52

B-1

2

2

12

16

24

Base de départ du raid

900 km

900 km

États-Unis

Diego Garcia

Oman

Coût d’une bombe larguée (dollars)

35 550

17 760

7 540

5 120

3 690

Nombre de JDAM embarqués

De fin octobre à fin novembre 2001, sept mille PGM, missiles ou JDAM guidés par GPS, sont lancés, représentant 32 % des munitions. L’Afghanistan ouvre une nouvelle ère pour le bombardement où les B, de stratégiques devenus avions tactiques, remplaçent les avions d’assaut. Grâce à la précision, les raids peuvent ne comprendre plus que deux avions, ce qui simplifie la logistique du ravitaillement en vol. Le nouveau modèle B-2 de chez Gruman portera bientôt 250 bombes, chacune largable sur une cible différente. Une sortie suffira pour détruire l’infrastructure d’une ville entière. L’allonge de la frappe prônée par la RMA a donc été obtenue en Afghanistan, et les États-Unis ont montré qu’ils n’avaient pas besoin de bases situées dans les pays étrangers. 2° Les liaisons digitales très développées avec des unités mobiles opérant au sol. Les forces spéciales organisées en petits groupes, flexibles, dotés de téléphones portables et de PC, opèrent dans un espace balisé par GPS : la riposte des États-Unis quand Netwar s’aventure sur un terrain ouvert, repose sur GPS. La fonction principale de ces unités n’est pas de se battre mais de désigner les cibles à l’aviation par laser. Nous avons quitté le temps des gros bataillons. La high-tech a changé la dynamique de la bataille, où nos forces se réduisent maintenant à quelques centaines d’hommes et douze bombardiers. Comparez avec l’Armée rouge, il y a seulement quinze ans.

CYBERWAR II

:

LA PRATIQUE

207

Chargées d’armement high-tech, les forces spéciales apportent leur soutien à une rébellion équipée de matériels hors d’âge par les Russes, face à une troupe talibane dotée de fusils d’assaut et de quelques balles. Les États-Unis utilisent la combinaison de leurs types d’armes. Ainsi la Task Force 58 composée de marines accomplit la plus longue des missions d’assaut jamais confiées à ce corps. À partir du porte-aéronefs Kitty Hawk, des hélicoptères AH-1-W Cobra, UN-IN Huey et CH-53E Super Stallion, appuyés par des avions anglais Harrier à décollage et atterrissage vertical, amènent près de Kandahar une troupe de quinze cents hommes avec ses matériels, après 650 km de vols en rase-mottes. La difficulté de la guerre ne réside pas dans la technique ; elle consiste, selon les mots du secrétaire d’État Colin Powell, à faire coopérer « une aviation du premier monde avec une armée du quartmonde, des bombardiers B-1 avec des types à cheval ». Tout le secret est dans les moyens de communication et de localisation. Dès le 7 octobre, un capitaine, Jason Amerine, a eu pour mission, avec dix hommes, de trouver un chef pachtoun qui pourrait jouer les rassembleurs. Il recrute Hamid Karzaï (qui deviendra en 2002 le président de l’Afghanistan délivré des talibans). « Hamid a organisé les ralliements, a expliqué l’officier au Washington Post. À mon avis, l’outil le plus efficace de cette guerre aura été son téléphone. […] Tant qu’on a un portable, on peut y aller en petite tenue, avec des babouches et faire notre travail. » 3° Les drones Predator employés pour porter des capteurs. Tout le monde a envie de leur donner de nouvelles missions. Ainsi des capteurs sismiques ont été déposés au sol, munis d’un petit émetteur, pour détecter le passage de véhicules. Une liaison radio a été installée à bord, qui permet une transmission de données vidéo ou autre par satellite au CAOC ; un avion d’assaut comme le AC-130, dit canonnière volante, reçoit des images en temps réel via le CAOC, seul endroit où soit disponible une vue complète de la bataille aérienne : l’ISR dirige directement les missions. Autre nouveauté : quelqu’un bricole un missile Hellfire sur un Predator, et, après de courts essais de validation, l’engin montre son efficacité en tapant sur les talibans. Le 4 février 2002, il leur tue trois hommes dans la région de Zawar Khili, au sud-est du pays. L’emploi de l’engin comme canonnière se généralise aussitôt. L’US Air Force l’adoptera dès la fin de l’année pour détruire des sites antiaériens dans le sud de l’Irak, et la Special Activities Division de la CIA pulvérisera le terroriste Ali Al-Harthi, dit Abou Ali, tenu pour responsable de l’attentat contre le destroyer USS Cole en octobre 2000, alors qu’il se promène le 4 novembre 2002 avec cinq de ses camarades dans la province de Marib, à l’est de Sanaa

208

INTRODUCTION AU SIÈCLE DES MENACES

au Yémen. Le nouveau concept UCAV (Unmanned Combat Aerial Vehicle) s’ajoute à celui de drone « classique » UAV (Unmanned Aerial Vehicle). Où en est la boucle OODA en Afghanistan ? Un satellite SIGINT reçoit une alerte, il envoie l’information au CAOC qui trouve la plate-forme de renseignement la plus proche (JSTARS, AWACS…) et l’envoie sur zone pour contrôler l’engagement local. Un drone rapide Global Hawk arrive, guidé ou non par un JSTARS ; il observe la cible et fournit ses coordonnées à un AC130 pour « traitement ». Le BDA est confié à un autre drone communiquant par satellite avec le J-FACC. La durée de la boucle, qui valait quarante-huit heures au Kosovo, est descendue à six minutes en Afghanistan. Il a fallu beaucoup de travail, d’expérience, de temps et d’argent pour obtenir le fonctionnement correct d’un tel mécanisme. Tout cela élimine la possibilité pour les non-Américains, en particulier les Européens, de participer de façon significative aux opérations militaires. Lorsqu’un Mirage de reconnaissance français engagé en Afghanistan se pose sur le terrain, mission accomplie, six heures au moins sont nécessaires pour que l’ensemble de ses photographies (argentiques) parviennent au CAOC. Le général commandant les forces aériennes françaises sur le théâtre d’Afghanistan a son PC au CAOC, mais il n’a pas accès aux informations clés permettant de conduire les opérations. Son rôle se réduit à calmer des interlocuteurs chaque jour exaspérés par les déclarations tonitruantes d’Hubert Védrine à Paris. Pour planifier les vols des avions français présents sur le théâtre, il ne dispose jusqu’en janvier que de deux lignes téléphoniques (Syracuse). Pour la première fois, des unités françaises ont été placées directement sous commandement américain, puisqu’on ne parle plus de coalition. Leur gouvernement se rengorge des compliments du président Bush II, qui en mars 2002 les a citées en tête de son énumération des pays contributeurs. Et il y a de quoi : les Mirage 2000 D basés sur l’aérodrome Manas au Kirghizistan ont largué 51 bombes de 250 kg, et les Super-Étendard 12 bombes BLU-111. Les frappes ont atteint 32 objectifs22. La leçon à tirer de l’évolution des opérations militaires dans les dix dernières années, c’est que la force aérospatiale des ÉtatsUnis leur confère désormais à l’intérieur de toute coalition une écrasante supériorité dans tous les secteurs militaires. À chacun des épisodes guerriers que nous avons analysés, cette domination s’est accrue. La combinaison de GPS et des satellites de télécom22. Comparer au tableau p. 162.

CYBERWAR II

:

LA PRATIQUE

209

munications totalement intégrés aux boucles de commandement et d’action en sont le facteur décisif, grâce à leurs capacités en temps réel ; qui n’a pas de capacité temps réel est éjecté de la coalition. C’est le risque couru par les Européens distancés par leur doctrine obsolète, leur pratique militaire antédiluvienne, leur manque de systèmes de communication et l’inexistence de leurs moyens spatiaux, insuffisance militaire à laquelle s’ajoute leur suffisance politique. L’offre militaire possible de l’Union européenne est si faible par rapport aux moyens américains qu’il est préjudiciable aux États-Unis de s’encombrer d’une coalition où chaque allié veut marquer son territoire au prix d’une contribution insignifiante. Qu’est-ce désormais qu’une guerre menée aux côtés des États-Unis ? Les Américains bombardent et les Alliés leur fournissent une feuille de vigne au Conseil de sécurité, puis sont priés de payer la reconstruction. Il ne peut plus y avoir de véritable coalition, mais, le cas échéant, le regroupement de harkis autour d’un corps américain : le tsar ne peut coopérer avec les moujiks, mais seulement leur donner des ordres. L’information n’est plus un simple outil mais le support, le moteur et l’objectif de la stratégie. La bataille de l’information ne se livre pas qu’à l’intérieur de l’organisation militaire, mais aussi sur le front de l’interface du DoD avec le public. D’emblée, dès le 11 septembre, le Pentagone a établi un contrôle sur sa communication avec le monde extérieur beaucoup plus étanche que lors des conflits précédents (rappelez-vous la Somalie). Les images ont été distribuées au compte-gouttes, l’accès au théâtre rendu impossible. Les pleureuses ont ainsi été asphyxiées. Les journalistes se sont résignés à poser des questions qui resteront sans réponse. Ces réponses, ni leurs supérieurs hiérarchiques ni le public n’ont envie de les entendre. Le directeur de la chaîne CNN, Walter Isaacson a donné pour consigne de ne pas insister à l’antenne sur les victimes civiles afghanes. Les cadavres montrés sont ceux de talibans exécutés par des soldats de l’Alliance du Nord. Il n’y a làbas que des sauvages qui règlent leurs comptes entre eux.

Coup d’œil sur le moteur de l’évolution Jusqu’à la guerre du Golfe, l’espace militaire était strictement considéré comme stratégique. Les satellites livraient leurs produits aux agences nationales et au Pentagone. Jamais les troupes sur le théâtre ne voyaient l’image d’une cible. Quand le général Charles Horner, après avoir dirigé les forces aériennes dans le

210

INTRODUCTION AU SIÈCLE DES MENACES

Golfe, reçut le commandement du Norad et de l’Air Force Space Command, il était résolu à « apporter l’espace au combattant » et se battit avec succès, en particulier contre le NRO, pour faire descendre l’information d’origine spatiale aux commandants du front. Le désastre de Somalie souligna l’importance de l’arrivée au bon moment du flux d’information : l’incapacité d’un commandant opérant d’un avion, à parler directement à un convoi perdu dans les rues de Mogadiscio aggrava une mauvaise décision. « Dans les opérations militaires modernes, le délai signifie la mort », déclara le lieutenant-général Harry Raduege, directeur de l’Agence des systèmes d’information de défense. Le coup de semonce somalien renforça le mouvement pour « opérationnaliser l’espace ». Ainsi s’est imposée la doctrine mise en œuvre en Afghanistan qui place en priorité l’accélération des boucles OODA. La guerre contre Al-Qaida, bien que considérée comme un succès du point de vue militaire, a cependant souffert de certaines déficiences. Les opérations reposant sur un grand flux d’information exigent beaucoup de bande passante. Le manque de bande, déjà criant au Kosovo, s’est fait plus sentir encore en Afghanistan, à cause du rôle éminent joué par les Predator et les Global Hawk, incroyablement gourmands. Au début leur utilité semblait limitée à la transmission d’images au CAOC ou à Tampa, et leurs pilotes basés au Pakistan n’étaient pas censés parler aux combattants sur le terrain ou aux aviateurs qui le survolaient. Mais après quelques semaines, quand ils furent équipés d’une liaison satellite, les drones entrèrent dans la boucle des missions d’appui rapproché. La communication entre les UAV et leur centre de contrôle utilisait la bande commerciale Ku, de sorte que le Pentagone dut louer des lignes en quantité énorme à des compagnies privées. Le 11 septembre, le DoD loua 100 Mb/sec pour les besoins du Central Command (qui inclut l’Afghanistan) et porta cet effort à 300 Mb/sec en avril et 800 Mb/sec bientôt après. Même pour les opérations en Afghanistan, beaucoup plus limitées que celles du Golfe ou du Kosovo, la capacité offerte ne suffisait pas. Des six Predator et deux Global Hawk présents en Afghanistan, seuls deux Predator et un Global Hawk purent voler simultanément. Afin d’économiser la capacité satellitaire, les pilotes des Global Hawk ont dû arrêter le fonctionnement de certains capteurs et transmettre des données vidéo de qualité dégradée. Le défaut de bande ne sera pas comblé pendant la prochaine décennie. Le Defense Science Board estime les besoins des forces armées dans un conflit majeur en 2010 à 16 gigabits/sec (équivalent à 208 000 appels téléphoniques). Pendant la guerre du Golfe, l’armée de cinq cent mille hommes disposait de 100 Mbits/sec. Le

CYBERWAR II

:

LA PRATIQUE

211

général Raduege note que l’opération Enduring Freedom, qui mobilise dix fois moins d’hommes, emploie sept fois plus de bande : « De tels chiffres offrent un dramatique témoignage de notre saut dans l’Information Warfare et la guerre réseaucentrique. » Les trois satellites militaires de télécommunications qui seront lancés entre 2004 et 2006 n’ajouteront que 6 à 7,5 Gigabits/ sec. On sera bien loin de satisfaire les besoins, car la demande continue de croître avec la mise en service d’armes de plus en plus dévoreuses de données. Les commandes prévues pour 2003 de vingt-deux Predator, douze Shadow et trois Global Hawk aggraveront la situation : un seul Global Hawk exige 500 Mb/sec, cinq fois plus que la bande totale consommée par toutes les forces américaines déployées pendant la guerre du Golfe !

Conclusion De nombreux stratèges, surtout européens, estiment nécessaire au succès militaire l’intervention des troupes au sol et citent Napoléon : « En amour comme à la guerre, pour conclure il faut se voir de près. » Cependant, au cours des conflits les plus récents au Kosovo et en Afghanistan, la puissance aérospatiale a suffi pour mettre l’adversaire, Milošević ou talibans, hors de combat. La résolution des conflits dont nous avons brièvement retracé le déroulement n’a-t-elle été obtenue que par une application moderne de la doctrine de l’Air Power selon laquelle l’emploi massif d’une aviation stratégique pourrait emporter la décision ? Non. Le débat ne se pose pas vraiment dans ces termes : les ÉtatsUnis mettent en œuvre dès maintenant l’Information Warfare. Si comme le remarque Philippe Richardot23, « les matériels sont restés ceux des années 1980, améliorés seulement par des gadgets informatiques ou infrarouges », leur utilisation procède d’un autre paradigme. Les NTIC constituent l’arme nouvelle. Leur emploi est double : du point de vue conceptuel et stratégique, il se déroule dans l’infosphère et sous-tend une politique d’influence dont l’objectif est d’inhiber la volonté et les capacités de l’adversaire ; du point de vue technique et opérationnel, il vise à perfectionner la gestion du champ de bataille. L’objectif est la guerre « zéro mort » où les Américains ne s’engageront plus physiquement : si elle n’exclut pas l’affrontement sur le terrain, elle en 23. Philippe Richardot, Les États-Unis hyperpuissance militaire, Paris, Economica, 2002.

212

INTRODUCTION AU SIÈCLE DES MENACES

laisse le risque à des alliés subalternes. La bataille, dominée par la double et contradictoire nécessité d’une part de laisser circuler l’information et d’autre part de vider cette information de tout contenu émotionnel, se livre dans le cyberespace. En fait, le Pentagone est déjà parvenu à l’édification d’un cyberespace contrôlé, où se déroulent les opérations principales. Est en voie d’être atteinte la première étape qui consiste à acquérir la maîtrise des moyens et des boucles. La deuxième étape consistera à mettre hors jeu et paralyser les capacités de l’adversaire à coups de frappes électromagnétiques et de virus informatiques. Si les opérations en Afghanistan ont démenti les prévisions des professionnels russes et autres, c’est que le Pentagone a développé un ensemble de technologies qui donne à ses troupes la capacité non seulement de trouver l’ennemi dans l’obscurité, le brouillard, la poussière, les bâtiments et la forêt, mais aussi de le frapper quelques minutes après l’avoir détecté et identifié. Dans les prochaines années, un adversaire éprouvera toujours plus de difficultés à se cacher de la vue perçante des satellites, des avions et des drones. Dans dix ans l’arsenal américain disposera de capteurs et d’armes encore plus rapides, plus précises et plus létales. La paix n’en sera pas mieux assurée, car les opposants à l’empire américain adopteront de nouvelles méthodes, comme le fait Al-Qaida. La guerre asymétrique, vocable introduit vers 1997, n’est rien d’autre que la riposte victorieuse de David à Goliath. La RMA peut dominer le champ de bataille, mais Netwar peut gagner la guerre. Des plans sont discutés pour défendre les pays développés, leur infrastructure et leur population contre les attaques venues de réseaux doués d’ubiquité, auxquels la « société de l’information » offre des possibilités infinies ; le moins qu’on puisse écrire est qu’on s’interroge sur la capacité des États à vaincre Netwar par des moyens militaires. On notera que le traitement des crises par la guerre, tel qu’il a été pratiqué par les États-Unis et leurs séides dans les dix dernières années, laisse le terrain vide après que les Américains ont décidé de se retirer : en Irak où ils n’ont pas voulu pénétrer après les quatre jours de combat terrestres en 1991, en Somalie d’où ils ont fui, en Bosnie et au Kosovo où ils n’avaient pas envoyé un seul soldat, ils n’ont nulle part la volonté de procéder à la reconstruction politique du pays dévasté et rejettent explicitement toute participation au Nation Building qu’ils avaient pourtant réussi en Allemagne et au Japon après 1954, alors qu’avec générosité ils revitalisaient l’Europe et créaient la communauté atlantique. La tâche leur paraît-elle trop lourde, trop difficile et trop coûteuse ? Ils en laissent volontiers la charge à d’autres, par exemple aux

CYBERWAR II

:

LA PRATIQUE

213

Européens, à condition d’en édicter les principes et d’en tirer les profits économiques. Leur attitude a peut-être changé parce que l’argent joue un bien plus grand rôle dans la façon dont l’Amérique est gouvernée depuis la décision de la Cour suprême de protéger les fonds dépensés pour les élections et pour la promotion à Washington des intérêts privés et commerciaux, transformant une république représentative en une ploutocratie. Le pays a cessé d’apparaître à ses propres yeux comme le cœur de la mondialisation heureuse. Les entreprises multinationales qui constituent le fer de lance du pouvoir américain dans le monde se présentent comme le lieu toujours possible d’une corruption mise en œuvre par un nombre limité d’actionnaires au détriment de tous les autres. Des acteurs vedettes du grand capitalisme, Enron, World Com, Arthur Andersen, Adelphia ou Xerox sont devenus synonymes d’escroquerie. Le président Bush II, dans les années 1980, a profité des agissements criminels qu’il dénonce aujourd’hui, et, plus récemment, la position du viceprésident Richard Cheney à la tête d’Halliburton a frôlé l’illégalité. La philosophie du pouvoir à son plus haut niveau est contaminée. Rien ne compte plus que la recherche du profit sauvage. La parole est à la force. Les États-Unis tendent à devenir un État guerrier qui recherche des solutions militaires aux problèmes politiques, et considèrent que ces derniers sont réglés quand leurs forces armées ont détruit un pouvoir qui les avait inquiétés. Cette logique montre que la mondialisation économique n’aboutit pas au déclin de l’État-nation, mais au contraire au renforcement de l’État dominant, paradoxalement accompagné par le renforcement symétrique de Netwar. Au sommet de l’hyperpuissance, les ÉtatsUnis, naguère soucieux d’incarner les valeurs de la démocratie et si attachés au débat politique libre, glissent vers la brutalité militaire et un autoritarisme qui constituent la négation de ces valeurs. Depuis la disparition de la Soviétie, la doctrine d’« internationalisme bilatéral24 » appliquée pendant la seconde moitié du e XX siècle, a fait place au repli sur soi qui avait prévalu dans l’histoire américaine jusqu’à Pearl Harbor. L’essentiel consiste à mettre l’Amérique à l’abri des menaces de façon à lui permettre de s’en désintéresser. Ainsi s’affirme peu à peu l’impossibilité grandissante qu’éprouve le monde à imaginer un traitement politique aux grandes questions du moment. Et ce n’est pas parce que les Européens, les Russes ou les Japonais ont perdu tout pouvoir guerrier qu’ils sont capables quant à eux d’offrir la moindre contribution théorique ou pratique au gouvernement de la planète. 24. Charles Kupchan, The End of the American Era, New York, Knopf, 2002.

214

INTRODUCTION AU SIÈCLE DES MENACES

À la fin de 2002, dans les Balkans, les populations prises entre les friches industrielles héritées de l’ère socialiste et les promesses d’un secteur privé avorté se désespèrent : les taux de chômage avoisinent 50 % au Kosovo, 50 % en Bosnie-Herzégovine, 30 % en Serbie et en Macédoine, alors que beaucoup d’employés ne perçoivent pas leur salaire. Le 25 novembre à Londres, Javier Solana, chef de la politique étrangère et de sécurité de l’Union européenne, rappelle que le crime organisé domine la région : deux cent mille femmes piégées dans les circuits de la prostitution, 70 % du marché européen de l’héroïne, douze mille tonnes de cigarettes de contrebande y transitent chaque année. L’édification d’un régime démocratique n’a commencé nulle part. Dans les trois dernières années, le Kosovo est devenu la principale artère pour le trafic de la drogue en Europe, et le blanchiment des profits correspondants y corrompt la vie politique, économique et sociale ; les droits des minorités non albanaises ne sont pas respectés ; les extrémistes albanais qui veulent provoquer du désordre en Macédoine ou en Serbie méridionale ont les mains libres. Par suite de l’évolution dans le mauvais sens de ces trois catégories de problèmes, le Kosovo reste une source d’instabilité. La Bosnie n’offre pas un tableau plus riant, car les haines ethniques y empoisonnent la vie publique et empêchent le développement de l’économie. L’aide internationale, qui s’est élevée à des milliards de dollars, n’a pas empêché le chômage de paralyser la moitié de la population active. Les premières élections organisées depuis l’armistice de Dayton, ont donné en octobre 2002, le succès à des nationalistes, avec 55 % de participation. L’accord de Dayton se révèle incapable de fournir la possibilité de créer un État moderne, pas même de commencer à permettre une réconciliation nationale. Pour ce qui est de l’Union européenne, en principe appelée à prendre le relais politique de l’ONU en Bosnie et le relais militaire de l’OTAN en Macédoine, il faudrait pour qu’elle pût assumer ses responsabilités, que ses membres dépassassent leurs rivalités, afin de définir la direction à prendre pour rétablir le fonctionnement des mécanismes de base : structure des cofinancements, soutien à la coopération régionale, solution de conflits institutionnels… Quant à l’Afghanistan, le général Dan McNeill, commandant des forces américaines sur ce théâtre, a déclaré en août 2002 à un correspondant du Washington Post, que ses forces spéciales opérant sur le terrain travaillent avec les « seigneurs de la guerre » (warlords) locaux et ne les combattent pas. Il n’est pas question d’assumer des responsabilités dans le jeu politique local malgré les déclarations en ce sens du président Bush.

CYBERWAR II

:

LA PRATIQUE

215

Une étude de cinquante-deux conflits depuis 1960, due à la Banque mondiale, montre que les sociétés émergeant de guerres ont une chance sur deux de retomber dans la violence en cinq ans. Les probabilités de rechute sont plus fortes si le pays dispose d’une ressource dont des groupes armés peuvent s’emparer pour se financer, comme l’héroïne en Afghanistan. Pour éviter cette évolution, il faudrait bâtir un cercle vertueux commençant par le rétablissement de la sécurité qui permet la résurrection économique, qui à son tour assoit l’autorité d’un nouveau gouvernement. Dans le but de créer ce cercle vertueux, le State Department souhaitait organiser une force internationale de maintien de la paix beaucoup plus nombreuse qu’elle n’est ; le Pentagone et la Maison Blanche s’y sont opposés. À la fin de 2003, les États-Unis ont déployé treize mille hommes pour chasser les talibans, et les autres puissances cinq mille dans Kaboul et aux environs immédiats, à comparer avec les soixante mille envoyés en Bosnie après l’accord de Dayton. Réunis à Prague le 21 novembre 2002, les chefs d’État de l’OTAN déclarent que « les Afghans ont la responsabilité de maintenir la sécurité et l’ordre dans tout le pays ». Si on lui demande avec quels moyens cette responsabilité doit être assumée, le général Akin Zorlu, commandant la force internationale en Afghanistan, répond : « La police ? Rendez visite à n’importe quel poste de garde, vous y trouverez cinquante officiers et soldats armés de deux bicyclettes et de deux fusils primitifs, sans radio, sans véhicules, sans rien. Non payés des 24 dollars de leur salaire mensuel, les officiers emploient leurs armes pour voler. L’armée ? Il y en a une douzaine. »

Le Pentagone s’oppose à l’extension des forces internationales en promettant d’entraîner une armée nationale afghane. Jusqu’ici trois mille hommes (2003) ont été enrégimentés. Le premier bataillon comptait six cents soldats, dont la moitié a déjà disparu pour rejoindre les warlords. Les autres ne viennent à la caserne que pour toucher leur solde. La stratégie américaine, dans l’Afghanistan conquis, a adopté un principe négatif : éviter de se laisser coincer dans la construction de la paix. Priorité à la guerre. Alors que les Soviétiques s’étaient naguère engagés en ce pays avec un dessein politique, les États-Unis ne souhaitent pas jouer un autre rôle dans le monde que celui de gendarmes. Depuis la chute des talibans, ils ont dépensé trente fois plus à poursuivre les fugitifs d’Al-Qaida qu’à reconstruire la société afghane. Ils ont empêché les forces otaniennes de maintien de l’ordre de stationner en dehors de Kaboul et ont collaboré avec les féodaux locaux. Le président Karzaï, installé par les Américains, semble le suzerain du village de Kaboul.

216

INTRODUCTION AU SIÈCLE DES MENACES

Des 2 milliards de dollars promis pour 2002 par les donateurs de l’aide internationale, seulement 1,5 milliard de dollars avait été versé à la fin de l’année, dont l’essentiel à des agences de l’ONU et autres, et 90 millions au gouvernement, dont le budget de 460 millions n’a été assuré qu’à moitié. Les experts chiffrent le prix de la reconstruction de l’infrastructure à trois fois au moins les 5,25 milliards de dollars promis pour la période 20022010. L’allocation annuelle par tête est très inférieure à ce qui a été distribué aux victimes d’autres situations conflictuelles : 42 dollars pour l’Afghanistan, 195 dollars pour le Timor oriental, 326 dollars pour la Bosnie, chiffres portés en 2003 à 52 dollars pour l’Afghanistan et 1 390 dollars pour la Bosnie. Les États-Unis n’ont aucun dessein à long terme. Au début de septembre 2003, Donald Rumsfeld a confié à la presse : « Si vous me demandez ce que nous allons faire, je vous répondrai que je ne le sais pas. » Alors que le Congrès américain a voté dans son Afghanistan Freedom Support Act en novembre 2002, une aide de 3,3 milliards de dollars sur quatre ans, y compris un milliard pour les opérations du maintien de la paix, rien n’indique un infléchissement de l’emploi de ces crédits vers une aide aux besoins fondamentaux de la population ; ils ne sont même pas inscrits en totalité dans le budget du président Bush. La ressource principale du pays est redevenue l’opium qui lui a rapporté 1,2 milliard de dollars en 2002 ; en 2003, il fournit les trois quarts de la production mondiale. Nation building ? Dans tout le pays, les chefs locaux, alliés de la coalition dirigée par les États-Unis, reviennent aux restrictions contre les femmes imposées par les talibans. Si des centaines de milliers de jeunes filles sont retournées à l’école, seules les portes de celles-ci leur sont ouvertes. En beaucoup d’endroits, la police impose aux femmes des règles islamiques telles que le port de la burka. Dans la ville de Herat, en Afghanistan occidental, le maître des lieux Ismail Khan a interdit, en 2002, l’enseignement des filles par des hommes alors que presque tous les instituteurs sont masculins, et maintient la fermeture des écoles mixtes. Sur le territoire des trois provinces qu’il domine, toute femme non accompagnée par un mari ou un parent mâle peut être arrêtée par la « police de la vertu » et examinée contre son gré à la recherche de relations sexuelles récentes. L’adoption d’une « Constitution » concoctée par les fauteurs de guerre à la fin de 2003 ne saurait modifier les mœurs ancestrales. Vingt et un mois après leur défaite, les talibans reparaissent dans la province de Zaboul à la frontière des territoires tribaux, soutenus par l’ISI (Inter-Services Intelligence du Pakistan). Le soutien que la population leur

CYBERWAR II

:

LA PRATIQUE

217

apporte croît, car les gens veulent avant tout s’arracher des griffes des voleurs et des tueurs qui règnent aujourd’hui, dit-on à Jalalabad en septembre 2003. Plus grave peut-être que l’effondrement de la vie sociale, les dommages apportés par vingt-trois ans de guerre à l’environnement, loin d’être traités, s’aggravent. La télédétection spatiale montre que les forêts dont la verdure remplissait en 1977 les images des provinces du Nord et de l’Est ont disparu en 2002. Les zones humides où pullulaient les oiseaux et les animaux sauvages, les grands bois de pistachiers, de cèdres et de conifères de Badghis, Herat et Takhar n’existent plus. Dans le pays de Kunar et au Nouristan, plus de 30 % des arbres ont été éliminés par le bûcheronnage illégal. Aucune force organisée ne s’oppose au pillage. La déforestation est générale et rapide ; les sables envahissent les villages et les champs. La destruction d’un État non suivie de reconstruction nationale aboutit à un résultat prévisible, la création de la sorte de chaos incontrôlable dont les talibans sont sortis armés. Une telle politique est le ventre de Netwar. Où en serait le monde si elle avait été pratiquée dans les années 1945 au lieu du plan Marshall ?

Post-scriptum. La seconde guerre d’Irak (2003) Il n’a pas paru nécessaire à l’auteur de ce livre de modifier les pages précédentes écrites avant la seconde guerre d’Irak, mais dont la leçon s’applique exactement. Le 20 mars 2003, jour de l’attaque de Saddam Hussein par la coalition anglo-saxonne, les forces américaines comptaient 230 000 hommes dont 125 000 déployés sur le théâtre, les forces britanniques 45 000, soit près du quart des effectifs totaux du Royaume-Uni ; les Australiens 2 000. Le Koweït, Bahrein, les Émirats, Oman avaient accepté l’utilisation de bases terrestres, aériennes et navales sur leur territoire. Les coalisés disposaient d’environ 1 000 avions, dont le nombre augmentera jusqu’à 1 80025. Les Irakiens alignaient 389 000 hommes, 300 avions réduits à 50 % de potentiel. Le cœur de leur dispositif était constitué par les sept divisions de la garde républicaine (60 000 à 70 000 hom25. Jean-Jacques Patry, « Iraqi Freedom : premières observations sur une campagne historique », in Fondation pour la recherche stratégique, Annuaire stratégique et militaire 2003, Paris, Odile Jacob, 2003.

218

INTRODUCTION AU SIÈCLE DES MENACES

mes) monopolisant les moyens blindés. En fait, ces forces usées par l’embargo étaient à bout de souffle. Les opérations peuvent être décrites en trois phases : • Début foudroyant et progression rapide de la coalition jusqu’au 27 mars permettant la saisie et la sécurisation des points de passage vers Bagdad sur l’Euphrate et le Tigre, encerclement de Bassorah, ouverture du port d’Oum Kasr le 30. • Contre-attaque irakienne entre le 31 mars et le 2 avril. Les trois dernières divisions de la garde sont engagées pour étayer un front sud en voie d’effondrement. Elles tombent, selon l’expression d’un général américain, dans un « hachoir à viande ». Un corps d’armée complet de 30 000 hommes est anéanti. Le 2 avril, la défense irakienne n’existe plus. • Les coalisés ont partout le champ libre. L’aérodrome de Bagdad est atteint le 3 avril, le premier avion américain s’y pose le 6 avril. La chevauchée de 500 km n’a exigé que vingt et un jours ; il n’existe dans l’histoire militaire aucun exemple d’une guerre totale aussi rapide sur un territoire aussi vaste. Au chapitre des enseignements, on constate simplement l’expansion de la doctrine appliquée depuis la première guerre du Golfe. Pour la première fois les opérations spatiales ont été gérées sur un pied d’égalité avec les opérations aériennes au Centcom, le centre de commandement opérationnel américain. La stratégie d’attaque a suivi la doctrine systémique de Warden. La domination aérospatiale américaine a encore gagné en rapidité et précision. Au 6 avril, 14 500 PGM et 750 missiles de croisière avaient été utilisés, soit 70 % des munitions dépensées. Un C4ISR reposant sur un réseau planétaire de capteurs divers et un ensemble de banques réparties sur le globe a permis de faire tourner les boucles OODA en dix minutes. Parmi les capteurs, les drones Predator et Dragon Eye, qui, à titre expérimental ont permis une excellente observation des tirs d’artillerie sur les forces ennemies, les F-18 munis de caméras et les avions Harrier portant des désignateurs d’objectif laser ont été félicités par le corps des Marines comme très efficaces dans la collecte du renseignement. Les forces ont montré une aptitude à combiner leurs capacités dans un schéma opératif interarmées de qualité inégalée, reposant sur les réseaux et la connectivité. Enfin, les modes d’action asymétrique mis en œuvre par les Irakiens n’ont pas eu d’impact. Les tentatives de terrorisme et de guérilla urbaine ont été immédiatement asphyxiées.

CYBERWAR II

:

LA PRATIQUE

219

Après le 1er mai, jour où le président Bush II a déclaré la guerre terminée, les difficultés se sont multipliées. L’incapacité américaine à sortir de l’approche militaire pour concevoir et mettre en œuvre une solution politique, s’est une fois de plus montrée sous son jour le plus noir. Le commandement n’a pas tenté d’obéir aux conventions de Genève qui lui imposent d’assurer l’ordre et la sécurité dans les zones occupées par ses troupes. Le brigandage, les viols, les assassinats perpétrés par les miséreux et les irréguliers ont enragé la population irakienne qui n’a trouvé aucun soutien dans une soldatesque yankee jeune, brutale, mal encadrée, incapable de s’adapter au terrain et elle-même terrorisée. Les ennemis des États-Unis n’ont même pas besoin de Netwar pour les enfoncer dans un marécage qui leur coûte 1 milliard de dollars par semaine, et se contentent de la guérilla classique pour tuer du GI et attaquer tous les symboles de l’establishment mondial. Ainsi le 19 août, un attentat contre le siège de l’ONU à Bagdad coûte la vie à 19 personnes dont le représentant spécial Sergio Vieira de Mello. La guerre asymétrique s’installe. Bientôt le personnel de la Croix-Rouge présent dans la capitale irakienne subit le même sort, l’ambassade de Turquie est dynamitée, l’attaché militaire espagnol assassiné ainsi que des diplomates japonais ; les soldats du raïs stupidement démobilisés par le maître américain, comme les criminels libérés en masse par Saddam Hussein au début de la guerre, s’alimentent aisément en explosifs, en grenades, en obus, en bombes dans les dépôts désertés ouverts à tous les vents. Des volontaires venus des pays arabes se joignent à eux pour combattre Satan, c’est-à-dire l’Occident tout entier. Comme en Afghanistan vingt ans auparavant les hélicoptères se révèlent vulnérables. À partir du 25 octobre où un Black Hawk est descendu par une roquette antichar, les Américains en perdent un par semaine. En novembre, 101 soldats de la coalition sont tués. Chaque jour sont perpétrés une cinquantaine d’attentats. L’utilisation de Cyberwar pour gérer la crise ouverte par l’attaque du 11 septembre 2001 en écrasant des pays supposés abriter les bases d’Al-Qaida, l’Afghanistan certainement « coupable » et l’Irak, certainement pas « coupable », montre ses limites. Loin de parer la menace, elle a renforcé le recrutement des terroristes et surtout élargi leur zone opérationnelle lorsque les ÉtatsUnis ont transporté leur campagne de Kaboul à Bagdad. Que sait-on de ces enragés ? « Il y a une chose que les moujahidines aiment autant que les armes, ce sont les médias26. » Netwar contre Cyberwar : nous voilà entrés dans le XXIe siècle. 26. Sara Daniel, Le Nouvel Observateur, 15 novembre 2003.

Chapitre VI

LE BUNKER AMÉRIQUE

La Mort Rouge avait longtemps dépeuplé la contrée. Des taches pourpres sur le corps, et spécialement sur le visage de la victime, la mettaient au ban de l’humanité et lui fermaient tout secours et toute sympathie. L’invasion, le progrès, le résultat de la maladie, tout cela était l’affaire d’une demi-heure. Mais le prince Prospero était heureux, et intrépide, et sagace. Quand ses domaines furent à moitié dépeuplés, il convoqua un millier d’amis vigoureux et allègres de cœur, choisis parmi les chevaliers et les dames de la cour et se fit avec eux une retraite profonde dans une de ses abbayes fortifiées. C’était un vaste et magnifique bâtiment, une création du prince, d’un goût excentrique et cependant grandiose. Un mur épais et haut lui faisait une ceinture. Ce mur avait des portes de fer. Les courtisans, une fois entrés, se servirent de fourneaux et de solides marteaux pour souder les verrous. L’abbaye fut largement approvisionnée. Grâce à ces précautions, les courtisans pouvaient jeter le défi à la contagion. Le monde extérieur s’arrangerait comme il pourrait. […] Vers la fin du cinquième ou du sixième mois de sa retraite, le prince Prospero gratifia ses mille amis d’un bal masqué de la plus insolite magnificence. Au dernier coup de minuit, plusieurs personnes remarquèrent la présence d’une figure qui jusque-là n’avait aucunement attiré l’attention. Le masque, grand et décharné, enveloppé d’un suaire de la tête aux pieds, avait adopté le type de la Mort Rouge. Son vêtement était barbouillé de sang et son large front, ainsi que tous les traits de sa face étaient aspergés de l’épouvantable écarlate. […] Alors, une foule de masques se précipita à la fois dans la chambre noire, et saisissant l’inconnu, qui se tenait, comme une grande statue, droit et immobile dans l’ombre de l’horloge d’ébène, ils se sentirent suffoqués par une terreur sans nom, en voyant que sous le linceul et le

222

INTRODUCTION AU SIÈCLE DES MENACES

masque cadavéreux qu’ils avaient empoignés avec une si violente énergie, ne logeait aucune forme palpable. On reconnut alors la présence de la Mort Rouge. Elle était venue comme un voleur de nuit. Et tous les convives tombèrent un à un dans les salles de l’orgie inondées d’une rosée sanglante, et chacun mourut dans la posture désespérée de sa chute.

Ainsi commence et s’achève la nouvelle d’Edgar Allan Poe, publiée dans le numéro de mai 1842 de Graham’s Magazine à Philadelphie sous le titre « Le Masque de la Mort Rouge », et traduite1 par Charles Baudelaire parmi les Nouvelles Histoires extraordinaires. Dans sa préface, le poète note : « Cet auteur, produit d’un siècle infatué de lui-même, enfant d’une nation plus infatuée d’elle-même qu’aucune autre, a vu clairement, a imperturbablement affirmé la méchanceté naturelle de l’homme. » De tout temps, des Princes ont rêvé de protéger leur territoire par un bouclier infranchissable. Il y a vingt-deux siècles, le premier empereur de Chine a parachevé l’édification de la Grande Muraille afin d’empêcher les invasions des nomades mongols. On ignore l’efficacité réelle de cet investissement. Nous savons trop bien que l’existence de forteresses bâties sous l’impulsion de l’exsergent André Maginot, devenu ministre de la Guerre, a conduit les Français à une stratégie défensive, une passivité, un attentisme qui ont entraîné l’effondrement de leur armée à la première attaque en 1940.

La préhistoire de la défense antimissiles Tous les missiles balistiques suivent une trajectoire qui inclut trois phases : d’abord la propulsion par un moteur-fusée, puis la croisière, non propulsée, et enfin la chute ou terminaison. Une défense antimissiles doit comprendre plusieurs couches, afin de pouvoir détruire l’attaquant dans toutes les phases. La destruction dans la phase de propulsion exige une allonge lointaine et donne une protection globale ; une allonge plus courte est suffisante pour la destruction en phase de croisière, dite souvent « exoatmosphérique » et donc une protection régionale ; une défense terminale, à courte portée, ne protège qu’une zone limitée. La phase de propulsion se termine à des altitudes de l’ordre de deux cents kilomètres au maximum et dure cent à trois cents secondes. L’interception à ce moment est la meilleure solution pour la défense, car non seulement on obtient alors une protec1. Paris, Michel Levy, 1857.

223

LE BUNKER AMÉRIQUE

tion globale, mais surtout on empêche le déploiement ultérieur, au début de la croisière, de têtes multiples qui sont dans leur majorité des leurres (méthode dite MIRV, ou Multiple Independant Reentry Vehicles). La phase de croisière offre la meilleure possibilité d’atteindre l’attaquant parce qu’elle dure longtemps ; et que le missile suit alors une trajectoire régie par les lois de la dynamique, c’est-àdire une parabole à peine modifiée par le frottement atmosphérique. Enfin, l’intercepteur dispose de plus de temps pour caractériser l’assaillant, c’est-à-dire discriminer les charges létales d’avec les leurres. La phase terminale correspond à la chute de l’assaillant dans l’atmosphère ; elle dure en général moins d’une minute ; l’interception doit se faire aussi haut que possible, lorsque l’atmosphère est encore raréfiée et la trajectoire calculable, avant les modifications aléatoires que le frottement et les vents lui apporteront. Lorsqu’en 1945 l’humanité s’est trouvée confrontée à la bombe nucléaire, il a fallu imaginer une doctrine pour essayer de se défendre contre la première arme de destruction massive de l’histoire. Bientôt deux grands États en ont disposé, l’équilibre s’est établi et un concept a émergé, la théorie MAD2, imaginée par des physiciens.

Croisière Déplacement passif parabolique Terminaison Rentrée dans l’atmosphère

Propulsion Accélération Lancement

Impact

Fig. 1 : Trajectoire d’un missile balistique

MAD (Mutual Assured Destruction) considère que si une arme est assez terrible pour que son emploi risque de détruire la civilisation, son existence même devrait empêcher la guerre, 2. Bernard Brodie et al., The Absolute Weapon, New York, Harcourt, Brace & Co., 1946.

224

INTRODUCTION AU SIÈCLE DES MENACES

puisque aucun dirigeant sensé n’engagerait un conflit qui entraînerait la fin du monde. Les adeptes de MAD estiment que la bombe à hydrogène est effectivement une telle arme. Donc la paix perpétuelle est assurée quand les nations rationnelles possèdent le nombre de bombes suffisant pour entraîner la fin du monde. Une telle doctrine qui assigne un fonctionnement offensif à l’arme nucléaire, amène à maximiser son potentiel de destruction et donc à lui donner de plus en plus de puissance. Dans les années 1960, on croyait que mille mégatonnes suffiraient puisque leur emploi envisageable entraînerait la disparition de 25 % de la population et 50 % de l’industrie des deux rivaux. On a tendance aujourd’hui à placer le seuil aux environs de 10 % de la population avec une puissance totale de cent mégatonnes, sans beaucoup de raisons. MAD s’oppose à l’élaboration d’une défense, car si le public croit qu’une défense est possible, il rejettera la prémisse que la guerre nucléaire est impossible. L’outil principal de MAD est le contrôle des armements, beaucoup plus important que la nature, le niveau ou les détails des forces offensives ou défensives déployées. Si j’ai assez de bombes pour vous détruire, il ne m’importe pas, dans l’esprit de MAD, que vous en ayez dix fois plus que moi. La situation d’overkill ne vous procurera aucun avantage. Il faut que les antagonistes acceptent MAD et se privent de défense : MAD est appelée une stratégie bilatérale anticités. En réalité, malgré les déclarations répétées des Deux Grands, ils n’ont jamais vraiment adopté MAD. Au contraire, ils ont toujours considéré que la possession d’une force nucléaire à vocation offensive, comptant assez de projectiles pour survivre à une première frappe et riposter, représentait l’unique élément de la dissuasion nucléaire, et c’est ainsi qu’ils sont parvenus à déployer chacun plus de dix mille têtes nucléaires. Cette stratégie impliquait que la guerre nucléaire est possible, et donc le déploiement d’une défense stratégique était acceptable, sans pourtant recevoir une très haute priorité. Il fallait concevoir l’érection d’un dôme de protection qui arrêterait la chute de milliers de bombes portées par des missiles ICBM. L’immense difficulté du problème conduisait immédiatement à la notion de défense multicouches. La solution Maginot ne présente qu’une seule couche de défense, l’ensemble des fortifications bétonnées disposées sur une ligne unique qu’il suffit de percer ou de contourner. Comparez avec la défense des îles Britanniques pendant la Seconde Guerre mondiale : première

LE BUNKER AMÉRIQUE

225

couche, le corps expéditionnaire débarqué en France ; deuxième couche, la flotte dans la Manche ; troisième couche, la Royal Air Force ; quatrième couche, la défense des plages et la Homeguard. Prises séparément elles étaient très faibles, mais l’empilement en couches a empêché l’invasion malgré l’enfoncement de la première à Dunkerque. La grande idée, celle de la défense spatiale, offre une illustration parfaite de la doctrine de Mahan : la défense va chercher l’ennemi à sa frontière en déployant ses moyens dans l’espace, l’équivalent du Highground pour le fantassin de jadis. Les systèmes de défense spatiale permettent par nature l’élaboration d’une stratégie multicouches, dont la première entre en action dès le moment où le missile ennemi quitte sa rampe. Sa clé est d’opérer à travers toute la dimension spatio-temporelle de la bataille et d’y trouver son efficacité. Il est possible de trouver l’origine de cette idée dans le programme BAMBI3 (Ballistic Missile Boost Intercept) dont le début se place en 1950. On ne pensait alors qu’à une défense à une couche, qui détruirait le missile attaquant par une explosion nucléaire sur sa trajectoire. Elle ne pouvait réussir, parce qu’elle concédait le champ de bataille à l’offensive ennemie, tout comme ses avatars soviétiques et américains des années 1950 et 1960. Et de plus la technologie ne permettait pas de concevoir un système vraiment efficace. Pendant les années 1950, les progrès parallèles des Américains et des Soviétiques dans le développement des ICBM ont amené les uns et les autres à réfléchir sur des systèmes de défense antimissiles plus élaborés. L’idée d’un réseau capable d’intercepter les missiles intercontinentaux lors d’une attaque et de les détruire, a été poussée jusqu’à des déploiements d’engins plus ou moins efficaces, tant par la Soviétie que par les États-Unis. Les deux programmes prévoyaient au départ la mise au point d’un intercepteur doté d’une tête nucléaire, puisque les techniques disponibles ne permettaient guère un tir précis et qu’une explosion sur une large zone était nécessaire à l’interception. La Soviétie s’engagea dans la défense antimissiles en même temps qu’elle mettait au point ses ICBM, pendant les années 1950. Dès 1961, le système Griffon fut déployé autour de Leningrad ; bien que destiné à la défense antiaérienne, il avait vraisemblablement la capacité d’attaquer des missiles dans leur phase terminale. Un autre système beaucoup plus ambitieux, Galosh, parvint à détruire le 6 septembre 1961 une cible portant une tête 3. William Broad, « Starwar Traced to Eisenhower Era » , New York Times, 28 octobre 1986, p. C1.

226

INTRODUCTION AU SIÈCLE DES MENACES

nucléaire avec un intercepteur qui fît détoner une bombe atomique4. En octobre 1962, le maréchal Malinovsky, ministre de la Défense, déclara devant le 23e Congrès du Parti communiste de l’Union soviétique, que ses engins étaient prêts à arrêter les ICBM américains. L’intercepteur à longue portée Galosh fut montré au défilé du 1er mai 1964, et son déploiement fut entrepris en 1965 autour de Moscou. S’ajoutant à ces deux systèmes de défense « ponctuelle » (c’est-à-dire limitée autour d’une ville), une défense « régionale », c’est-à-dire susceptible de protéger une partie de la Russie du Nord, appelée du nom de code Tallin, fut mise en place à partir de 1965 sur le corridor d’attaque présumé des missiles américains, au voisinage de la capitale de l’Estonie ; elle reposait sur le missile antiaérien SA5 et déployait plusieurs radars. L’essai de la première bombe thermonucléaire soviétique en 1953 mit la défense antimissiles à l’ordre du jour aux États-Unis. Aussitôt commença un violent combat entre l’Army et l’Air Force qui avaient chacune pour sa part déployé un système de défense antiaérien, respectivement appelé Nike et BOMARC. En 1955 l’une et l’autre présentèrent des solutions, le système à courte portée Nike Zeus et Wizzard possédant une allonge de 1 500 km, l’un et l’autre à tête nucléaire. En 1958, le secrétaire à la Défense, Neil H. McElroy, confia la responsabilité de la défense antimissiles à l’Army qui en devint le partisan acharné jusqu’au début des années 1980. Les travaux de mise au point de Nike Zeus continuèrent jusqu’au premier essai réussi sur un ICBM sans munition en juillet 1962. L’Army poussait au déploiement d’un système protégeant le territoire national. Sous la présidence de John F. Kennedy, acquis à la « réponse flexible », le secrétaire à la Défense, Robert McNamara, adopta une doctrine MAD tempérée par la nécessité de réduire les dommages créés par une attaque, mais aux moindres frais, par exemple en augmentant les moyens de la défense passive. Il supprima ce qui restait de Nike Zeus en 1963 tout en laissant l’Army développer le Nike Sprint, un intercepteur exoatmosphérique capable de discriminer la tête active parmi les leurres. La menace croissante de la Soviétie et les progrès de la technologie, à savoir la mise au point des antennes radar phased arrays et la discrimination des leurres par Nike Sprint, amenèrent le président Johnson à approuver le 6 décembre 1966, le déploiement d’un système ABM (Anti-Ballistic Missiles) accompagné d’une démarche auprès de la Soviétie pour établir un contrôle des arme4. Edward R. Jayne II, The ABM Debate, thèse Ph.D., MIT, Center for International Studies, juin 1969.

LE BUNKER AMÉRIQUE

227

ments. Mais au sommet de Glassboro, le Premier ministre Alexei Kossyguine refusa d’accepter le contrôle des armements et d’arrêter le déploiement de son système antimissiles : « La défense est morale, l’offensive immorale », déclara-t-il, ajoutant que McNamara était un capitaliste immoral. Le secrétaire à la Défense, obligé alors de déployer contre son gré un système qui donnerait satisfaction à ses subordonnés, saisit l’occasion que lui offrit la première explosion nucléaire chinoise en juin 1967, pour proposer une ligne de défense ponctuelle contre les Chinois, appelée Sentinel. Elle comprenait deux couches, l’intercepteur à courte portée Sprint avec ses radars, et un intercepteur endo-atmosphérique, le Spartan, version améliorée du vieux Nike Zeus. Il fut annoncé que le premier déploiement se ferait autour de Boston, ce qui mobilisa immédiatement autour du sénateur Ted Kennedy la communauté scientifique de Harvard et du MIT, qui soutenait la doctrine MAD, rigoureusement incompatible avec la protection des populations urbaines. Richard Nixon, après son élection, décida de réorienter Sentinel vers la protection des forces de dissuasion, dans une perspective voisine de celle de McNamara, et lui donna le nouveau nom de Safeguard. C’était le triomphe de MAD. En même temps que le Congrès approuvait le déploiement du Safeguard en août 1969 le gouvernement soviétique annonça qu’il avait changé d’avis et qu’il était prêt à discuter du contrôle des armements. Il est vraisemblable que les imperfections du Galosh, aussi mauvais que le Zeus arrêté depuis 1963, l’avaient convaincu de l’impossibilité d’une défense antimissiles, et donc de la validité du concept MAD5. Les négociations SALT-1 (Strategic Arms Limitation Talks) commencèrent alors, avec pour objectif une réduction bilatérale parallèle des armes stratégiques, afin de stabiliser « l’équilibre de la terreur ». Elles aboutirent, le 26 mai 1972, à la signature du traité ABM (Anti-Ballistic Missiles) par les ÉtatsUnis et la Soviétie. Il consacrait l’acceptation de MAD, c’est-à-dire de la stratégie anticités. Son objectif était d’empêcher le déploiement d’une défense du territoire. Le traité ABM contient d’une part des dispositions sur les armes défensives ; il élimine presque complètement les systèmes antimissiles en les limitant à deux sites de chaque côté, l’un défendant la capitale des signataires (Moscou et Washington) et l’autre un site d’ICBM situé à une distance de la capitale d’au moins 1 300 kilomètres. Sur chaque site, le nombre de missiles et celui des radars sont limités. Sont interdits leur remplacement par quelque autre système et les essais de développement antimissiles. Un 5. Strobe Talbot, Deadly Gambits, New York, Alfred A. Knopf, 1984.

228

INTRODUCTION AU SIÈCLE DES MENACES

protocole signé le 24 mai 1976 réduisit à un seul le nombre de sites défendus. L’autre disposition du traité ABM était un accord temporaire (pour cinq ans) sur les armes offensives, qui limitait le nombre des ICBM autorisés de part et d’autre, respectivement pour les États-Unis et la Soviétie à 1000 et 1600 armes terrestres, et à 41 sous-marins capables de lancer 5 700 ogives mirvées et 62 sousmarins capables de lancer 2 500 têtes. Les forces armées et les bases abritant des armes tactiques n’entreraient pas dans l’accord. En fait, le secrétaire d’État Henry Kissinger n’acceptait pas MAD. La raison pour laquelle il voulut SALT-1 et ABM était technique. Le progrès des méthodes de leurrage, c’est-à-dire la mise au point des MIRV, rendait la défense antibalistique impossible avec les moyens disponibles à ce moment : les Américains, qui maîtrisaient la technique depuis longtemps, apprirent aussitôt après le fait que les ingénieurs soviétiques avaient réussi un tir « mirvé » en août 1973. Safeguard ne pourrait résister contre MIRV ; en même temps la multiplication des têtes enlevait toute valeur stratégique à la limitation du nombre des missiles : les traités étaient indolores. Le site américain de Safeguard, situé à Grand Forks (Dakota du Nord), fut fermé en février 1976, quelques mois seulement après avoir été déclaré opérationnel. En effet, ses missiles antimissiles continuaient à porter une charge nucléaire, vraiment incompatible avec l’air du temps. L’Army se mit au travail pour développer les capteurs et les systèmes de guidage qui permettraient, en augmentant la précision de l’interception, de détruire l’ennemi par simple collision cinétique avec lui (hit-to-kill) et y parviendra lors de l’essai Homing Overlay Experiment (HOE) en juin 1984. Nous avons vu6 le président Carter signer avec Leonid Brejnev à Vienne en 1979 un accord SALT-2 qui substituait au protocole de 1976 un accord définitif sur le nombre de missiles. Sa nouveauté était la limitation du nombre des têtes mirvées. Il laissait à la Soviétie un avantage de 5 à 2 pour le nombre des armes terrestres, et bien que relativement équilibré, il n’était pas acceptable par le Congrès. Carter le retira du processus de ratification par le Sénat au début de 1980, après le début de l’invasion soviétique en Afghanistan. L’Administration Reagan ne pouvait pas ne pas continuer les négociations. Pendant ses premières années, elle resta cependant immobile avec tout de même une innovation, le remplacement de l’acronyme SALT par un autre plus à l’ordre du jour, START (Strategic Arms Reduction Talks) : on était passé de l’équilibre à 6. Voir p. 155.

LE BUNKER AMÉRIQUE

229

la diminution du nombre des armes. Reagan n’aimait pas le traité ABM ; il faudra pourtant attendre Bush II pour son abolition.

La « guerre des étoiles », ou Strategic Defense Initiative Le potentiel offensif des ICBM soviétiques se renforçait chaque jour, et le commandement américain prêtait à « l’Empire du mal » le pouvoir de porter une première frappe qui éliminerait ses forces stratégiques, tout en conservant assez d’armes nucléaires pour atteindre les villes. Plusieurs cénacles de réflexion se demandaient comment parer la menace. Un groupe d’experts7 avait persuadé le président Carter de financer, à partir de 1979, le développement d’un laser spatial dont le prototype serait mis en orbite au début des années 1990. Le groupe High Frontier8, formé en 1980 sous la présidence du général Daniel Graham, ancien directeur de la Defense Intelligence Agency, conclut en 1982 que des armes spatiales à énergie cinétique (équivalentes à des missiles air-air montés sur satellites) seraient capables de fournir à court terme une défense antimissiles d’un coût acceptable. Opinion qui sera bientôt confortée par le succès de HOE. Entre 1981 et 19839, le Defense Science Board, le principal comité consultatif du DoD, présidé par John Foster, persuadé que la Soviétie n’avait pas accepté MAD et qu’elle cherchait à obtenir une capacité crédible de première frappe, analysa des possibilités diverses de défense antibalistique, et entretint l’idée qu’elle était faisable. D’imaginatifs chercheurs du Lawrence Livermore Laboratory, centre californien où se poursuit la recherche sur la fusion nucléaire, conçurent, au début des années 1980, une méthode de défense antimissiles, et persuadèrent le très influent Edward Teller, qui avait dirigé dans les années 1945-1950 la mise au point de la bombe à hydrogène, de transmettre leurs idées au président 7. Clarence A. Robinson, « ABM Promise Seen in Space-Based Laser », Aviation Week and Space Technology, 8 décembre 1980. 8. Général D. Graham, High Frontier : A Strategy for National Survival, Washington, High Frontier, 1982. 9. On lira avec fruit le livre du colonel (maintenant général) Simon (Pete) Worden, qui, après avoir été entre autres assistant directeur du SDIO et chef des opérations spéciales à l’US Space Command, servait lors de sa publication comme directeur des concepts avancés, de la science et de la technologie au National Space Council à la Maison Blanche : SDI and the Alternatives, Washington, National Defense University Press, Fort Lesley J. McNair, 1991.

230

INTRODUCTION AU SIÈCLE DES MENACES

Ronald Reagan. Les travaux de Livermore montraient qu’un laser émettant des rayons X dans un pinceau fin pourrait être alimenté par une explosion nucléaire. Le faisceau serait employé pour détruire un missile à distance. Contrairement à la légende, l’intervention de Teller n’eut pas d’impact. Au contraire elle fut mal reçue par le président, car elle proposait une solution nucléaire à un problème nucléaire. La démarche décisive fut la pression des Joint Chiefs of Staff (Comité des chefs d’état-major), convaincus par le groupe High Frontier, qui virent le président Reagan le 11 février 1983 et l’entraînèrent. Dans un discours télévisé, le 23 mars 1983, le président annonça sa décision de soutenir un vaste programme de défense antibalistique, auquel son caractère futuriste donna aussitôt le nom de Starwar, par référence à un film d’anticipation qui avait connu un grand succès dans le monde entier. La barrière défensive était entièrement située dans l’espace : une constellation de satellites devrait détecter les départs de missiles et une autre les détruirait. Après une année d’études, le Département de la Défense créa, en avril 1984, la structure Strategic Defense Initiative Organization (SDIO) placée sous la direction du général James A. Abrahamson de l’US Air Force, pour mettre en œuvre la « guerre des étoiles ». La loi de Moore avait agi pendant les quinze années qui s’étaient écoulées depuis que McNamara avait considéré la défense antibalistique comme techniquement impossible. Dans le concept initial, la défense antibalistique, de nature essentiellement spatiale, comprenait trois sous-systèmes : d’abord, un sous-système de détection des missiles ennemis capable de les suivre pendant leur phase balistique ; des satellites tels que ceux du Defense Support Program (DSP) fourniraient une première composante de la détection. Déployés depuis 1970 par le réseau d’écoute spatiale NORAD, chargé de surveiller tout ce qui se trouve en orbite, ils forment une constellation de cinq satellites, dont trois opérationnels en GEO et deux en secours. Ils sont munis d’un télescope associé à des détecteurs infrarouges sensibles à la chaleur des gaz pendant la propulsion des fusées, pour détecter, caractériser et signaler le lancement de tout missile. Les satellites de la quatrième génération DSP, déployée à partir de 1997, pèsent 2,4 tonnes et coûtent 250 millions de dollars pièce. Ils seraient complétés, dans une seconde étape du programme, par des satellites capables de détecter et de suivre les missiles dans leur phase de croisière. L’autre composante de la détection consisterait en radars placés au sol, capables de suivre les missiles pendant la phase balistique de leur vol, c’est-à-dire après l’extinction de leur moteur.

LE BUNKER AMÉRIQUE

231

Le deuxième sous-système, chargé de l’interception des missiles, utiliserait lui aussi à la fois des moyens terrestres, c’est-à-dire des missiles de riposte tirés à partir du sol, et des moyens spatiaux dits SBI (Space Based Interceptors). Les SBI seraient de gros satellites, porteurs chacun de nombreux intercepteurs individuels. Plusieurs centaines d’entre eux auraient été placées en orbite, attendant l’attaque et détruisant les ennemis pendant la phase propulsée de leur trajectoire avant qu’ils n’aient eu le temps de se séparer des leurres. Des systèmes de destruction à distance faisaient l’objet d’études poussées tels que le faisceau laser, le faisceau électromagnétique de haute énergie ou le faisceau de particules chargées. Le troisième sous-système, chargé de la gestion de la bataille, consisterait en un centre de contrôle qui recevrait toutes les informations, les traiterait et donnerait les instructions aux intercepteurs. Le SBI présentait deux inconvénients rédhibitoires : d’une part, il était trop gros et constituerait une cible facile pour les armes soviétiques antisatellites (ASAT) ; d’autre part, il était hors de prix et même, peut-être, infaisable. Dès septembre 1987, au moment où l’architecture de la première phase du programme fut approuvée, les SBI furent remplacés par un nouveau concept dû aux chercheurs de Livermore, Brilliant Pebbles (cailloux brillants) : il s’agissait de petits intercepteurs autonomes de 50 kg qui opéreraient sans leur « garage » SBI et qui seraient placés en orbite par milliers. La notion de constellation faisait son apparition, engendrée par les spécialistes du nucléaire à Livermore, et non par la communauté spatiale. Pour la rendre possible, un énorme effort de RD fut entrepris pour miniaturiser senseurs, calculateurs et en général tous les équipements de bord. Brilliant Pebbles fut incorporé dans l’architecture du SDI en 1989 sous l’influence du second directeur du programme, le général de l’US Air Force George L. Monahan. À l’imitation de ce concept, une autre constellation portant des systèmes optiques, Brilliant Eyes, fut imaginée pour la détection. Au début de 1990, alors que tombait le mur de Berlin et qu’un réexamen de la stratégie américaine s’imposait dans le « nouvel ordre mondial », le président George Bush I confia une revue du programme SDI à l’ambassadeur Henry F. Cooper, principal représentant américain dans les discussions sur la défense et l’espace qui se tenaient à Genève depuis 1987. Estimant que la menace proviendrait, soit d’attaques terroristes ne mettant en jeu qu’un petit nombre de missiles, soit de missiles de théâtre à courte portée, Cooper recommanda de concentrer le SDI sur la

232

INTRODUCTION AU SIÈCLE DES MENACES

défense contre des attaques limitées et non plus contre des milliers de têtes nucléaires soviétiques. Devenu le patron du SDIO en juillet 1990, Cooper appliqua ses idées, d’autant plus qu’au mois d’août suivant, Saddam Hussein envahit le Koweït et lança des Scud contre Israël et l’Arabie Saoudite : on assista aux premiers engagements opérationnels entre un missile balistique et la fusée antimissile américaine Patriot. Le 29 janvier 1991, le président Bush I annonça la réorientation voulue par Cooper et l’adoption du nouveau concept GEPALS (Global Protection Against Limited Strikes). Il englobait un système de défense étendu au territoire national, basé au sol, comprenant cinq à six sites d’interception (National Missile Defense, ou NMD), un système de défense limité à un théâtre d’opérations, basé lui aussi au sol (TMD), avec des intercepteurs placés en mer, dans l’air et sur véhicules terrestres mobiles et un système spatial de défense globale (GMD) de mille intercepteurs spatiaux. Cooper considérait alors la partie spatiale, Brilliant Pebbles et Brilliant Eyes, comme mûre et, de loin, la plus cost effective. Le principe de son financement fut approuvé au niveau de 11 milliards de dollars (1991) sur vingt ans. Il aurait été déployé en 1996. Le système complet aurait été prêt en 2004 pour 24 milliards de dollars consacrés aux systèmes sol et cinq à Brilliant Eyes. Une simulation utilisant des données réelles recueillies par le DSP pendant la guerre du Golfe montra que chaque Scud aurait été intercepté par Brilliant Pebbles. Le programme SDI avait enthousiasmé les cercles gouvernementaux, et reçut le soutien sans faille du Congrès qui porta dès le début ses crédits à 4 milliards de dollars par an. Une telle injection de moyens dans les équipements spatiaux engendra la révolution de la miniaturisation des systèmes embarqués. Le programme ne lésina pas sur les missions de démonstration. Passons sur les nombreux tests pour mentionner le programme MSTI (Miniature Sensor Technology Integration), une série de microsatellites de 150 kg environ. La mission consistait en l’essai de capteurs miniaturisés sur satellites de 15 millions de dollars pièce, construits en un an. La plus belle réussite a été l’orbiteur lunaire Clementine, fabriqué en dix-neuf mois sous la direction de mes amis le colonel Pedro (Pete) Rustan de l’US Air Force et Stu Nozette pour seulement 55 millions de dollars, lancé le 25 janvier 1994 et qui a obtenu les deux millions d’images multispectrales du sol sur lesquelles repose aujourd’hui l’étude de notre satellite naturel.

LE BUNKER AMÉRIQUE

233

Le SDI avait fait l’objet de critiques. En particulier, l’American Physical Society (APS) avait bientôt montré que les armes à énergie dirigée, lasers et faisceaux de particules chargées, sur lesquelles reposait le concept SDI, étaient si éloignées de toute possibilité de réalisation que même leur faisabilité ne pourrait être évaluée avant de nombreuses années de recherche. Le président Clinton, élu en 1992, n’aimait pas le SDI. Son secrétaire à la Défense, Lee Aspin, changea son nom en Ballistic Missile Defense Organization (BMDO) le 13 mai 1993 et affirma que le temps du SDI était clos, tout en le félicitant pour avoir contribué à la fin de la guerre froide, opinion absurde partagée par les experts Margaret Thatcher et Alexandre Soljenitsyne. Il fusilla Brilliant Pebbles, asphyxia presque tout Brilliant Eyes et retira 25 % du budget à sa propre priorité, la défense de théâtre. Il faut dire qu’en retour nos amis du SDI, eux, haïssaient M. Clinton. Dans le bureau de Stu Nozette au sous-sol du Pentagone, je contemplai avec un sourire la galerie de photographies choisies : Nixon, Reagan, Bush, Thatcher. Le Département de la Défense conduisit pendant l’année 1993 une revue critique des besoins américains dans la période de l’après-guerre froide, intitulée Bottom-Up Review (BUR). Sa conclusion donna la priorité à la défense antimissile de théâtre, structurée autour de trois projets devant recevoir chacun environ 3 milliards de dollars et que nous décrivons dans les pages suivantes : l’amélioration du système Patriot, l’augmentation des capacités du système Aegis de défense antiaérienne de la Navy jusqu’au pouvoir d’intercepter des missiles de théâtre, et un nouveau système de défense antimissile pour l’armée de terre appelé Theather High Altitude Area Defense (THAAD). Les interceptions utiliseraient la collision (hit-to-kill) dont la faisabilité avait été démontrée et la destruction à distance, par laser ou autre moyen était renvoyée à plus tard. À la fin de 1993, le général Malcolm R. O’Neill, devenu le premier patron du BMDO, procéda à une résection radicale : le budget sur cinq ans de la défense antimissiles fut réduit de 39 milliards de dollars à 17 ! Le nouveau programme introduisit une vraie nouveauté, engendrée par les investissements du SDI : au début de 1994, l’armée de terre choisit un intercepteur par collision hit-to-kill, pour l’Extended Range Interceptor ou ERINT, missile du système Patriot rajeuni, alors que jusque-là les missiles antimissiles portaient des munitions chimiques ou nucléaires, les unes et les autres difficiles à mettre en œuvre.

234

INTRODUCTION AU SIÈCLE DES MENACES

La Missile Defense Agency (MDA) et ses programmes Le déclin d’un ennemi aussi formidable que la Soviétie, capable de lancer des milliers d’ICBM, n’a pas fait disparaître la menace balistique. Bien au contraire, celle-ci prolifère. La Chine, l’Inde, la Corée du Nord, et peut-être le Pakistan, peuvent aligner, maintenant ou à relativement brève échéance, des missiles portant des bombes nucléaires. Une analyse officielle de la menace que font peser les missiles sur le territoire américain (National Intelligence Estimate ou NIE) a conclu en 1995 qu’une telle menace n’apparaîtrait pas avant quinze ans. Attaqué pour biais politique par des parlementaires républicains, ce rapport a été combattu par une Commission10 présidée par Donald Rumsfeld, qui a conclu en 1998 : « Les efforts concertés d’un certain nombre de nations ouvertement ou potentiellement hostiles pour acquérir des charges utiles biologiques ou nucléaires posent une menace grandissante aux ÉtatsUnis, à leurs forces, leurs amis et leurs alliés. » La Commission Rumsfeld a établi une liste de nations disposant de missiles11. Sans attendre les conclusions de la Commission qui allaient justifier ses inquiétudes, la nouvelle majorité républicaine du Congrès, élue en novembre 1995, força M. Clinton à proposer en 1996 le développement d’un bouclier national anti-ICBM, le National Missile Defense (ou NMD), avec pour objectif la définition du système en 2000 et son déploiement en 2005. Dès 1996, sous l’influence de plusieurs parlementaires, le Pentagone pensait faire évoluer ce qui restait du BMDO vers un bureau capable de gérer le nouveau programme NMD. Les succès des tirs iraniens et coréens amenèrent William Cohen, le secrétaire à la Défense de Bill Clinton, à ajouter 6,6 milliards de dollars au programme NMD afin de satisfaire au calendrier précédent. Le 14 juin 1999, fut nommé un nouveau chef du BMDO, le général Ronald T. Kadish. En fait le président Clinton traînait les pieds ; le 1er septembre 2000, il annonça « qu’il n’avait pas assez confiance dans la technologie et l’efficacité opérationnelle du système entier NMD pour décider de son déploiement en 2003 » et qu’il laissait la décision à son successeur. 10. Il s’agit de la première Commission présidée par Donald Rumsfeld : Commission to Assess the Ballistic Missile Threat to the United States, 1998. 11. Voir au chapitre VIII une analyse de la prolifération balistique.

LE BUNKER AMÉRIQUE

235

George W. Bush est arrivé à la présidence avec l’intention inébranlable de procéder au déploiement d’une défense antimissiles complète, même s’il fallait pour y parvenir violer le traité ABM par des essais interdits. Et il a fait connaître dès son élection son intention de la rebaptiser à cette occasion, pour des raisons diplomatiques, MD ou Missile Defense. Le 2 janvier 2002, le secrétaire à la Défense unifia tous les services impliqués, y compris le BMDO, dans une nouvelle structure, la Missile Defense Agency (MDA) dirigée par le général Kadish. La mission de la MDA est de développer, essayer et préparer au déploiement le Ballistic Missile Defense (BMD) System, défini comme un système complet de défense antimissiles, comprenant des capteurs terrestres, maritimes, aériens et spatiaux et des intercepteurs complémentaires, utilisant la technique hit-to-kill de destruction par collision contre toutes classes et portées de menaces balistiques. Les produits de la MDA seront transférés aux Forces pour production et déploiement dès qu’ils auront été déclarés techniquement au point. Son budget annuel varie entre 7 et 8 milliards de dollars (2002-2007). Le BMD intègre les programmes développés jusque-là indépendamment par les différents Services en une défense multicouches qui doit engager l’assaillant dans toutes les phases de sa trajectoire. Nous les présenterons tels qu’ils sont structurés aujourd’hui dans la MDA, bien que la plupart d’entre eux aient déjà un long passé. LE SEGMENT D’INTERCEPTION PENDANT LA PHASE TERMINALE

(TERMINAL

DEFENSE SEGMENT OU TDS)

Le segment inclut THAAD, Patriot (PAC-3) et un programme naval, auxquels il faut ajouter l’effort israélien Arrow Deployability Program, qui bénéficie lui aussi du financement par la MDA. Le budget du TDS pour 2003 s’élève à 1,3 milliard de dollars et devrait rester à ce niveau jusqu’en 2007. La défense de théâtre : THAAD (Theater High Altitude Area Defense)

Vingt-sept nations possèdent des missiles balistiques de théâtre (Theater Ballistic Missile ou TBM), définis comme possédant une portée réduite (800-5 000 km). Depuis 1980, des engins balistiques ont été utilisés dans sept conflits régionaux. La technologie de la fusée V-2 est disponible pour 1 million de dollars sous sa version soviétique améliorée, le Scud12. 12. Voir chapitre VIII.

236

INTRODUCTION AU SIÈCLE DES MENACES

La guerre du Golfe a démontré la nécessité de défendre les Forces contre les attaques menées par les missiles balistiques de théâtre : les quasi seules pertes des troupes américaines furent causées le 25 février 1991 par la chute d’un Scud sur un magasin militaire près de Dhahran, tuant vingt-huit Américains et en blessant plus de cent. Le Congrès vota en 1991 le National Missile Defense Act qui envisageait la mise en service en 2000 d’un système déployable de missiles de théâtre pour les troupes projetées, le Theater High Altitude Area Defense ou THAAD. Le programme, confié à Lockheed Martin, compte 1 233 missiles, 99 rampes de lancement et 18 radars pour un coût de 17,6 milliards de dollars étalé sur dix ans. Le coût unitaire d’un engin s’élève à 5,3 millions de dollars. THAAD a pour mission la défense des troupes projetées, américaines et alliées, des installations dispersées et des centres de population contre les engins à courte et moyenne portée. Il intervient contre des missiles tactiques parvenus dans un rayon de cent kilomètres et les intercepte par la technique hit-to-kill dans la haute atmosphère ou en dehors de l’atmosphère. Le système comprend des rampes mobiles portant les missiles, des intercepteurs, des radars, un centre de gestion, contrôle et commandement, et des unités ISR. La détection des agresseurs est assurée par des satellites DSP ou des avions AWACS. Une fois la décision d’engagement prise, un radar en bande X assure l’acquisition de la cible, suit sa trajectoire et agit sur la propulsion du missile antimissile constitué d’une fusée mono-étage à combustible solide, dont se sépare pour la phase d’approche finale un véhicule tueur à capteur infrarouge. Un délai est prévu au cas où le THAAD rate sa cible pour laisser une dernière chance à un système Patriot. Les essais de THAAD ont été laborieux. Commencés en 1995, ils n’ont connu le succès qu’au dixième et onzième tirs, en juin et août 1999. À la fin de 1997, une commission d’enquête présidée par le général Larry Welch (USAF Ret.) a conclu que le projet s’était « précipité dans l’échec » (rushed to failure) pour avoir donné la priorité à son calendrier (schedule driven). Après une restructuration du projet, les prochains essais ne sont pas prévus avant 2004. Le déploiement opérationnel n’est pas pour demain. Il en coûte pourtant 800 millions de dollars par an. À première vue, le programme n’a rien de spatial puisqu’il ne possède aucune composante orbitale. Il en reste cependant une, et de la plus grande importance, la composante télécommunications sans laquelle il n’y a pas aujourd’hui de système de défense. Les boucles OODA d’une défense antimissiles sont toutes automatiques, et elles tournent en quelques minutes, entre l’observation

LE BUNKER AMÉRIQUE

237

d’un tir quelque part en Asie, un calcul fait en Amérique, et une riposte tirée sur le théâtre, le tout pendant que l’engin ennemi décrit sa trajectoire. La défense antimissiles des cibles civiles à courte portée : Patriot

La guerre du Golfe a fait connaître le missile Patriot de Raytheon, utilisé contre les Scud irakiens avec peu de succès (25 échecs sur 33 interceptions). Il doit assurer une protection de secteur, c’est-à-dire une défense antimissiles avec une allonge de quelques dizaines de kilomètres. Israël a absorbé 37 tirs de Scud pendant cinq semaines et demie en 1991 sans riposter. Une telle retenue ne restera possible dans l’avenir que si la qualité de sa défense antimissiles est renforcée grâce à la fourniture par les Américains de données d’alerte avancée. En 1991, les données infrarouges filtrées du satellite DSP détectant le tir ennemi étaient transmises au commandement de la Défense aérospatiale américaine situé à Cheyenne Mountain (Colorado), puis les paramètres de la trajectoire étaient envoyés à une cellule établie à l’ambassade américaine à Tel-Aviv, enfin livrés par ligne téléphonique spécialisée à Kirya, le centre national israélien de commandement du système. Le temps de vol d’un Scud entre l’Irak et Israël est d’environ cinq minutes. Dans les premières semaines, l’alerte laissait deux minutes pour agir et ne comprenait qu’une indication assez générale sur la trajectoire du missile. Plus tard pendant la campagne, à la demande d’Israël, le filtrage fut en partie éliminé et la qualité de la liaison améliorée, permettant de doubler le temps disponible pour réagir et de fournir une meilleure estimation du point d’impact probable. À l’heure actuelle, l’interface entre Cheyenne Mountain et Israël passe par des ordinateurs ultrarapides et, de plus, les Américains ont réussi à fusionner les données de plusieurs satellites DSP. Les forces américaines et israéliennes ont mis au point en commun un réseau qui intègre les données de renseignement et celles d’alerte avancées fournies par DSP, les radars navals Aegis et les radars israéliens Green Pine. Aujourd’hui, Israël met en ligne au moins deux batteries opérationnelles de sa propre version du Patriot, l’intercepteur tactique Arrow, qui forment un système avec les trois radars à longue portée Green Pine et le centre de contrôle Citron Tree. Les missiles assaillants, par exemple irakiens, seraient détectés dans leur phase propulsée dès qu’ils apparaîtraient au-dessus de l’horizon, à

238

INTRODUCTION AU SIÈCLE DES MENACES

des centaines de kilomètres, et leur trajectoire serait aussitôt calculée sans avoir à passer par la chaîne spatiale américaine. En cours de perfectionnement depuis son premier engagement, le système appelé aujourd’hui Patriot Advanced Capability-3 (PAC-3) comprend un radar, une station de contrôle, un groupe électrogène, une antenne de communication et huit rampes portant chacune quatre missiles. Les essais en 2001 ont compris des interceptions réussies de missiles balistiques, de missiles de croisière et des deux à la fois. Trois cent quarante-six batteries de PAC-3 seront déployées à partir de 2005. Le missile coûte 1 million de dollars pièce. Pendant la seconde guerre du Golfe (mars 2003) les batteries Patriot déployées au Koweït sont parvenues à intercepter neuf missiles tirés par les Irakiens, mais aussi un avion anglais et un hélicoptère américain. LE SEGMENT D’INTERCEPTION PENDANT LA PHASE DE CROISIÈRE

:

MIDCOURSE DEFENSE SEGMENT (MDS)

Les éléments de ce segment de défense interceptent les missiles agresseurs dans la très haute atmosphère, après l’extinction des propulseurs et avant la rentrée dans l’atmosphère. La MDA développe deux composantes de ce segment, l’une sur la terre ferme, succédant à l’ancien NMD, et l’autre en mer, succédant au Navy Theater Wide Program, en coopération avec le Japon pour la technologie des missiles. Le MDS est le gros morceau de l’activité de la MDA, puisque son budget pour 2003 atteint 3,2 milliards de dollars sur un total de 6,7 ; il devrait rester à ce niveau pendant les prochaines années. Le Ground Based Midcourse Defense (GMD)

Les éléments doivent attaquer les missiles agresseurs durant la partie descendante de leur phase de croisière. Sous son ancien nom de NMD, il a occulté l’attention du public et alimenté des controverses politiques. Il représente, en effet, ce qui reste de la « guerre des étoiles », et l’on notera que sa composante spatiale se réduit à un modeste héritage des Brilliant Eyes, rebaptisé SBIRS. Dans les prochaines pages, nous garderons le nom NMD pour décrire ce programme. Le principe : le NMD est un système de défense non nucléaire contre les missiles lancés par un agresseur. Il se flatte de protéger les cinquante États américains des attaques allant de la faible intensité (quelques dizaines de missiles) à la grande envergure (nombreux ICBM armés de munitions nucléaires, chi-

LE BUNKER AMÉRIQUE

239

miques ou biologiques). Le système comporte des lignes successives : la première est constituée par une constellation de satellites qui détectent le lancement d’un missile pendant sa phase de propulsion. La deuxième ligne est constituée de radars placés au sol qui suivent le missile dans sa phase balistique. La troisième ligne est constituée de missiles intercepteurs lancés du sol, munis eux-mêmes d’un radar et de détecteurs optiques de têtes. Lors d’une attaque de missiles contre les États-Unis, la première connaissance du lancement viendra d’un réseau de satellites. Dans la première étape du projet, le DSP remplira cette fonction. Plus tard, il sera complété ou remplacé par le SBIRS (Space Based Infrared System), développé sur un autre budget que le NMD. La composante spatiale du NMD, le SBIRS, est le seul élément directement hérité du programme SDI, et entre aujourd’hui dans sa phase de démonstration et de validation. Le rôle de cette constellation est de compléter la défense de théâtre en fournissant la poursuite des missiles balistiques pendant toute leur trajectoire ; elle apporte au NMD non seulement les données de ciblage mais aussi des renseignements techniques utiles à la discrimination. Sa configuration finale comprendra vingt-quatre satellites de 700 kg en orbite basse (SBIRS-Low), distribués sur quatre plans orbitaux, portant chacun deux capteurs, l’un pour l’acquisition de cibles et l’autre pour leur poursuite, opérant dans plusieurs domaines de longueurs d’onde du domaine infrarouge. Au début du programme, un ensemble de six satellites en orbite haute (quatre en GEO et deux en orbite excentrique), appelé SBIRS-High, aurait été chargé de l’acquisition des cibles, alors que SBIRS-Low aurait assuré la poursuite des missiles et la discrimination entre la tête porteuse de charges létales (nucléaires, biologiques…) et les leurres. Le programme SBIRS-High d’un coût exorbitant est aujourd’hui abandonné. Le premier lancement de SBIRS-Low est prévu pour 2006. À ces systèmes spatiaux s’ajoutent, pour la détection et la poursuite, deux types de radars placés au sol : d’une part neuf radars bande X (de fréquence environ 10 GHz) développés spécialement pour le NMD, auxquels leur fréquence élevée donne la résolution nécessaire à la poursuite précise et à la discrimination ; d’autre part les six radars d’alerte Early Warning déjà déployés en cinq sites du temps de la guerre froide, l’un d’eux en Angleterre et un autre au Groenland. À un point sur son parcours balistique, avant de rentrer dans l’atmosphère, le missile ennemi se sépare en plusieurs têtes. Le radar bande X (XBR) devra alors guider un intercepteur vers la cible. Il doit d’abord être capable de détecter une tête classique à

240

INTRODUCTION AU SIÈCLE DES MENACES

la distance de 4 000 km et une tête à signature réduite à 2 000, puis permettre de discriminer entre les têtes dangereuses et les leurres. À ce moment, l’intercepteur (GBI, ou Ground Based Interceptor) sera tiré vers les cibles à partir d’un site terrestre fixe. Sa fonction est de porter sa charge utile, l’EKV (Exoatmospheric Kill Vehicle) à une altitude voisine de celle du missile approchant, c’est-à-dire 200 à 250 km. L’EKV, de masse 54 kg (aujourd’hui) et de longueur 1,4 m, n’emporte pas d’explosif. Sa mission est de poursuivre la cible et de la détruire par collision à la vitesse relative de 25 600 km/h. L’EKV sera le cœur du système NMD. Capable de discrimination, il recevra en temps réel pendant son vol des informations provenant des radars et de ses propres capteurs infrarouges, et commandera grâce à elles ses propulseurs sur la trajectoire désirée de collision. Après une première phase du programme où seront déployés vingt intercepteurs basés en Alaska (la menace est supposée venir d’Asie, aujourd’hui de Corée du Nord, et demain de Chine), le système grandira jusqu’à déployer deux cent cinquante intercepteurs enterrés chacun dans un silo. Deux tirs par cible sont jugés nécessaires pour la détruire avec une quasi-certitude. Le cerveau du NMD est le système BMC3 (Battle Management Command Control and Communications) qui gère le commandement des opérations, le contrôle de l’engagement et les communications. Placé auprès du quartier général de la défense aérospatiale américaine, le NORAD, à Cheyenne Mountain (Colorado), il détermine la nature de la menace, identifie les missiles assaillants, fixe les conditions dans lesquelles interviendront les salves d’antimissiles lancées à leur rencontre, transmet au GBI des éléments pour la poursuite de l’objectif et actualise les données pour l’EKV jusqu’aux derniers moments du vol. Dans sa configuration finale, le système complet sera constitué de deux sites de tir (l’un en Alaska, l’autre dans le Dakota du Nord), trois centres de commandement, cinq stations de télécommunications, quinze radars, trente satellites. Même s’il s’agit « d’atteindre une balle avec une balle » (et une balle qui va sept fois plus vite qu’une balle de fusil), on admet généralement qu’avec la technologie existante, les intercepteurs NMD peuvent être conçus de façon à toucher leur cible. En dépit de l’extrême difficulté de la mission, on n’aperçoit aucun motif de blocage théorique. L’épreuve de vérité réside dans les essais. Les essais : dans tous les tirs d’essais prévus dans le programme NMD, une cible est lancée par le vieux ICBM à propulsion

LE BUNKER AMÉRIQUE

241

solide Minuteman, sorti du silo pour modernisation, à partir de Vandenberg Air Force Base, située à 200 km au nord de Los Angeles. L’intercepteur est tiré de l’île Meck dans l’atoll de Kwajalein. Dix-neuf essais en grandeur réelle sont prévus pour valider le programme. C’est peu, si l’on compare avec les 165 tirs du programme Safeguard, les 125 du Polaris et les 101 du Minuteman. Les essais du NMD sont très lourds : ils coûtent chacun 90 millions de dollars et mobilisent six cents personnes, civils et militaires. Le premier essai fut la première tentative d’interception par un EKV, le 2 octobre 1999. L’EKV intercepta correctement la cible de 2 m × 1 m, qu’il sut discriminer d’un ballon leurre (diamètre 120 cm) et de l’étage porteur. Le deuxième essai devait démontrer la fonctionnalité intégrée de tous les éléments du NMD. Les senseurs ne trouvèrent pas la cible qui fut manquée d’une bonne centaine de mètres. Le troisième essai, du 8 juillet 2000, identique au précédent, entraîna la décision de non-déploiement du système, prise par Bill Clinton. L’EKV ne se sépara pas du GBI, par suite de la défaillance d’un processeur dans l’avionique du lanceur, processeur utilisé depuis dix ans sans incident : l’échec, total, n’était pas dû à la technologie spécifique du NMD, mais provenait d’un équipement auxiliaire très fiable, le lanceur. Le général Kadish ne put que déclarer aux journalistes que l’éventualité d’une telle panne ne figurait même pas sur sa liste des incidents prévisibles. Les essais, suspendus par Bill Clinton, reprirent avec l’arrivée de George W. Bush au pouvoir et un essai identique aux précédents fut réussi le 14 juillet 2001, sauvant ainsi le programme. Le 18 octobre 2002, succès encore avec impact de l’EKV sur la tête de rentrée « ennemie » discriminée du cortège de quatre leurres qui l’accompagnaient. Malheureusement, lors de l’essai suivant le 11 décembre 2002, l’EKV ne s’est pas séparé du GBI, une fois de plus. Échec également en juin 2003. Aussitôt après le succès du 14 juillet 2001, Paul Wolfowitz, numéro deux du Pentagone, fit savoir au Sénat que les États-Unis dénonceraient dès février 2002 le traité ABM. En effet, le BMDO avait prévu de continuer ses essais d’interception et de les compléter par de nombreux tests de sous-systèmes. L’Administration Bush n’avait l’intention de négocier des aménagements ni avec Moscou ni avec quiconque, mais de passer en force, comme le montre la fin de l’interview de Richard Perle déjà citée13. Vous croiriez entendre parler le prince Prospero : 13. Voir p. 202.

242

INTRODUCTION AU SIÈCLE DES MENACES

« Question : Le projet de bouclier antimissiles américain inquiète les Européens. Ne risque-t-il pas de susciter un nouvel antiaméricanisme ? Réponse : Nous allons nous en doter, que cela vous plaise ou pas ! Il y a deux manières de le faire : en coopération étroite avec nos alliés ou bien, si vous n’en voulez pas, vous pouvez aller au diable et nous le ferons sans vous ! Il est politiquement très dangereux de nous dire que nous n’avons pas le droit de nous défendre mais que nous devons vous protéger. La meilleure solution, c’est que vous cessiez de vous plaindre. »

Les Russes manifestèrent leur mauvaise humeur, comme ils l’avaient déjà fait auprès du président Clinton lorsque, au printemps 2000, il leur avait indiqué son intention, encore intacte à ce moment, de poursuivre le programme NMD. Ils menacèrent de se retirer du traité START II qui prévoit le démantèlement des SS-18, des SS-20 et en général une forte réduction du nombre des missiles déployés de part et d’autre. Convaincus de l’incapacité de Moscou à entretenir son arsenal, les Américains ne se laissèrent pas impressionner. Les essais de la MDA s’accélèrent sans qu’on tienne compte des traités. Vogue la galère ! Le programme est caractérisé par une combinaison de défis qui s’ajoutent à de lourdes charges imposées au management : le premier emploi d’une technologie avancée, une architecture système complexe, des calendriers comprimés et concurrents, des temps de développement longs, une durée de vie opérationnelle grande, un coût élevé et susceptible de dériver, la complication des accords de contrôle d’armement, enfin la participation d’une multitude d’organisations gouvernementales et de services. La vraie difficulté : si l’on admet que les intercepteurs NMD peuvent être conçus de façon à atteindre régulièrement des cibles non coopératives, la solution de ce problème ne signifierait pas qu’une menace véritable serait écartée : l’efficacité du NMD dépendra de sa capacité à déjouer les contre-mesures de l’attaquant. N’oublions pas qu’elles reposeront sur une technologie beaucoup plus simple que celle de la défense. De plus, l’attaquant connaît l’architecture de la défense, parce que sa construction exige de nombreuses années, alors que le défenseur se trouve dans l’ignorance complète des contre-mesures, dont le développement peut aisément être maintenu secret. La véritable question est donc : quelle serait l’efficacité des contre-mesures déployées par un État agresseur vis-à-vis du NMD tel que prévu aujourd’hui ?

LE BUNKER AMÉRIQUE

243

Citons parmi les contre-mesures déjà évoquées : • Un agent biologique létal placé dans une centaine de microbombes, séparées du missile balistique immédiatement après la fin de la phase propulsée de son vol. Le NMD, saturé par leur nombre, ne pourrait les arrêter toutes. • Une tête nucléaire dissimulée dans un ballon relâché en même temps qu’un très grand nombre de ballons contenant eux aussi une masse interne, mais inerte. Ils pourraient être nombreux parce que légers. Il est sans doute possible d’empêcher toute discrimination par les senseurs du système de défense. • Refroidissement du cône renfermant une arme nucléaire. Le cône porté à la température de l’azote liquide, ne serait plus détectable par les senseurs infrarouges de l’EKV. • Remplacement de chaque leurre par une tête nucléaire. L’arrivée simultanée de trois à dix engins à détruire saturerait le NMD dans sa conception actuelle. Alors que la Soviétie avait déjà mis en avant la possibilité d’une telle parade au SDI, le président Vladimir Poutine en a repris l’idée dans son discours du 19 juin 2001. Elle constitue en effet la contre-mesure la plus sûre et la moins coûteuse à tout système antimissiles. C’est pourquoi elle avait été interdite par le traité ABM. Le programme d’essais du NMD ne s’adresse pas à des contre-mesures du genre de celles que nous venons de décrire. Nous avons vu que des leurres avaient été inclus dans tous les essais déjà effectués. La discrimination, qui a été réussie, était facile parce que, dans les essais, les leurres différaient beaucoup de la tête « active » en apparence physique, en signature infrarouge et en section efficace radar. De plus, la défense connaissait les caractéristiques de la tête et des leurres. Le monde réel auquel sera affronté le NMD est quant à lui imprévisible. Un programme dévolu au développement de méthodes plus versatiles de discrimination par l’EKV s’impose. Ces contre-mesures, devant lesquelles le NMD risque de se montrer impuissant, sont suffisamment simples pour être déployées par des adversaires au moment où le NMD deviendra opérationnel. Certes, les États-Unis pourraient incorporer des contre contre-mesures mais au prix d’un développement non prévu aujourd’hui, et auquel, à leur tour, les assaillants pourraient répondre. Il semble bien que dans cette course entre le glaive et le bouclier, l’avantage restera à l’attaque, car personne ne peut assurer qu’aucun missile ne passera. Un seul suffit. L’objectif officiel du NMD est d’atteindre une certitude à 98 % que le système sera effectif à 95 % contre une attaque de missiles à petite échelle. Le DoD calcule que si une interception a

244

INTRODUCTION AU SIÈCLE DES MENACES

80 % de chances de réussir, deux tirs sur la même cible élèveront le niveau de confiance à 96 % et trois à 99 %. Mais ce raisonnement ne tient pas vraiment compte du potentiel de leurrage qu’un adversaire astucieux serait capable de concevoir. On a noté pendant la guerre du Kosovo à quel point il était facile de tromper un ennemi se reposant sur la technologie moderne. Le Sea-Based Midcourse Defense (SMD)

La finalité est la même que celle du GMD, mais l’engin antimissiles est tiré d’un bateau. Le SMD repose sur l’emploi du système d’armes antiaériennes de l’US Navy déjà existant appelé Aegis (bouclier, en grec), qui a été développé pour défendre les porte-avions. Aegis est constitué de radars à haute performance et d’engins d’interception à très grande cadence de feu guidés par les radars. Le système est si volumineux qu’il a besoin d’un navire entier pour se loger. Le premier croiseur Aegis, l’USS Ticonderoga, entra en service en 1983. Passager nouveau venu, le SMD utilise les radars et ordinateurs du navire et un missile tiré à son bord, le Standard Missile 3 (SM-3). Après la fin de sa phase propulsée, l’étage supérieur du missile, le Light Weight Extra-atmospheric Projectile doit trouver, poursuivre et atteindre l’ennemi dans la partie ascendante de sa phase de croisière. Le premier essai du SM-3 a été conduit avec succès en janvier 2002. Lancé du croiseur de 9 600 tonnes USS Lake Erie, il a atteint et détruit une cible Minuteman lancée de Kaui dans l’archipel d’Hawaï, à cinq cents kilomètres de distance, offrant à la Navy le premier succès hit-to-kill du SMD. Ce test et le suivant, également réussi, le 13 janvier 2002 visaient un missile dans la partie descendante de la croisière. Un troisième essai le 21 novembre 2002 a atteint la cible dans la partie montante, remplissant ainsi l’objectif du programme. Suivant l’ordre donné le 17 décembre 2002 par le président Bush II, le général Kadish a annoncé que trois frégates de la classe Aegis seraient en mesure en 2005 d’embarquer vingt SM-3. L’existence de ce programme est justifiée par la nécessité de surveiller la Corée du Nord, pays placé très haut sur la liste des rogue states, mais la flexibilité du moyen maritime laisse présager son emploi un peu partout. Les États-Unis ont proposé à Israël de déployer un de leurs croiseurs armés du système Aegis au large de sa côte méditerranéenne, afin de détecter, intercepter et détruire les Scud irakiens.

LE BUNKER AMÉRIQUE

245

Une coopération est engagée avec le Japon depuis 1999 pour le développement de composants du missile à intégrer dans le système SMD. On notera que l’utilisation du radar Aegis pour la mise au point d’un missile antimissile est spécifiquement interdite par le traité ABM que le président Bush II a unilatéralement déclaré caduc. La gestion du GMD

Même si le schéma du GMD paraît beaucoup moins futuriste que celui du défunt SDI, d’immenses difficultés n’en restent pas moins à vaincre, et le scepticisme est général. Rappelons que l’objectif est d’atteindre à tous les coups une balle avec une balle. On ne peut espérer y parvenir avec la technologie actuelle : il faut accompagner le programme par un effort puissant de RD, et savoir maîtriser la façon d’incorporer dans le développement les résultats de RD à mesure qu’ils deviennent disponibles. Si nous additionnons les budgets de développement des capteurs et de « technologie » nous trouvons une somme annuelle de 500 millions de dollars en 2003, puis son augmentation jusqu’à 1 milliard de dollars en 2007. Dès sa nomination, le général Kadish mit en place une méthode pour intégrer de façon continue le progrès technique dans le programme sans en interrompre le cours. En six mois, il restructura le BMDO en introduisant le « développement spiral ». Dans ce mode de gestion des programmes militaires, on définit la menace à un instant donné et on la prend comme base pour développer une configuration de système antimenace. Cette configuration sera améliorée à mesure que des perfectionnements deviennent disponibles. Ainsi le système déployé reste-t-il en avance sur la menace. La présentation du budget 2003 de la MDA au Congrès par le général Kadish pose bien le problème. « Puisque les problèmes de sécurité sont aujourd’hui en pleine évolution, une spécification écrite pour une phase de développement d’un système peut devenir rapidement inadaptée et conduire dans un cul-de-sac technologique. Il y a cinq ans personne n’aurait pu écrire une spécification pour l’Internet d’aujourd’hui qui se révélerait correcte. »

Le programme NMD est une illustration du développement spiral. La stratégie d’acquisition successive des systèmes utilise une approche en « blocs » programmatiques de deux ans qui comprend des éléments distincts intégrés dans le système total. À l’intérieur d’un bloc, des évaluations annuelles déterminent si une activité doit être accélérée, modifiée ou arrêtée, en tenant compte

246

INTRODUCTION AU SIÈCLE DES MENACES

du risque technique, du calendrier, du coût et de l’évolution de la menace. Chaque bloc est intégré dans les capacités développées par le bloc précédent. Une « première capacité », comprenant dix intercepteurs basés à Fort Creely (Alaska) sera opérationnelle en 2004. En 2006, dix autres intercepteurs seront installés à Vandenberg. Plus tard, l’on ira jusqu’à deux cent cinquante. Plus tard encore, SBIRS-Low et trois nouveaux radars en bande X compléteront la « deuxième capacité ». Puis… LE SEGMENT D’INTERCEPTION PENDANT LA PHASE DE PROPULSION

(BOOST

DEFENSE SEGMENT OU BDS)

Intercepter le missile pendant le peu de minutes où fonctionne son propulseur exige une action pendant un temps très bref, une grande confiance dans le processus de décision et des capacités multiples d’engagement. On revient là aux faisceaux dirigés qui seuls peuvent fournir une solution. La MDA compte dépenser à ce sujet 800 millions de dollars en 2003 et y consacrera 7 milliards et demi entre 2003 et 2007. Le laser aéroporté (Airborne Laser, ou ABL)

Initialement développé par l’US Air Force, le programme ABL a été transféré en 2002 à la MDA. Monté sous le nez d’un Boeing 747-400, le laser émet un rayon capable de détruire un missile, à huit cents mètres selon certains détracteurs du programme, alors que les promoteurs évoquent une portée de plusieurs centaines de kilomètres. L’acquisition de la cible, d’abord désignée par satellite ou par avion AWACS, est obtenue par un détecteur infrarouge puis par un illuminateur laser. L’on prévoit le déploiement, en 2008, de sept avions destinés à contrer les missiles balistiques de théâtre tels que les Scud. En cas d’attaque intercontinentale, les ABL n’ont pas l’allonge qui leur permettrait d’abattre des ICBM en phase d’ascension. Ils auront à traquer les têtes multiples de ces missiles dans leur phase de retombée. L’ABL est une arme stratégique destinée à se porter vers n’importe quel point du globe en vingt-quatre heures pour protéger les troupes amies sur un théâtre extérieur. Recherches amont

La MDA continue à penser qu’il est possible de détruire à partir de l’espace les missiles lors du lancement, et prétend suivre plusieurs pistes sur lesquelles elle ne donne pas d’information. On apprend, en novembre 2002, qu’elle veut développer une fusée ultrarapide pour atteindre le missile ennemi pendant la

247

LE BUNKER AMÉRIQUE

phase de propulsion. Dans le dernier test, le SM-3 a volé à la vitesse de 3 km/sec pour attaquer en phase de croisière. La MDA met au concours la nouvelle plate-forme KI-Boost qui devrait atteindre 6 km/sec destinée à assurer à la fois son segment terre et son segment mer. La production de l’ensemble propulseur plus tueur commencerait vers 2008-2010. Cependant la MDA réfléchit toujours à la faisabilité d’un système laser placé dans l’espace : ce serait la résurrection du SDI. Le projet Integrated Flight Experiment placerait en orbite vers 2012 un laser moins puissant que celui de l’ABL. Après cette démonstration, le programme évoluerait vers trois lancements par an à partir de 2018 pour aboutir à une constellation de 24 satellites opérationnels en 2025. Un laser, tel qu’il est envisagé pour remplir sa mission, pèserait 35 tonnes, masse que ne peut placer en orbite aucun lanceur américain. On reste dans le domaine de la fiction. LE BUDGET DE LA MDA

Le coût de la défense antibalistique a été estimé en 2002 par le Congressional Budget Office. Nous déduisons de ce rapport les chiffres suivants, exprimés en milliards de dollars constants (2001) pour la période 2002-2015. Budget de la MDA (milliards de dollars) GMD

GMD

GMD

augmenté

(3 sites)

SMD

Boost phase laser (2013-2025)

Coût annuel

1-4

2-7

2-8

2-7

1-7

Coût total jusqu’en 2015

23-25

51-58

56-64

43-55

56-68

Coût annuel des opérations après 2015

0,6

1,2

1,4

1

1-7

Pour leur bouclier dont ils ne sauront pas colmater les fissures, les États-Unis s’apprêtent à dépenser 200 milliards de dollars. CONCLUSION

L’extraordinaire vision des physiciens de Livermore, qui confiait la bataille aux forces spatiales armées de lumière pour observer et frapper l’ennemi à partir de l’autre bout du monde, a

248

INTRODUCTION AU SIÈCLE DES MENACES

reçu, pendant un bref instant, le statut de doctrine officielle de défense et le financement correspondant. Deux camps la défendirent : les uns, que nous appellerons les « rêveurs », et parmi eux se rangeaient Edward Teller et le président Reagan, pensaient que les États-Unis pourraient vraiment devenir invulnérables ; les autres, tels le conseiller du président pour la sécurité nationale, Robert MacFarlane, et le général Colin Powell, alors assistant militaire du secrétaire à la Défense, que nous appellerons « réalistes », ne croyaient pas à l’efficacité du programme, mais y voyaient un atout dans les négociations de désarmement avec la Soviétie. Telle qu’elle se présentait dans les années 1980, la construction du superdôme spatial appartenait au royaume onirique des missions impossibles. Aujourd’hui le débat se livre dans un contexte différent, car la loi de Moore a pu agir pendant vingt nouvelles années : l’évolution de la technique et, corrélativement, celle du concept même de défense antimissiles, ont permis au général Kadish d’enregistrer assez de coups au but pour persuader les « rêveurs » qu’ils ne rêvent pas, mais qu’il est effectivement « réaliste » d’empêcher un groupe terroriste, un rogue state ou un militaire soviétique incontrôlé de bombarder le territoire sanctuarisé des États-Unis. En fait, la défense antimissiles n’est qu’un des aspects de la dissuasion. Les forces nucléaires déployées par les puissances qui en possèdent ne servent pas à détruire un adversaire mais à l’intimider. Tout le monde sait que pendant la guerre froide l’objectif des Occidentaux consistait à éviter l’invasion de l’Europe par les forces conventionnelles soviétiques. Aujourd’hui les « réalistes » craignent que des États tels que l’Irak, la Corée du Nord, l’Inde et surtout la Chine, possesseurs de quelques bombes, n’imposent à l’Amérique la stratégie que celle-ci a imposée à la Soviétie. Pour enfoncer éventuellement cette ligne, l’hyperpuissance veut acquérir ce que la Soviétie ne posséda jamais, la liberté d’attaquer qui bon lui semble. Supposons, par exemple, que la Chine se montre agressive envers Taiwan et qu’elle paraisse résolue à utiliser ses forces nucléaires. Les États-Unis ne pourront partir en guerre pour Taiwan sans l’assurance d’un bouclier capable de neutraliser une ou deux douzaines de missiles nucléaires chinois. La défense antimissiles n’est plus une capacité défensive, mais une capacité offensive ; elle a pour objectif de rendre les risques de la projection de puissance compatibles avec ses enjeux. Le programme est totalement politique. D’ailleurs les militaires n’y tiennent pas ; ce qu’ils veulent avant tout, ce n’est pas une défense antimissiles mais, prosaïquement, de la bande passante pour leurs forces.

LE BUNKER AMÉRIQUE

249

La guerre dans l’espace14 LE SECOND RAPPORT RUMSFELD

Dès les années 1960, la Soviétie avait envisagé les armes orbitales, c’est-à-dire le placement sur orbite d’engins munis de bombes nucléaires, qui rentreraient dans l’atmosphère pour tomber sur une cible. Le prix et le danger de tels systèmes ont amené les Deux Grands à s’entendre pour essayer de les bannir et de donner à l’espace un statut neutralisé, voisin de celui des Territoires antarctiques. Trois traités régissent aujourd’hui le comportement des États vis-à-vis de l’armement spatial : • Le traité d’interdiction des essais nucléaires (Limited Test Ban Treaty), signé en 1963, interdit l’essai d’armes nucléaires dans l’espace. • Le traité de l’espace extérieur (Outer Space Treaty), signé en 1967, interdit le déploiement en orbite d’armes de destruction massive. • Le protocole MTCR (Missile Technology Control Regime) codifie les exportations afin d’éviter la prolifération de la technologie des propulseurs15. Quelques définitions s’imposent ici pour éclairer un sujet un peu ésotérique. On appelle : • Pouvoir spatial (space power) : capacité d’employer éventuellement le milieu spatial et des éléments qui s’y trouvent, dans le but d’augmenter et de projeter de la puissance militaire. • Militarisation de l’espace (space militarization) : situation dans laquelle les militaires utilisent effectivement l’espace pour remplir leurs missions. Si, comme nous l’avons vu, les forces armées américaines éprouveraient aujourd’hui les plus grandes difficultés à se passer des trois constellations principales de l’espace, celles-ci ne livrent pas de combat, mais servent de compléments de soutien au combat, essentiels certes, mais passifs. • Arsenalisation de l’espace (space weaponization) : positionnement en orbite d’armes qui peuvent frapper des cibles localisées sur la Terre, dans l’atmosphère ou dans l’espace lui-même. En fait, aucun accord n’interdit formellement la présence d’armes dans l’espace, ni l’emploi de moyens spatiaux pour les 14. On lira avec intérêt Benjamin S. Lambeth, Mastering the Ultimate High Ground, Santa Monica, Rand, 2003. 15. Voir p. 334.

250

INTRODUCTION AU SIÈCLE DES MENACES

actions de force, à condition que des armes de destruction massive ne soient pas impliquées. La frontière entre ce qui est permis et ce qui est banni est floue, et ne se définit que par la force relative des différents États. Comme l’a noté le second rapport Rumsfeld16 auquel nous avons déjà fait allusion, le gouvernement américain dépend de plus en plus du secteur commercial de l’espace pour sa sécurité : communications et télédétection ne sont pas seulement indispensables aux responsables politiques, aux analystes du renseignement et au commandement militaire mais à la vie économique de la nation : si les capacités spatiales venaient à manquer, on pourrait craindre une catastrophe de l’économie mondiale. La panne du seul satellite Galaxy IV, le 19 mai 1998, a interrompu 80 % de la messagerie aux États-Unis (45 millions d’abonnés), les transmissions en temps réel des marchés boursiers pendant douze heures, aussi bien qu’une part non négligeable des entrées vidéo pour câbles, les transmissions de six cents stations de radio, les réseaux d’autorisation des cartes de crédit et les systèmes de communication des grandes sociétés. On cite aussi l’erreur d’un contrôleur du réseau GPS, qui cliqua pendant six secondes une mauvaise valeur du temps sur un des vingt-quatre satellites de la constellation avant qu’un automatisme ne la détectât et la corrigeât. Plus de cent des huit cents réseaux de téléphone cellulaire de la côte est des États-Unis arrêtèrent de fonctionner ; les uns prirent des heures et les autres des jours pour s’en remettre. Une défaillance majeure du système GPS bouleverserait à travers le monde entier les transports par ambulances, les opérations de police, interromprait la distribution d’électricité, gripperait le système bancaire et, dans l’avenir, menacerait le trafic aérien. Le GPS présente un cas particulier. Son emploi spectaculaire au Kosovo a ému la Russie, qui s’est inquiétée de voir les moyens militaires américains se placer soudain hors du pair. Elle a réagi en faisant développer un brouilleur portable de 4 watts, commercialisé par la société AviaKonversia et présenté au salon du Bourget en 2002. Le signal GPS est en effet très fragile : un émetteur de la taille d’un paquet de cigarettes suffit à le rendre inutilisable sur plusieurs kilomètres carrés, comme l’a démontré un brouillage accidentel de l’US Air Force au cours duquel un émetteur de 5 watt a empêché l’emploi de GPS le long de trois cents kilomètres de la côte est des États-Unis. Si Oussama Ben Laden s’était payé un équipement AviaKonversia, la campagne américaine en Afghanis16. Rapport de la seconde commission Rumsfeld, Commission to Assess US National Space Management and Organization, 2000. Voir p. 148.

LE BUNKER AMÉRIQUE

251

tan aurait été beaucoup plus difficile, plus longue et plus coûteuse, car les PGM n’auraient pas atteint leur cible. Il est vrai que le brouilleur présente une adresse de retour grâce à laquelle on peut le localiser et le faire taire avec une bombe. D’autres méthodes permettent de s’en protéger comme l’emploi de logiciels de gestion de fréquence. Mais l’effet de surprise peut jouer et rendre l’emploi du GPS beaucoup moins simple qu’on ne l’imagine aujourd’hui. Et si Al-Qaida avait disposé de PGM guidés par GPS, ou si elle avait réussi à le faire croire ? Pour les contrer, un brouillage allié, en empêchant la distribution du temps par GPS, aurait risqué d’arrêter toute la production d’électricité de l’Inde et du Pakistan. Dans le domaine stratégique, il faut tirer les conséquences de la doctrine américaine que nous avons longuement analysée. Elle repose sur deux piliers, l’Information Dominance obtenue principalement par des capacités spatiales, et la protection du territoire et des troupes américaines par la défense antibalistique où l’alerte avancée est donnée à partir de l’espace. Ainsi, pour la Commission Rumsfeld, les États-Unis dépendent de l’espace plus que les autres nations. Ils sont donc plus vulnérables puisque les systèmes spatiaux sont vulnérables. L’importance politique, économique et militaire de l’espace, associée à cette combinaison de la dépendance et de la vulnérabilité, fait qu’ils offrent à leurs ennemis une cible de choix. Or des nations hostiles aux États-Unis possèdent ou peuvent acquérir les moyens de détruire les systèmes spatiaux américains. Et voici la phrase choc trouvée par les rédacteurs du rapport, qui a fait le tour de l’Amérique : « Les États-Unis sont un candidat désigné à un Pearl Harbor spatial. »

Tout est dit dans ce rappel de l’un des traumatismes les plus profonds de l’histoire américaine, et l’avertissement s’est trouvé aussitôt souligné par un nouveau Pearl Harbor le 11 septembre 2001. La Commission Rumsfeld affirme qu’en l’absence de moyens adéquats pour prévenir une telle attaque contre leurs systèmes spatiaux, la protection des capacités spatiales nationales doit être placée au sommet des priorités de sécurité, c’est-à-dire sous l’autorité directe du président17. Le danger n’est-il pas démontré, puisqu’en juillet 2000, l’agence de presse Xinhua a annoncé que la Chine développait des méthodes et des stratégies pour battre les militaires américains dans une future guerre hightech reposant sur les moyens spatiaux ? 17. Rapport Rumsfeld, op. cit., p. 13-14.

252

INTRODUCTION AU SIÈCLE DES MENACES

Puisque l’espace est vital, il doit être défendu. « Les membres de la Commission estiment que le gouvernement des États-Unis devrait garantir que le président aura l’option de déployer des armes dans l’espace afin de dissuader les menaces et, le cas échéant, opposer une défense contre les attaques portées aux intérêts américains. »

Et la Commission philosophe : l’Histoire est pleine d’exemples où les avertissements ont été ignorés et les réformes repoussées jusqu’à ce qu’un événement extérieur « improbable » force les bureaucrates à l’action. La question est de savoir si les ÉtatsUnis seront assez sages pour agir et rapidement réduire leur vulnérabilité spatiale ; ou si, comme dans le passé, une attaque douloureuse contre la nation et son peuple, un Pearl Harbor spatial sera le seul événement capable de galvaniser le pays. We are on notice, but we have not noticed. Il a été remarqué que parmi les treize membres de la Commission, sept étaient des officiers retraités, et tous les autres avaient une longue expérience des affaires militaires. On peut craindre que la tendance à traiter la politique exclusivement sous l’angle militaire, que nous avons épinglée déjà dans l’approche américaine des affaires internationales, ne pollue aussi le traitement général des activités spatiales. À un observateur extérieur qui ne fait pas partie de la clique droitière américaine, le point de vue de la Commission Rumsfeld semble un fantasme délirant, car, en réalité, personne ne menace réellement l’arsenal spatial américain. Pourtant le rapport considère un conflit dans l’espace comme une quasi-certitude (virtual certitude). Après la publication du rapport, que la nomination de son auteur au poste de secrétaire à la Défense transforma en doctrine officielle, on vit renaître les scénarios grandioses qui convertissent l’espace en un théâtre d’opérations digne d’Hollywood. Un organisme de planification de l’US Air Force, le Space Warfare Center organisa aussitôt, dès janvier 2001, le premier important jeu de guerre à se focaliser sur l’espace comme principal théâtre d’opérations. Conduit à Schriever Air Force Base dans le Colorado, il imaginait un conflit en 2017 entre les forces Bleues et Rouges, ressemblant respectivement aux États-Unis et à la Chine, possédant les uns et les autres des armes spatiales et des lasers au sol. Les Bleus déployaient une défense nationale antimissiles, et les Rouges des armes antisatellites. Premier jeu postulant des armes spatiales positionnées dans l’espace et non l’emploi de moyens spatiaux limité au soutien des opérations au sol, sur mer et dans l’air. Dressons la liste des décisions prises par Donald Rumsfeld pour mettre en place la Missile Defense.

LE BUNKER AMÉRIQUE

253

Le 13 décembre 2001, les États-Unis déclarent officiellement qu’ils se retireront du traité ABM dans six mois. Pour Andrei Kokochine, ancien ministre adjoint russe de la Défense et membre de la Douma, la Russie était pourtant prête à « moderniser » le traité, mais le président Bush II veut se libérer des contraintes imposées par le Conseil de sécurité, par l’opinion de ses alliés, celle de la Chine et celle de la Russie, et même celle du Congrès. Le 2 janvier 2002, la MDA est créée pour revitaliser le BMDO (nous l’avons déjà mentionné p. 235). Le 26 juin 2002, le Pentagone fusionne l’US Strategic Command qui comprend l’arsenal des armes nucléaires, déployées dans des silos, des sous-marins ou sur des avions, et l’US Space Command qui comprend l’arsenal des satellites du DoD et des moyens sol associés. La réorganisation s’inscrit dans la nouvelle doctrine Bush qui permet des frappes préventives contre des États ou des groupes engagés dans le développement d’armes de destruction massive. Devant une telle détermination, le doute n’est pas permis. Le rapport Rumsfeld établit un lien logique fort entre la MD et la nécessité de la protéger. La prochaine étape est évidente et paraît inévitable à beaucoup d’observateurs. La défense antimissiles telle qu’elle est prévue aujourd’hui, repose sur la détection par la constellation SBIRS. Or, toujours d’après le rapport Rumsfeld, le seul moyen de défendre une panoplie de satellites contre un Pearl Harbor est le maintien de la supériorité spatiale par le positionnement d’armes dans l’espace. L’exigence militaire de protection amène alors à concevoir une MD globale, c’est-à-dire un système capable de détruire non seulement les missiles à l’attaque mais aussi tous les satellites en orbite qui pourraient cacher des capacités spécifiquement antisatellites (satellites antisatellites dits ASAT). Le remède proposé à la vulnérabilité de l’espace américain est le Space Control18. Reprenons la définition de ce concept proposé par l’US Space Command : c’est, prétendument, « la capacité d’assurer aux forces des États-Unis et de leurs alliés un accès ininterrompu au milieu spatial, et la capacité de dénier aux autres puissances l’accès à l’espace si nécessaire ». C’est, en fait19, « la capacité de conduire des opérations défensives et offensives contre les forces spatiales supposées adverses, afin de protéger ses propres forces spatiales et terrestres ». S’il est complété par une élaboration technique, c’est-à-dire le déploiement d’armes capables de 18. Voir p. 147, note. 19. US Space Command, Long Range Plan, Exec. Summary, mars 1998, p. 7.

254

INTRODUCTION AU SIÈCLE DES MENACES

ces actions offensives et défensives, ce concept constitue le plus grand changement dans la façon dont le monde voit l’espace depuis le début de l’ère Spoutnik. Les États-Unis adaptent ainsi la doctrine énoncée par Alexandre de Seversky en 1942 : « Seule la force aérienne peut vaincre la force aérienne. » Pour eux désormais, « seule la force spatiale peut vaincre la force spatiale ». Nous en arrivons maintenant aux moyens à employer pour atteindre ces objectifs. LES ARMES ANTISPATIALES

La détonation nucléaire

En 1960, DARPA a procédé à l’expérience Starfish, une explosion nucléaire de 1,4 mégatonne à 400 km d’altitude au-dessus de l’île Johnston « pour voir ». Et l’on a vu. Dans le cours de sept mois, sept satellites ont péri par suite de cette initiative inconsidérée, dont le satellite scientifique anglais UK-2 (Ariel). La zone artificielle de rayonnement persista jusqu’en 1970. L’idée, bien qu’effrayante, n’est pas morte. Elle tient en une phrase : Une seule explosion nucléaire de faible puissance (10-20 kilotonnes) à une altitude comprise entre 125 et 300 km pourrait tuer, après quelques semaines ou quelques mois, tous les satellites en orbite basse (LEO) non spécifiquement durcis pour résister au rayonnement engendré par cette explosion. L’effet provient d’abord, et c’est le moins important, des rayons X et de l’impulsion électromagnétique micro-ondes émis en vue directe ; l’efficacité décroît avec le carré de la distance. L’essentiel des dommages est créé par la désintégration des produits instables de la fission, qui émettent des électrons énergiques, dont l’emprisonnement par le champ magnétique terrestre multiplie par un facteur mille l’intensité naturelle du rayonnement corpusculaire dans les régions LEO. La zone inférieure de la ceinture de Van Allen reste « excitée » pendant une période de six mois à deux ans. La protection des satellites commerciaux est insuffisante pour leur permettre de survivre dans un environnement modifié par l’explosion. En fait, les modèles montrent une dégradation très rapide des panneaux solaires, et aussi des équipements électroniques assurant les communications et le contrôle d’attitude, dégradation qui amène une perte de la mission en un temps très inférieur à sa durée de vie nominale. Le satellite d’observation de l’environnement NOAA placé sur une orbite circulaire à 850 km d’altitude, verrait sa durée de vie réduite de quarante-cinq mois à quelques jours par une explosion de 20 kilotonnes à 290 km au-dessus de l’Inde. Pour la constellation de télé-

LE BUNKER AMÉRIQUE

255

communication Iridium qui vole à 780 km d’altitude, la durée de vie baisserait de soixante-douze mois à quelques jours. La perte des satellites météorologiques militaires DMSP produirait une forte dégradation dans la prédiction à trois-cinq jours et la prédiction maritime à douze heures. Tous les satellites imageurs, au nombre aujourd’hui d’une trentaine, seraient éliminés ainsi que les satellites scientifiques dédiés à la géophysique et à l’astronomie. La Station spatiale internationale devrait être évacuée et abandonnée provisoirement. Des scénarios vraisemblables qui amèneraient à une telle agression sont faciles à imaginer : • Après un attentat pakistanais au Cachemire, l’Inde mobilise et ses unités blindées franchissent la frontière. Pour « rendre l’Inde plus raisonnable », le Pakistan fait exploser à 300 km audessus de New Delhi une bombe nucléaire portée par le missile Ghauri. Le Pakistan possède20 déjà les ingrédients nécessaires à ce « coup de semonce ». • Une rébellion dans l’armée nord-coréenne laisse les forces nucléaires et les missiles entre les mains de Kim Jong-Il ; la Corée du Sud et les États-Unis bombardent les sites sensibles. Kim Jong-Il dans un geste de défi lance un Taepo Dong qui produit une explosion à 150 km d’altitude. • En voulez-vous davantage ? Il y a des Scud un peu partout… Comme il est difficile d’envisager des sanctions ou des représailles, la seule protection réside dans le durcissement des satellites LEO, qui pourrait augmenter leur prix d’environ 2 à 3 %. Le durcissement des panneaux solaires serait un remède peu efficace. La nuisance éventuelle d’une telle attaque a diminué avec l’abandon des constellations de télécommunication LEO, puisque les satellites GEO, déjà durcis, ne seraient pas affectés par une explosion à basse altitude. Elle n’en coûterait pas moins aujourd’hui une bonne dizaine de milliards de dollars à la communauté internationale. Seule parade : l’attaque préventive. Systèmes antisatellites

Les traités en vigueur, c’est-à-dire ceux de 1967 et 1973, n’interdisent pas le déploiement de moyens antisatellites : ni les armes conventionnelles, ni les faisceaux laser ou électromagnétiques, ni les agresseurs ASAT. Des armes satellisées pour bombarder le sol ou détruire d’autres satellites, tels que les systèmes américains Program 505 à tête nucléaire et ASAT 427, ou les systèmes soviétiques similaires tels que le Fractional Orbital Bombardment System ou des ASAT co-orbitaux, ont été essayées dans les années 20. Jane’s Defense Weekly, 5 juin 1998.

256

INTRODUCTION AU SIÈCLE DES MENACES

1960, mais ni les uns ni les autres n’ont abouti au déploiement de systèmes opérationnels. Des moyens multiples ont été étudiés et partiellement développés : • L’attaque des stations sol de communications. L’US Army utilise aujourd’hui le système aérien Big Crow qui émet des signaux radioélectriques capables de neutraliser les stations sol ; il ne fonctionne qu’en vue directe de la cible. • L’aveuglement des satellites ennemis à partir du sol par un puissant émetteur laser. L’US Army développe un système de ce genre, qui doit devenir opérationnel en 2008. • L’envoi de fausses télécommandes ; sport auquel s’est livré au début d’octobre 2002, un service américain à partir de Nellis Air Force Base (Nevada) où est installé le Space Warfare Center (SWC), afin d’attaquer les satellites français Spot 1 et Spot 2. Il s’agit là de ce que le droit international appelle acte hostile, mais les États-Unis se considèrent comme chez eux dans l’espace, donc non soumis au droit international. Une unité basée à Nellis AFB, le 527nth Space Aggressor Squadron, imitant des capacités ennemies au moyen d’équipements simples en vente libre commerciale, a pour mission de brouiller des émissions de satellites américains pour tester la vigilance du système. • La mise en orbite d’obstacles tels que débris, poussières, fumées et même mines, c’est-à-dire nanosatellites porteurs d’explosifs. • La mise en orbite de satellites spécialisés ASAT, qui peuvent soit s’approcher d’un ennemi pour l’observer sous toutes ses coutures, soit l’aveugler par un faisceau laser, soit projeter de la peinture sur lui, soit le heurter pour le détruire. L’US Air Force travaille sur de tels engins comme le microsatellite démonstrateur X55-11. Beaucoup d’efforts sont apportés à la mise au point de moteurs rallumables permettant de rapides changements d’orbite. Le sujet ne ressort pas de la science-fiction : dans un exercice de 1997, l’US Army a aveuglé temporairement le satellite cible MSTI-3 du BMDO avec un laser-sol de faible puissance. Nul doute que l’Administration de George W. Bush ne songe très sérieusement à l’arsenalisation de l’espace. Et pourtant on n’imagine pas un rogue state capable de mettre en œuvre même le plus simple des scénarios ASAT : il devrait disposer d’un lanceur de classe ICBM et d’intercepteurs orbitaux de classe NMD ! Pour une attaque en orbite haute GEO ou MEO, les moyens nécessaires s’apparenteraient à ce qu’exige une mission interplanétaire. Des journaux chinois comme le Sing Tao ont annoncé en 1999 le développement secret d’un ASAT, et leur gesticulation a été citée

LE BUNKER AMÉRIQUE

257

par le rapport Rumsfeld. Tout le monde sait pourtant que la possession d’une technologie ne suffit pas à une nation pour la traduire dans le déploiement d’un système militaire. La Chine n’a jamais été capable de produire un avion de chasse performant. D’après un rapport de la Rand21 : « Aucune nation ne possède une capacité ASAT opérationnelle qui pose une menace significative aux systèmes spatiaux américains de sécurité nationale. » Seuls les États-Unis… à moins que la Chine ne les imite un jour. Ce serait justice. Lorsque les États-Unis s’engageront dans la voie de l’arsenalisation tracée par Rumsfeld et ses amis, dont le président Bush II ne s’est pas démarqué, les autres nations devront répondre à la menace implicite qui pèsera sur toute leur activité spatiale, aussi bien civile et commerciale que militaire, alors qu’elles aussi en dépendent de plus en plus. Comme l’a écrit John Logsdon22 : « Si des opérations militaires sont menées dans l’espace, il sera difficile d’empêcher des interférences avec les systèmes civils. » On verra bientôt fleurir des programmes ASAT dont le premier résultat sera l’augmentation du coût de tous les satellites civils et militaires, qui auraient besoin d‘électronique durcie, de panneaux solaires en arséniure de gallium, de résistance au brouillage par encryption ou saut de fréquence. Une remarque de Richard K. Betts23, fait prévoir une course aux armements là-haut en orbite : « L’activisme américain déployé pour garantir la stabilité internationale est paradoxalement la source première de la vulnérabilité américaine. » LE DÉNI D’USAGE À L’AMÉRICAINE (SPACE CONTROL)

Cynthia McKinley24 a étudié les méthodes qui permettraient aux États-Unis d’empêcher quiconque d’avoir accès aux images fournies par le système français de satellites Spot, le premier réseau d’imagerie spatiale commerciale du monde. Outre les satellites, placés sur une orbite circulaire héliosynchrone à 822 km d’altitude et 98°7 d’inclinaison, contrôlés au centre spatial de Toulouse, le système comprend trois catégories de stations de réception : deux stations pour la réception directe capables de 21. Dana J. Johnson, Scott Pace et C. Bryan Gabbard, Space Emerging Options for National Power, RAND, MR-517, 1998, p. 41. 22. John Logsdon, « Just Say Wait to Space Power », Issues in Science and Technology, printemps 2001, p. 36. 23. Richard K. Betts, « The New Threat of Mass Destruction » , Foreign Affairs, janvier-février 1998, p. 28. 24. Cynthia A.S. McKinley, When the Ennemy Has Our Eyes, Thèse M.A. School of Advanced Air Power Studies, Air University Maxwell AFB, Al. 1996.

258

INTRODUCTION AU SIÈCLE DES MENACES

recueillir les images enregistrées à bord et les missions temps réel, situées à Aussaguel (France) et Kiruna (Suède) ; vingt stations pour la réception limitée au temps réel, réparties sur toutes les terres émergées ; des stations mobiles Eaglevision déployées pour la première fois par l’US Air Force pendant la guerre du Golfe. Pour arrêter le flot d’images, il faut frapper quelque part dans le système, c’est-à-dire au choix, le satellite, ou les stations, ou les liens de communications ou le personnel. La première méthode serait la pression diplomatique des États-Unis sur le gouvernement français pour faire interdire la vente des images, ce dont s’abstient déjà volontairement SpotImage, l’intermédiaire entre le satellite et l’utilisateur, en cas d’hostilités. Toutes les autres méthodes : installation d’un virus dans les logiciels d’exploitation, brouillage du signal par émissions sur les mêmes fréquences que celles de l’émetteur de bord, destruction, en particulier des senseurs d’horizon, par des faisceaux laser émis du sol, attaques du centre de contrôle, des stations de réception, du siège du CNES, du champ de tir, toutes ces méthodes qu’elle évoque semblent déraisonnables à l’auteur, non parce qu’elles nuiraient à un pays ami, mais parce qu’elles affecteraient les utilisateurs américains, causeraient une tension internationale et coûteraient très cher en dédommagements. Ne trouvez-vous pas que l’on considère bizarrement les alliés des États-Unis à l’Air University de la base Maxwell de l’US Air Force ? Cynthia McKinley ne retient que l’assaut d’un site de réception des données ou des attaques HUMINT, et encore : ces actions n’obtiendraient que des résultats limités puisqu’elles laisseraient intacte la base de données. Il est clair que seule l’assise internationale du système Spot le protège contre le Space Control auquel pensent les militaires américains. Les petits camarades de l’aimable Cynthia semblent peut-être sur la voie d’une solution avec leurs télécommandes pirates d’octobre 2002. L’US Air Force déploiera en effet, respectivement en 2005 et 2008 les systèmes terrestres Counter Comm et Counter Surveillance Reconnaissance, destinés à neutraliser temporairement les satellites de communication et d’imagerie qui déplairont aux États-Unis. Le diable soit de nos alliés quand ils nous dominent sur notre propre territoire ! Aux menaces des États-Unis, il est normal de voir leurs adversaires répliquer sur le même terrain. Le satellite de l’opérateur Loral Skynet Telstar-12, a commencé, le 5 juillet 2003, des émissions de la chaîne Voice of America (VOA) en langue farsi qui regroupe des programmes d’information, de divertissement et des appels à la protestation contre le gouvernement iranien. Aussitôt la liaison montante de Telstar-12 a été brouillée par un fort signal

259

LE BUNKER AMÉRIQUE

provenant de la base de communications construite à 35 km de La Havane par des techniciens russes au début des années 1990. Le brouillage interfère avec le fonctionnement de nombreuses chaînes de télévision comme la BBC. Téhéran avait déjà réussi à brouiller localement les émissions grâce à des émetteurs situés dans les tours de la ville.

Conclusion L’étonnante poésie des projets engendrés par des habitants de la cybersphère pour se protéger du monde extérieur se marie à un fait plus étonnant encore, l’existence réelle d’un budget de 200 milliards de dollars. Qu’adviendra-t-il de ces extravagances ? La Russie a claironné que le combat pour empêcher la présence d’armes dans l’espace serait son Stalingrad du XXIe siècle. Voire. Nous pouvons plutôt nous attendre à sa conversion, et son exemple entraînera Chinois, Indiens et Japonais. Mais que pensent de tout ce fracas les croisés de Netwar ? Mon amie Susan Eisenhower, la petite-fille du président, m’a confié une boutade pleine de sens : « Ceux qui développent les missiles à tête nucléaire ne sont sans doute pas assez riches pour s’acheter une valise. »

Chapitre VII

PUISSANCE ET JOUISSANCE

Politique de puissance Afin d’obtenir le respect de ses décisions stratégiques, de son autonomie, de son indépendance, un État doit se doter de certains attributs : des forces armées capables de projection, des structures assurant sa sécurité intérieure et, en notre temps, une DIRD à la priorité budgétaire reconnue ; leur existence et leur maintien à un niveau correct définissent une politique de puissance. La puissance se définit par « la capacité de faire, c’est-à-dire d’agir avec maîtrise selon ce qu’on a décidé, la capacité de faire faire, la capacité d’empêcher de faire, la capacité de refuser de faire ou de ne pas se laisser dicter son action1 ». Traditionnellement, la puissance d’un pays était évaluée en fonction de sa force militaire, de son poids démographique, de ses influences diplomatiques, de son aptitude à préserver des intérêts majeurs dans les domaines économique et géostratégique, et donc plus généralement de son pouvoir à peser sur la volonté des autres acteurs du champ international. De nouveaux facteurs viennent aujourd’hui s’ajouter aux précédents, à savoir le contrôle des systèmes mondiaux de communication et d’information, le rayonnement culturel et linguistique, le prestige des valeurs politiques, le rôle pivot dans les instances internationales. Ces fac1. Serge Sur, Les Relations internationales, Paris, Montchrétien, 1995.

262

INTRODUCTION AU SIÈCLE DES MENACES

teurs qui appartiennent au domaine immatériel valorisent la capacité d’influence, davantage que la faculté de coercition qui prévalait jusqu’au XXe siècle. Pour Christian Malis : « La maîtrise de l’information est sans doute aujourd’hui un des nouveaux paramètres immatériels qui conditionnent la puissance. Influencer la volonté des autres acteurs, parvenir à la manipuler, façonner les mentalités et dicter les ordres du jour internationaux, tels sont les ingrédients d’une puissance douce pour laquelle le contrôle des supports de l’information joue un rôle majeur2. »

L’espace, par sa fonction et sa spécificité, est donc aujourd’hui une des composantes majeures d’une politique de puissance : il ouvre à l’action une dimension nouvelle, il facilite la prise de décision, il est facteur d’influence. Et c’est pourquoi les États-Unis, qui pratiquent une politique de puissance s’appuyant à la fois sur des facteurs de coercition et des facteurs d’influence, donnent à l’espace une importance décisive, comme nous l’avons vu aux chapitres précédents. L’adoption d’une politique de puissance par les États-Unis a été clairement justifiée3 par le général secrétaire d’État Colin Powell. « Il n’existe aucun pays sur Terre qui ne soit pas touché par l’Amérique, parce que nous sommes devenus le moteur de la liberté et de la démocratie. Et il n’existe aucun pays dans le monde qui ne nous touche pas. Nous sommes un pays de pays, composé de citoyens venus de tous les pays. Nous sommes attachés au monde par mille cordes, à ses villes diverses, à ses régions les plus éloignées, à ses plus anciennes civilisations, à ses plus récents appels pour la liberté. C’est dire que nous avons un intérêt en chaque lieu sur Terre, que nous avons besoin de conduire, de guider, d’aider dans chaque pays qui désire être libre, ouvert et prospère. Nous avons la force de prendre des risques pour la paix et nous avons les moyens de les prendre puisque nous avons souscrit une police d’assurance en développant les forces armées des États-Unis, les meilleures du monde. Ce que nous ferons de notre position de puissance dans les prochaines décennies marquera la Terre irrévocablement pour le bien et pour le mal, physiquement et spirituellement, car notre pouvoir s’étend sur tout, de l’économie à l’environnement, de la musique au cinéma, de la littérature à la science, de l’adaptation génétique à la fragilité humaine et à la maladie […]. Un grand défi nous est lancé, non celui de la survie mais celui du leadership, car nous n’avons pas à confronter un dangereux et sombre ennemi idéologique, mais la pression écrasante de millions de 2. Christian Malis, « L’espace extra-atmosphérique, enjeu stratégique et conflictualité de demain », Le Trimestre du Monde, n° 35, 1996. 3. Déclaration de Colin Powell à l’audience de confirmation de sa nomination comme secrétaire d’État, devant le Sénat des États-Unis, 17 janvier 2000 .

PUISSANCE ET JOUISSANCE

263

gens qui ont tâté de la liberté. Nous devons faire face à notre propre succès. Ici, chez nous, une économie en expansion est nourrie par les révolutions de l’information et de la technologie. La montée de la démocratie dans le monde et la force de la révolution de l’information se conjuguent pour se soutenir. »

L’Europe refuse la politique de puissance Il est légitime de s’interroger sur le rang que les pays européens, qui dominaient la planète jusqu’en 1914, occupent et occuperont au XXIe siècle dans l’évolution historique. La destruction des empires a fait émerger, au début des années 1950, les États-Unis, déjà au cœur des coalitions qui avaient vaincu les uns et les autres, comme le pays dont le PIB représentait la moitié de celui du monde. L’incapacité des nations européennes à projeter des forces adéquates les a contraints à perdre leur domination sur les peuples conquis auparavant. Pendant les cinquante ans qui ont suivi la Seconde Guerre mondiale, leur faiblesse a été masquée par leur position stratégique centrale dans l’affrontement des régimes communiste et capitaliste, ou plutôt de la Soviétie et des États-Unis. L’Europe représentait l’enjeu passif, le pivot géopolitique du conflit et gardait ainsi une influence internationale sans commune mesure avec ses véritables capacités en aucun domaine de puissance, en particulier militaire. La disparition de la Soviétie en 1990-1991 l’a dépouillée de sa centralité stratégique, mais il a fallu une dizaine d’années pour que le mirage se dissipât complètement et que le roi apparût dans sa nudité. Pendant les cinquante dernières années, la créativité politique des États européens a été consacrée à l’élaboration de règles communes dans le gouvernement de leur économie. Après la Communauté charbon-acier vinrent l’Union douanière, la Politique agricole commune (PAC), le Marché unique et l’euro. Par États européens, il faut entendre un groupe activiste, celui des six initiateurs de la Communauté charbon-acier (Belgique, France, Italie, Luxembourg, Pays-Bas et RFA), avec des suiveurs d’un côté et, de l’autre, un saboteur avoué, le Royaume-Uni. En 2003, ils sont quinze à s’être regroupés dans la structure politique appelée UE (Union européenne), et, à partir de 2004, leur nombre s’élèvera à vingt-cinq, en attendant la Roumanie et la Bulgarie vers 2007. Au point de vue économique, l’UE est devenue une superpuissance, à égalité avec les États-Unis. Son PIB avoisine un quart du

264

INTRODUCTION AU SIÈCLE DES MENACES

total mondial. Sa monnaie jette un défi au dollar. Son marché unifié est le plus vaste du monde. Elle est la plus grande puissance commerciale et son taux de croissance, si l’on tient compte des nouveaux venus acceptés pour entrée au sommet de Copenhague le 12 décembre 2002, se compare à celui de l’Amérique. Grâce à son unité, elle parvient enfin à défendre ses intérêts dans le cadre de l’Organisation mondiale du commerce (OMC), contre les incessantes agressions d’outre-Atlantique. Le chômage est plus fort en Europe, mais la protection sociale y est meilleure que celle des États-Unis. Bref, un succès historique, dû à une gestion politique de l’économie. La priorité économique de l’UE est maintenant de combler le différentiel de richesse qui la sépare encore des États-Unis : 250 millions d’Américains génèrent chaque année un PIB de 10 700 milliards de dollars alors que 370 millions d’Européens ne parviennent qu’à 8 500 milliards d’euros4. Mais l’objectif de l’Europe ne se borne pas à l’économie : elle veut couronner sa réussite en travaillant à bâtir un concert mondial gouverné par le Conseil de sécurité des Nations unies, qui serait la transposition à un niveau supérieur de l’ordre qu’elle a établi entre les pays qui la constituent. La démarche suivie pour bâtir l’UE a été de nature institutionnelle. Des organes de coordination, sinon de gouvernement, ont été mis en place, peu à peu, de façon pragmatique. Les difficultés rencontrées au jour le jour dans l’élaboration de l’Europe institutionnelle s’estompent si l’on considère la convergence que les structures et leur fonctionnement ont amenée dans les circuits, les mœurs, les habitudes et surtout la représentation du monde, la Weltanschauung embrassée par l’Europe au début du e XXI siècle. Institutionnellement, à perte de vue, l’UE ne connaîtra pas de révolution et restera fondée sur trois structures : la Commission, le Conseil des ministres, le Parlement. Les fédéralistes auraient voulu donner le pouvoir à la Commission, les partisans d’une Europe des États souhaitaient donner l’essentiel du pouvoir au Conseil des ministres. En fait, le statu quo se maintiendra pendant encore une vingtaine d’années. Dans les décennies qui suivront les années 2000, certains défis venant de l’extérieur seront posés à l’Europe. En effet, l’extension au continent tout entier des responsabilités de prospérité, de stabilité et de sécurité qu’assume et assumera l’Union européenne avec l’absorption de pays de l’Est à partir du 1er mai 2004, l’amènera au contact d’instabilités et de turbulences. 4. Nous supposons l’égalité grossière de la valeur du dollar et de l’euro.

PUISSANCE ET JOUISSANCE

265

Elle aura donc besoin de moyens de défense. Devront-ils rester sous le contrôle de chaque État, comme c’est le cas actuellement, ou dépendre d’une structure européenne plus ou moins intégrée ? Si son évolution suivait la logique adoptée depuis cinquante ans, l’Europe institutionnelle aurait vocation de s’étendre à la politique étrangère et à la défense, mais en réalité, elle souffre d’un vide politique voulu dès qu’il s’agit des questions de souveraineté. La génération des inspirés comme Jacques Delors, qui voyait l’Europe future comme une union toujours plus resserrée, a disparu. La majorité des leaders actuels rejettent l’idée de fédération telle qu’avancée par le ministre allemand Joschka Fischer en mai 2000. La culture politique développée pendant la construction européenne repose sur la négociation transnationale et la coopération, sur le consensus et sur la résistance au pouvoir central par le multilatéralisme, sur le rejet des aventures, loin du passé sanglant que tous renient. Les personnalités qui pourraient émerger dans le vivier politicien subiront le sort indiqué jadis par Tarquin le Superbe, qui de son bâton coupa dans son jardin les plus hautes têtes des pavots. Par un processus analogue, les grands États verront se liguer contre eux les moins grands, et cette tendance à l’alignement sur un plus petit dénominateur commun s’accroîtra avec le nombre des membres de l’UE. L’Europe ne se donnera pas de Prince et restera un nain politique. Si nous considérons maintenant les populations plutôt que les dirigeants, nous n’y trouvons pas le désir d’un véritable gouvernement européen. La permissivité des mœurs qui fait d’immenses progrès et s’accélère, amène les gens à placer les avantages et les plaisirs de la vie privée très au-dessus des contraintes de la vie publique. Le souvenir des désastres qui ont marqué le XXe siècle est lié de façon suffisamment étroite à la politique de puissance traditionnelle pour que les peuples européens rejettent radicalement aussi bien ses symboles que sa réalité. La France, saignée pendant la guerre de 1914-1918 par le mépris de ses chefs militaires pour la vie de leurs malheureuses troupes, a été la première à refuser les champs de bataille. Les expays de l’Axe fasciste, Allemagne, Autriche, Italie ne savent que trop où les a menés le discours du Reich construit pour mille ans. À l’automne 2002, alors que les États-Unis voulaient entraîner leurs alliés dans une guerre contre l’Irak, le pacifisme profond du peuple allemand s’est traduit par le succès du chancelier Gerhardt Schröder, qui a su l’exploiter pour gagner des élections perdues d’avance. L’Espagne porte encore les cicatrices de la guerre civile. Les autres pays, en particulier les nordiques, gardent leur tradition de neutralité.

266

INTRODUCTION AU SIÈCLE DES MENACES

Les nations européennes ont inventé l’État-providence qui fournit à ses citoyens un régime vieillesse, l’assurance maladie, les allocations familiales, les indemnisations de chômage et les garanties du droit au travail. La distribution de ces avantages constitue le cœur du projet européen et distingue l’UE du reste du monde. Elle se paie par l’abandon de la politique traditionnelle de puissance. Le 16 janvier 2003, le chancelier Gerhardt Schröder et le Premier ministre Jean-Pierre Raffarin ont affirmé que les trois problèmes principaux qui se posent à l’Europe sont l’emploi, les retraites et la santé. La politique européenne, qui doit être menée avec le budget communautaire, est écartelée entre trois exigences incompatibles : — L’UE doit accueillir en 2004 dix nouveaux membres et deux autres en 2007, tous pauvres et qui tendent la main. — Le budget plafonné à 1,24 % du PIB (80 milliards d’euros) ne peut être augmenté ; les pays riches veulent même le réduire à 1 %. On aboutira au maintien du chiffre actuel de 1,13 %. — Les deux mécanismes actuels de redistribution qui consomment 80 % dudit budget, à savoir la politique agricole commune et les fonds de soutien social (fonds structurels et fonds de cohésion), devenus indispensables à la survie des bénéficiaires, sont intouchables. Même si le rapport Sapir sur les finances de l’UE, publié en 2003, note que le budget européen subventionne les reliques du passé comme les surplus agricoles, au détriment des « priorités présentes et futures de l’UE », à savoir la DIRD et l’éducation, il est aujourd’hui impossible de le réformer en profondeur. Politique de puissance signifie au plus volonté de domination, au moins volonté d’autonomie. Ces volontés doivent se traduire avant tout budgétairement, par des investissements lourds, s’élevant à plusieurs pour cent du PIB. Or aucun des États européens n’a l’intention de revenir à un statut de grande puissance internationale dotée des moyens qu’exige ce statut. Plutôt que de songer à profiter de l’effondrement soviétique pour acquérir une stature globale, ils ont inventé la notion de « dividendes de la paix », qui consiste à refuser le transfert de ressources importantes des programmes sociaux aux programmes de défense. Niant toute menace sérieuse venue de l’extérieur, l’Europe a décidé de remplacer la politique de puissance par la politique de jouissance. Le tableau suivant5, complété par les informations fournies dans 5. G. Andréani, Christophe Bertram et Charles Grant, Europ’s Military Revolution, Londres, Centre for European Reform (CER), 2001.

267

PUISSANCE ET JOUISSANCE

le chapitre III sur la DIRD européenne, illustre la traduction de cette idée dans les faits. Budgets de Défense 2000 Pays

Allemagne

Budget Défense en millions US $

Dépenses en Pourcentage Pourcentage du budget du budget pourcentage de Défense du PIB (1999) de Défense consenti consenti à la R&D à l’équipement

22.871

1,6 %

14,9 %

5,6 %

Autriche

1.497

0,8 %

20,0 %

0,6 %

Belgique

2.402

1,5 %

9,7 %

0,04 %

Danemark

2.283

1,6 %

14,5 %

0,04 %

Espagne

6.857

1,3 %

15,5 %

2,5 %

Finlande

1.583

1,4 %

39,4 %

0,5 %

France

26.538

2,7 %

20,0 %

11,5 %

Grèce

3.195

5,0 %

42,3 %

0,7 %

Irlande

0.711

0,9 %

6,6 %

0,0 %

15.704

2,0 %

14,5 %

2,1 %

Luxembourg

0.099

0,8 %

6,0 %

0,0 %

Pays-Bas

6.047

1,8 %

2,6 %

1,0 %

Portugal

1.524

2,2 %

24,3 %

0,2 %

33.890

2,6 %

25,1 %

11,8 %

4.405

2,3 %

49,4 %

2,3 %

287.466

3,1 %

18,0 %

11,7 %

Italie

Royaume-Uni Suède États-Unis

Noter sur ce tableau l’extrême faiblesse de tous les budgets de RD à l’exception de la France et du Royaume-Uni.

La tendance générale des budgets européens de défense est constamment descendante depuis 1991 ; en particulier celui de l’Allemagne, réduit tous les ans pendant la fin des années 1940, est tombé à 23,5 milliards d’euros en 1999, puis 21,8 milliards d’euros en 2003. L’impact sur le budget total européen est à la mesure du poids allemand dans l’économie de l’UE. Il fallait s’attendre à la violente opposition de l’Allemagne à la volonté

268

INTRODUCTION AU SIÈCLE DES MENACES

américaine d’une guerre contre l’Irak. Sa priorité est la réunification, dont le coût s’envole vers 1 000 milliards d’euros et elle n’envisage pas de moderniser ses forces avant 2006 ou plus tard.

… DES ÉTATS-UNIS* ET DES QUINZE *budget 2002 : 331 milliards/2003 : 379 milliards $

279,7

292,2

300,5

États-Unis 210,5 2,8 % du PIB

168,5 180,5

155,7

U. E. 15

144,4

1,4 % du PIB 1998

1999

2000

2001

… DES TROIS PUISSANCES EUROPÉENNES

42 38,6 35

38,8 37,1 34,5

Roy. Uni

32,5

France

31,9

34,6

31,8 28,8

Allemagne 25,4 1998

1999

2000

2001

Budgets de défense (en milliards de dollars6)

Un tel niveau de ses dépenses militaires est-il compatible avec les défis stratégiques posés à l’Europe ? On pourrait répondre qu’elle n’a pris aucun engagement au Proche-Orient et en Asie, qu’elle ne se positionne que rarement et peu de temps hors de son territoire, qu’elle n’a pas les mêmes raisons géostratégiques que les États-Unis pour maintenir une domination navale. Toutes ces affirmations sont exactes, mais ne correspondent pas tellement à des faits structurels qu’à une décision doctrinale 6. Le Monde, 25 juin 2002.

PUISSANCE ET JOUISSANCE

269

adoptée par l’Europe : elle rejette « l’impérialisme » que traduirait la possession d’outils lui permettant une projection. La faiblesse militaire des Européens, due au bas niveau des crédits qu’ils consacrent à leur défense, s’aggrave de l’inefficacité de leurs dépenses : ils obtiennent moins par euro que le DoD par dollar. Le secrétaire anglais à la Défense (1997-1999), George Robertson, a noté que dépensant en moyenne 55 à 60 % du budget militaire américain, les Européens possèdent beaucoup moins de capacités militaires réelles dans chaque catégorie. En particulier, leurs capacités de déploiement sont très inférieures à celles des Américains. Une telle infériorité provient de deux causes. D’une part, l’UE est composée de quinze États, chacun avec son propre système de défense, d’où la multiplication des dépenses de fonctionnement et de management, l’impossibilité d’obtenir des économies d’échelle, l’augmentation du coût unitaire des armements et l’étalement des programmes sur de longues périodes, imposé par la faiblesse des budgets nationaux. D’autre part, les gouvernements européens consacrent leurs précieuses ressources aux mauvais domaines. Certes, les armées européennes sont beaucoup trop nombreuses, puisqu’elles comptent deux millions d’hommes sous leurs drapeaux, un tiers de plus que les États-Unis, tout en ne dépensant pas assez, et de loin, pour les soldes, les équipements et l’entraînement, mais surtout le lecteur de ces pages aura compris que l’Europe refuse la priorité à la DIRD, alors que le poids d’un État dans la compétition internationale en découle directement. Les faibles performances européennes ont amené l’OTAN, sous la pression des États-Unis, à dresser en 1999 une liste de cinquante-huit domaines où des difficultés avaient été constatées (Defense Capabilities Initiative). L’étude a recensé les capacités7 qui manquent, depuis les outils modernes de communication et de commandement jusqu’au renseignement, en passant par le transport stratégique aérien ou maritime, les moyens de suppression des défenses aériennes adverses, une panoplie héliportée ou une aviation de combat interopérable. Il s’agit d’un déficit tel que l’on voit mal les Européens agir militairement, dans un avenir prévisible, sans devoir recourir aux capacités américaines. Les ministres de la Défense de l’OTAN n’ont pas même accepté la discussion de cette DCI. La réflexion sur les capacités se poursuit dans un cadre strictement européen8. 7. On appelle capacité un ensemble d’hommes et d’équipements organisé avec une finalité d’emploi opérationnel. 8. Voir p. 294.

270

INTRODUCTION AU SIÈCLE DES MENACES

La défense de l’Europe après la chute de la Soviétie La fin de la guerre froide a forcé l’Europe à une réévaluation de ses besoins militaires. L’essentiel avait été la défense contre la Soviétie, c’est-à-dire la prévision et la conduite d’une bataille continentale proche de chaque pays. LA PROFESSIONNALISATION DES ARMÉES EUROPÉENNES

Le cataclysme soviétique a laissé les Européens pourvus d’armées de conscription mal adaptées au déploiement en dehors de la zone géographique de l’OTAN. Le signal d’alerte n’a pas été donné par la chute du mur de Berlin mais par la guerre du Golfe, où ceux d’entre eux qui désiraient intervenir ont pu constater la faiblesse de leurs moyens. En particulier, la décision du président Mitterrand de ne pas engager de soldats français du contingent imposa une restructuration improvisée des quelques troupes mises à la disposition de la coalition y compris les équipages de la flotte : 192 des 195 formations de l’armée de terre durent fournir au moins un militaire pour former la division Daguet engagée sur le théâtre (12 000 hommes). Le président Jacques Chirac, lorsqu’il annonça en février 1996 l’abandon de la conscription, le justifia par le fait qu’avec une armée deux fois plus nombreuse que celle du Royaume-Uni, la France n’avait pu aligner qu’un contingent inférieur au tiers de la contribution britannique. Entre 1989 et 1999, la Belgique, l’Espagne, la France, l’Italie et les Pays-Bas ont décidé de transformer leurs armées en forces professionnelles. L’expérience montre que la réussite d’une telle restructuration exige l’augmentation des dépenses militaires, alors qu’en réalité elles ont diminué dans ces pays. Dans le cas de la France, l’ajustement a été violent puisqu’il a ramené le budget à 1,96 % du PIB (2001) par le sacrifice des dépenses d’investissement et de recherche. L’impact de la réforme a été analysé par N. Baverez9 : « Le ministère de la Défense présente la double spécificité d’être la seule administration de l’État à avoir réalisé une réforme fondamentale de ses structures et à avoir vu ses crédits budgétaires amputés de 17 % en francs constants depuis 1990 (189 milliards de francs pour 2001). Les bouleversements apportés aux forces armées ont 9. Nicolas Baverez, « Défense : la stratégie du zéro concept », Le Monde, 22 juin 2001.

PUISSANCE ET JOUISSANCE

271

été à la fois quantitatifs (réduction du format de 500 000 à 317 000 hommes) et qualitatifs avec la professionnalisation. […] L’impact budgétaire du passage à l’armée de métier peut être évalué à environ 20 milliards de francs par an, tandis que les surcoûts liés aux opérations extérieures atteignent en moyenne 3 milliards de francs par an. Dès lors, l’ajustement s’est traduit par un effondrement des dépenses d’équipement (en baisse de 29 % par rapport à 1990), mais aussi par un affaiblissement préoccupant du niveau de préparation des forces : l’entraînement a été réduit en moyenne annuelle à 73 jours pour l’armée de terre, à 89 pour la marine et à 180 heures pour les pilotes, ce qui correspond tout juste aux normes minimales fixées par l’OTAN. » L’OTAN

Au début de la guerre froide, le 4 avril 1949, a été signé à Washington le traité de l’Atlantique Nord. Une organisation a été mise en place, l’OTAN (Organisation du traité de l’Atlantique Nord), liant les États-Unis à tous les États européens signataires. L’OTAN est une alliance politique dont la finalité consiste à fournir éventuellement des capacités militaires pour la défense collective de ses membres. Elle associe les seize pays d’origine : l’Allemagne, la Belgique, les Pays-Bas, le Danemark, la Norvège, le Luxembourg, la France, le Royaume-Uni, l’Italie, l’Espagne, le Portugal, la Grèce, la Turquie, le Canada, les États-Unis, l’Islande, auxquels se sont joints depuis avril 1999, la Hongrie, la Pologne, la République tchèque et sept autres rescapés de l’Empire soviétique venus en novembre 2002. Un seul État, la France, fait partie de l’Alliance sans participer à l’accord militaire, c’est-à-dire qu’en temps de paix aucune de ses forces n’est placée sous commandement allié, et qu’elle n’accède à aucun comité militaire. Le Conseil de l’Atlantique Nord est l’instance suprême de l’OTAN. Y siègent des ambassadeurs des pays membres, parfois des ministres et même des chefs d’État. L’OTAN dispose d’une structure permanente avec un comité politique, un comité militaire et un état-major militaire permanent, dépendant d’un secrétaire général. Cette structure définit les besoins en capacités militaires, qui sont fournies à la demande par les États membres. Des troupes des États membres, en particulier et surtout des États-Unis, peuvent être et sont déployées sur le territoire des autres membres. À côté de cette structure opérationnelle, l’OTAN dispose de très actives instances de proposition qui promeuvent de nouveaux programmes, d’instances d’études RD permettant d’initier les coopérations entre États et d’instances d’expérimentation et développement des concepts.

272

INTRODUCTION AU SIÈCLE DES MENACES

La coordination des questions d’armement au sein de l’Alliance est assurée par la conférence des directeurs nationaux d’armement. Ses activités portent d’une part sur l’établissement de la standardisation et de l’interopérabilité entre les équipements des forces armées des pays membres, et d’autre part sur l’acquisition d’équipements communs, tels par exemple que les avions de surveillance AWACS. Les moyens spatiaux possèdent un caractère permanent qui justifie une organisation à long terme. En fait, elle n’apparaît dans l’OTAN que pour les télécommunications, qui dépendent d’une structure militaire intégrée dont le commandement définit les besoins (sans la France). Le budget annuel est de 650 millions d’euros. Depuis 1976, la couverture du besoin a été assurée par six satellites américains dont il subsiste deux en 2003 (Nato 4A et 4B), et deux Skynet-4. Les autres fonctions spatiales militaires sont trop importantes dans la guerre moderne pour que les ÉtatsUnis ne s’en chargent pas complètement : la télédétection optique, infrarouge et radar, l’écoute électromagnétique SIGINT ou MASINT, l’alerte avancée, le GPS sont leur apanage. L’OTAN n’a rien dans ce domaine et n’y a pas accès. Avec la chute de la Soviétie, l’Alliance a perdu sa principale raison d’être et elle a donc dû réviser sa doctrine. Alors qu’elle aurait pu disparaître après la dissolution du pacte de Varsovie le 25 février 1991, elle s’est transformée en une force politico-militaire adaptée aux conséquences de la mondialisation. Le nouveau Concept stratégique, adopté solennellement les 23 et 24 avril 1999 lors du sommet de Washington qui célébra le cinquantième anniversaire de l’OTAN, définit cinq « tâches de sécurité fondamentale » pour l’Alliance : sécurité, consultation, dissuasion et défense, gestion des crises et partenariat. Conçu pour le grand public, le Concept stratégique fournit les objectifs généraux d’une extension relative des compétences de l’Alliance. Première innovation dans le nouveau contexte global, la sécurité inclut désormais « le rôle des facteurs politiques, économiques, sociaux et environnementaux ». On est loin d’une simple alliance militaire. L’OTAN a repris pour elle-même l’analyse des dirigeants américains lorsqu’ils définissent les « intérêts vitaux » des États-Unis. Ainsi, John P. White10, ancien secrétaire adjoint à la Défense (19951997), met sur le même plan comme autant de risques majeurs 10. J. P. White, « Foreword » , in D. C. Gompert, R. L. Kluger, M. C. Lubicki, Mind the Gap, Promoting a Transatlantic Revolution in Military Affairs, Washington, D.C., National Defense University Press, 1999.

PUISSANCE ET JOUISSANCE

273

auxquels l’OTAN doit se préparer à faire face, « des menaces qui viennent de nombreuses directions, telles celles des rogue states qui ignorent les règles du droit international, l’extension d’armes de destruction massive, la mise en place de barrières commerciales artificielles et l’interruption de l’approvisionnement en ressources critiques telles que le pétrole ». Interruption de l’approvisionnement en ressources naturelles, mise en place de barrières commerciales artificielles, ce sont là des mesures condamnées par les organisations internationales économiques (OMC, FMI, Banque mondiale, OCDE), démunies, il est vrai, de moyens de coercition physique. L’OTAN fait désormais figurer ce type de mesures parmi les atteintes à la sécurité qui menacent ses membres, et ses interventions pourraient se placer sous le drapeau de la défense de la globalisation et du libre-échange. Seconde innovation, l’Alliance s’octroie la possibilité d’intervenir hors de sa zone traditionnelle. Son périmètre initial défini par l’article 6 du traité de 1949 comme ne couvrant que les pays membres, les territoires sous leur juridiction et leurs forces « dans la région de l’Atlantique Nord jusqu’au tropique du Cancer », n’est plus respecté. L’intervention « hors zone » conduit alors l’OTAN à reconnaître la nécessité d’une force de déploiement rapide hors de l’Europe11. Il faut se souvenir que toute intervention à l’extérieur des espaces régionaux doit faire l’objet d’une résolution du Conseil de sécurité. La première étape dans l’émancipation de l’OTAN vis-à-vis de l’ONU fut franchie pendant la guerre du Golfe. Comme l’écrivent K. Hartley et T. Sandler12, « la guerre du Golfe contre l’Irak servit de modèle à cette nouvelle doctrine de défense », puisque ni le Koweït ni l’Irak ne sont inclus dans la zone de l’OTAN. Le compromis trouvé fut que l’ONU ne décidait pas d’intervenir contre l’occupation du Koweït par l’Irak, mais n’interdisait pas de le faire aux pays qui le souhaitaient. Le facteur d’évolution le plus important a toutefois été l’engagement dans les Balkans décrit au chapitre V précédent : pour la première fois, une intervention militaire fut décidée hors de tout support du Conseil de sécurité, d’abord en Bosnie en 1995, puis contre la Serbie en 1999. Le point de vue américain sur les relations des États-Unis et de l’Europe en ce qui concerne la Défense a été exposé par le général Colin Powell dans la suite du texte cité ci-dessus13 : 11. Claude Serfati, La Mondialisation armée, Paris, Textuel, 2001 . 12. T. Sandler et K. Hartley, The Political Economy of NATO, Past, Present and Into the 21st Century, Cambridge, Cambridge University Press, 1999, p. 166. 13. Voir p. 262.

274

INTRODUCTION AU SIÈCLE DES MENACES

« Nous croyons fortement à l’OTAN. C’est le pilier de notre relation avec l’Europe. It is sacrosanct. Affaiblissez l’OTAN et vous affaiblissez l’Europe, ce qui affaiblit l’Amérique. La valeur de l’OTAN est démontrée par le fait que, dix ans après la fin de la guerre froide, des nations veulent encore y adhérer. L’Alliance a autant de valeur pour le futur qu’elle en eut dans le passé. Elle n’a pas menacé la Russie dans le passé et ne la menacera pas dans le futur. […] Nous soutiendrons les efforts des Européens pour améliorer leurs capacités de défenses tant qu’ils renforcent l’OTAN, non s’ils l’affaiblissent. »

Les États-Unis dominent sans vergogne l’OTAN, organisation conçue, dirigée et gérée à l’américaine, non seulement parce qu’ils sont les plus gros contributeurs, mais aussi parce que leurs capacités nationales dépassent de loin celles de leurs partenaires. Dans toutes les instances, les Américains divisent pour régner. Leurs objectifs consistent à empêcher toute entente, par exemple pour le développement d’avions d’où l’industrie américaine serait exclue, ou pour le soutien de programmes qui leur déplaisent, comme Galileo14. L’OTAN est l’outil du protectorat militaire. Le protectorat se veut bénin : le 16 décembre 2002 a été signé, entre l’OTAN et l’UE, l’accord dit « Berlin-plus », qui permet à l’UE de disposer d’un accès avec effet immédiat aux moyens de logistique et de planification de l’Alliance. Bénin à condition que les Européens s’alignent sur les positions définies à Washington. Un clivage deviendra peut-être inévitable si les ÉtatsUnis poursuivent longtemps la stratégie de « domination du spectre complet », suivie agressivement par l’équipe Bush II persuadée que les menaces, les dénigrements, les attaques personnelles et les efforts pour faire éclater l’UE sont les méthodes avec lesquelles il faut traiter ses alliés. L’EXTENSION DE L’OTAN

Le sommet de Madrid a entériné, en juillet 1997, le principe d’adhésion à l’OTAN de la Pologne, de la Hongrie et de la République tchèque, mais le sommet de Washington d’avril 1999, s’il célébra l’aboutissement du processus précédent, n’entama pas de nouvelles procédures devant la mauvaise humeur russe, concrétisée par une gesticulation au Kosovo. Les attentats du 11 septembre 2001 permirent à Vladimir Poutine, embourbé en Tchétchénie, de prendre un tournant politique : cédant à la pression de Washington tout en essayant d’obtenir des récompenses pour son 14. Voir p. 311.

PUISSANCE ET JOUISSANCE

275

attitude coopérative, il renonça à endiguer le raz-de-marée américain déferlant sur le glacis construit par Staline. • Les États-Unis déplacent leur système de bases vers l’est, transférant le stationnement de leurs troupes d’Allemagne en Roumanie et en Bulgarie. De février à juin 2003, six mille soldats américains venus d’Allemagne s’installent à Constantza et plusieurs milliers d’autres à Sarofovo, sur la rive bulgare de la mer Noire. Pour la dédommager des pertes subies pendant la guerre d’Irak, 130 millions de dollars ont été promis à la Bulgarie, et la Roumanie doit en recevoir 20 pour les séjours des GI sur son sol, avec 16 millions de prêts à des entreprises et 15 pour la modernisation de l’armée. Dès juin 2003, des représentants de l’industrie d’armement anglo-saxonne (Lockheed, General Dynamics, BAE) ouvrent des officines à Bucarest et à Sofia. • À la faveur des opérations en Afghanistan, les États-Unis s’installent dans les ex-fiefs soviétiques d’Asie centrale : ils établissent des bases aériennes en Ouzbékistan et au Kirghizistan, obtiennent des facilités militaires au Tadjikistan et au Kazakhstan et poussent leurs tentacules en Géorgie. • L’intégration dans l’OTAN des trois républiques baltes naguère russifiées, de trois membres du défunt pacte de Varsovie, la Roumanie, la Bulgarie et la Slovaquie, ainsi que d’un déserteur de la Fédération yougoslave, la Slovénie, est décidée au sommet de l’OTAN à Prague les 21-22 novembre 2002 en présence du président Bush II, sans susciter d’opposition à l’Est. En 2007, sur vingt-sept pays membres de l’UE, il n’y en aura que six qui ne seront pas membres de l’OTAN (Autriche, Chypre, Finlande, Irlande, Malte et Suède), à moins que ces pays ne décident à leur tour de se joindre à l’Alliance15. L’élargissement de l’OTAN aux anciens membres du pacte de Varsovie et la consolidation de sa victoire dans la guerre froide ont semblé maintenir l’Europe au premier rang de la discussion stratégique. La réalité est bien différente. Les conséquences des nouvelles adhésions ont été correctement analysées dans le Washington Post16 : « Les trois adhérents de 1999 se sont révélé des membres enthousiastes particulièrement empressés de plaire aux États-Unis qui avaient soutenu leur admission. Les sept prochains membres seront aussi fermement des partisans fervents de l’OTAN et des soutiens des États-Unis, selon les officiels de l’OTAN ou les représentants de 15. Gilbert Achcar, « L’OTAN à la conquête de l’Est », Le Monde diplomatique, janvier 2003. 16. Robert Kaiser et Keith Richburg, « NATO looking ahead to a mission makeover », The Washington Post, 5 novembre 2002.

276

INTRODUCTION AU SIÈCLE DES MENACES

ces pays […]. L’équilibre dans l’Alliance pourrait évoluer en faveur d’un alignement plus étroit sur la politique des États-Unis, a déclaré un officiel américain. »

Les pays de l’Est éprouvent, en effet, la crainte du retour de la Russie dans le club des grandes puissances, et recherchent donc la protection américaine. Une preuve en a été donnée immédiatement après l’accord de Copenhague, où les Polonais avaient mendié avec arrogance, et obtenu, un généreux pourboire pour leur entrée dans l’UE, par leur décision immédiate de remplacer leurs vieux avions de chasse soviétiques Mig 21 par des F-16 américains, plutôt que par du matériel européen. Une justification de ce choix est la capacité d’intervention tous temps et l’emport de PGM fonctionnant avec GPS, couplée avec l’interopérabilité dans le cadre de l’OTAN, caractères qui mettent ces aéronefs hors du pair par rapport aux propositions française ou suédoise. Européens, vous n’aviez qu’à investir dans la RD ! Des compensations industrielles ont aussi été promises aux Polonais par le constructeur Lockheed. Le montant du contrat le plus important signé par un ex-pays du pacte de Varsovie s’élève à 3,8 milliards de dollars. Seuls s’étonneront les naïfs : le Comité américain pour l’extension de l’OTAN a été longtemps présidé par le vice-président de Lockheed ; et l’une des conditions mises à l’adhésion à l’OTAN des expays du pacte de Varsovie a été qu’ils augmenteraient leurs dépenses militaires pour rendre leurs équipements périmés compatibles avec ceux de l’Alliance – autrement dit qu’ils acquerraient du matériel américain. Une raison bien plus profonde que les manœuvres commerciales empêche cependant Varsovie d’hésiter quand il faut choisir entre l’OTAN et l’UE, et elle a été clairement exposée par Marek Siwiec, le chef du bureau polonais de la Sécurité nationale : « En matière de défense, l’OTAN existe, mais non la politique de défense européenne17. » Si l’on se souvient que les États-Unis ont ouvert avec empressement les portes de l’OTAN aux anciens membres européens du pacte de Varsovie, tandis que Bruxelles tardait à les accepter sur le long chemin vers l’UE, on comprendra que les nouveaux venus ne partagent pas et ne partageront pas à long terme la vision d’une Europe de puissance faisant contrepoids à l’Amérique. Sous la pression des États-Unis et en présence du président Bush II, le sommet de Prague a également décidé, le 20 novembre 2002, la création d’une force de projection dite FRR ou Rapid Reaction Force. L’idée en avait été présentée pour la première fois 17. Le Monde, 1er février 2003.

PUISSANCE ET JOUISSANCE

277

par Donald Rumsfeld, à la réunion des ministres de la Défense de l’Alliance à Varsovie en septembre 2002. La FRR s’inscrit dans la mutation de l’OTAN esquissée par le Concept stratégique de 1999, dont elle constitue une première application. D’alliance défensive, l’OTAN se transforme effectivement en organisation « de sécurité », c’est-à-dire interventionniste. La FRR dans sa taille réduite correspond à la politique américaine des « raisins dans le gâteau » : chacun des États européens apportera aux forces américaines une contribution choisie dans son domaine d’excellence ; même les exmembres du pacte de Varsovie peuvent être jugés utiles, comme les Tchèques, spécialisés au temps de la guerre froide dans la défense contre les armes NBC (nucléaires, biologiques ou chimiques). La FRR s’inscrit dans le processus de transformation des forces armées européennes en auxiliaires de la machine américaine. Des faits et des chiffres, il découle que la défense de l’Europe contre toute menace militaire, est aujourd’hui assurée par l’OTAN, c’est-à-dire les États-Unis. Telle était la situation pendant la guerre froide, et telle elle fut pendant les crises yougoslaves : nous avons trouvé l’illustration de cette assertion dans les événements de Bosnie et du Kosovo. On notera que l’OTAN est aujourd’hui plus importante pour l’Europe qui y place la quasi-totalité de ses forces, que pour les États-Unis qui n’y intègrent que 7 % des leurs. LE CAS PARTICULIER DE LA DÉFENSE FRANÇAISE

Incohérence de la doctrine

Il est nécessaire de s’arrêter quelque peu sur ce triste sujet, à cause de l’important potentiel de nuisance possédé par un pays qui participe aux trois institutions responsables de la coopération multilatérale en matière de sécurité parmi les démocraties occidentales : l’OTAN, l’UE et le Conseil de sécurité. Sa nuisance provient des deux traits contradictoires qui marquent sa politique étrangère : la prétention à régenter l’univers et le refus de payer le prix d’une telle prétention, à commencer par le maintien d’une force militaire adéquate à son ambition. La France fait reposer officiellement sa doctrine de défense sur la dissuasion nucléaire conçue et mise en œuvre dans un cadre strictement national, et c’est la raison pour laquelle elle n’accepte pas le constat auquel nous sommes parvenus, à savoir que la défense de l’Europe est assurée par l’OTAN. Sa dissuasion nucléaire, après la chute de la Soviétie, ne couvre plus qu’un risque résiduel, virtuel peut-on affirmer, alors qu’elle absorbe 20 % de son budget de Défense (en 2003). Fossile de la guerre froide, elle ne peut rien devant la prolifération balistique de vingt-cinq nations,

278

INTRODUCTION AU SIÈCLE DES MENACES

devant la prolifération biologique des rogue states, elle ne peut rien non plus contre Netwar. Enfin, elle est incohérente, car une vraie dissuasion exige aujourd’hui le recours à un C4ISR global, reposant sur un socle spatial, dont la France refuse de se munir. Devant les grandes évolutions que nous avons décrites, géopolitiques avec la gestion des crises pendant l’après-guerre froide, technologiques avec la RMA, économiques avec la mondialisation, la doctrine de la Défense française se présente comme la juxtaposition de fragments stratégiques disjoints. La guerre est de retour depuis 1990, émancipée de la logique de dissuasion nucléaire, une guerre en général asymétrique. Du coup, les armées qui étaient, pendant la guerre froide, tournées vers la défense du territoire, se sont transformées en forces d’intervention, capables de projection sur des théâtres lointains. Or un conflit de forte intensité n’est plus à leur mesure, pas plus qu’à celle des autres États européens : le concept de coalition définit la doctrine d’emploi des capacités. Mais la posture officielle se caractérise par le refus de choisir entre les différentes options qu’offre la réalité du XXIe siècle. Nous ferons nôtre la conclusion de N. Baverez18 : « Le système de défense fondé sur l’assurance de la dissuasion et la réassurance atlantique à titre d’ultime précaution doit donc évoluer vers une assurance européenne, ce qui implique une armée intégrée, doublée d’une réassurance par la dissuasion à titre d’ultime précaution. Mais il en va de la défense comme de la monnaie : il est impossible de continuer à transférer au plan européen des instruments régaliens sans avoir au préalable réglé le problème de leur direction politique et de leur contrôle démocratique. […] L’insistance placée par les responsables politiques français sur la défense européenne masque aujourd’hui la confusion entretenue sur la doctrine stratégique, le tarissement des moyens budgétaires et l’incapacité à moderniser la partie de l’industrie qui reste possédée ou contrôlée par l’État. »

La doctrine actuelle rejette toute réflexion sur le positionnement stratégique futur de l’Europe et évacue les préoccupations relatives à la protection du territoire et à la sécurité des populations menacées par Netwar dans le nouveau contexte européen. Son état reflète la crise intellectuelle et politique qui affecte depuis les années 1980 le système de décision publique, et donc les missions régaliennes comme la Défense. Le Monde19 a rapporté une anecdote publiée en 1984 par le physicien Jules Guénon, qui révéla le programme américain de 18. N. Baverez, op. cit. 19. Le Monde, 18 décembre 2002.

PUISSANCE ET JOUISSANCE

279

bombe nucléaire au général de Gaulle, à Ottawa en 1944. « Auger, Goldschmidt et moi nous avons décidé qu’il fallait prévenir de Gaulle. […] Nous pensions que sa politique vis-à-vis des ÉtatsUnis était folle et qu’il fallait lui donner des éléments pour la rétablir. » Guénon décrit la rencontre en tête à tête avec le chef de la France libre : « Vous ne pouvez pas comprendre la politique des États-Unis si vous ne savez pas qu’il y a une arme qualitativement entièrement nouvelle qui a toutes chances de marcher. » Transposons cette histoire en 2003 : si vous ne connaissez pas la loi de Moore et son corollaire Information Warfare, vous ne pouvez pas comprendre la politique des États-Unis et donc la marche du monde. Les programmes d’armement

Pendant le long début des années 1990, les Européens ne firent aucun progrès réel dans le domaine de la Défense. Le président Mitterrand croyait qu’une fois le mur de Berlin tombé, l’Europe s’édifierait de l’Atlantique à l’Oural grâce à une cascade de conférences et de palabres, pendant que les États dépenseraient les « dividendes de la paix » pour améliorer le sort du « peuple de gauche ». De la part de la France se succédèrent déclarations creuses et initiatives au-dessus de ses moyens qui firent apparaître le délabrement et l’impréparation des forces armées. La baisse en termes réels du budget de la Défense traduisait le choix politique unanime de tous les partis. Le lecteur a déjà trouvé dans le chapitre III une analyse de la RD militaire française, qui a mis en évidence son effondrement.

6,0 % 5,5 % 5,0 % 4,5 % 4,0 % 3,5 % 3,0 % 2,5 % 2,0 % 1,0 % 1960 1962 1964 1966 1968 1970 1972 1974 1976 1978 1980 1982 1984 1986 1988 1990 1992 1994 1996 1998 2000 2002

Budget de la Défense française (pourcentage du PIB)

280

INTRODUCTION AU SIÈCLE DES MENACES

20 19 18 17 16 15 14 13 12 11 10 1976 1978 1980 1982 1984 1986 1988 1990 1992 1994 1996 1998 2000 2002

Titre V du ministère de la Défense (investissements en équipements en milliards d’euros)

Sous le Premier ministre cohabitant Lionel Jospin, nourri de pacifisme familial, la loi-programme militaire a été encore moins exécutée que sous les gouvernements précédents, et il en est résulté des taux incroyables d’indisponibilité des matériels (50 % pour les bâtiments de la flotte, 75 % pour les blindés légers, 50 % pour les hélicoptères, 58 % pour les avions-cargos C-130 Hercules en septembre 2002). « Avec l’amputation de 9,3 milliards de francs (1,4 milliard d’euros) dans ses crédits d’équipements, la défense n’a eu que ce qu’elle méritait. » Tel était le 31 décembre 1999 l’amère constatation d’un haut responsable militaire français qui déplorait l’incapacité de ses services à consommer les budgets votés par le Parlement. Si les contrôleurs financiers du ministère des Finances portent quelque responsabilité dans cette gestion aberrante par leur habitude de faire traîner les dossiers, les nouvelles procédures de contrôle tatillon mises en place par la DGA et les Armées les ont empêchés de dépenser sur le titre V plus que 70 à 75 milliards de francs (11 milliards d’euros) par an sur les 85 autorisés. La figure suivante montre que l’écart entre la loi de finance et son exécution atteint l’équivalent de deux annuités budgétaires sur la période de 1990-2001. On croira cependant que cette situation récurrente, où le taux d’inexécution d’une loi de finance votée par le Parlement atteint souvent 20 %, pourrait être corrigée si une volonté politique existait20. L’inflexion donnée à partir du budget 2003 vers une exécution meilleure de la loi ne permet que le « maintien en condition opérationnelle » des matériels. 20. Rapport annuel du GIFAS (Groupement des industries françaises de l’aéronautique et de l’espace) pour 2001, in Rev. Déf. Nat., 58e année, 160, juin 2002, p. 151-160.

281

PUISSANCE ET JOUISSANCE

16 000

Loi de Finances Rectificative

15 000

millions d’euros courants Loi de Finances Initiale

14 000 13 000 12 000 11 000

Crédits consommés*

10 000 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2003

L’écart entre LFI et exécution s’élève à 22 Md € sur la période 1990-2001, soit l’équivalent de 2 annuités budgétaires

Le budget d’équipement du ministère de la Défense

En fait, la pensée militaire du gouvernement français se résume à une gestion strictement comptable. Le délégué général à l’armement, qui a régné sur les investissements de défense dans les années 1990, avait pour consigne de baisser ses dépenses de 30 %, ce qu’il exécuta. Même de ce point de vue étroit, on doit constater l’échec de cette politique lorsqu’on voit le coût de l’avion Rafale déraper de plus de 30 %, s’élevant à 30 milliards d’euros pour 294 appareils. La réduction du financement a pris les formes les plus nocives, à savoir soit la réduction, soit l’étalement des programmes dans le temps, au lieu d’une refonte des concepts et des missions en fonction de laquelle seraient décidés le développement et l’achat des matériels. Ainsi le nombre des unités dans chacun des trois programmes prioritaires conçus au début des années 1980 (comme il y a trois armées, les investissements de défense français se concentrent sur trois éléphants blancs, le char Leclerc, l’avion Rafale, le porte-avions Charles-deGaulle), s’établit à un niveau si bas que la valeur opérationnelle de ces équipements devient discutable. La capacité de projection

Le modèle de projection des forces classiques se heurte au manque de moyens : renseignement, frappes en profondeur, gestion temps réel ont été négligés. Aujourd’hui (2003), la France peut au maximum déployer 19 000 hommes, et elle n’est pas loin de le faire en permanence, dans une série d’opérations ponctuelles que l’on peut assimiler à de la gendarmerie planétaire, pour la plupart au service de l’ONU (maintien de la paix, cessez-le-feu…).

282

INTRODUCTION AU SIÈCLE DES MENACES

Comparons : le Royaume-Uni a démontré pendant la seconde guerre d’Irak sa capacité à déployer 45 000 hommes. L’armée de l’air française ne peut monter plus d’une vingtaine de sorties par jour, avec une pointe à quarante de temps en temps, alors que nous avons noté quelque deux mille sorties quotidiennes des alliés pendant la première guerre du Golfe. LA PARANOÏA EUROPÉENNE

Le rapprochement qui a créé l’UE a été fondé sur la négociation, les liens commerciaux, le multilatéralisme réglementaire et donc sur le rejet des rapports de forces entre partenaires. « L’essence de l’UE est de soumettre les relations entre États au joug de la loi21. » De ce succès, les Européens veulent faire un modèle pour les affaires du monde entier. La formule qui a réussi à réconcilier des « ennemis héréditaires » comme la France et l’Allemagne, à savoir la marche de la coopération économique vers l’intégration politique, ne pourrait-elle pas être appliquée à tous les États ? La transposition du miracle européen au reste de la planète serait la nouvelle mission civilisatrice de l’Europe. L’erreur fondamentale des Européens est de croire que leur expérience possède une valeur universelle lui permettant de s’imposer par la seule vertu de son exemple et que, puisqu’il n’existe pas entre eux de menace militaire, les outils de la puissance sont devenus sinon inutiles, du moins marginaux, même pour organiser la coexistence mondiale. « L’Europe n’envisage pas pour elle une mission qui exige de la puissance. Sa mission est de s’opposer à la puissance22. » Or le passage de l’Europe à la post-Histoire n’a été rendu possible que parce que les États-Unis maintenaient leur volonté d’utiliser la puissance militaire pour dissuader, repousser ou défaire les trublions dangereux pour les pays développés. Le défi posé à l’Europe du XXIe siècle est d’accepter un double standard : entre nous, à l’intérieur de nos remparts, règne la loi, et à l’extérieur, dans la jungle, règne la loi de la jungle. L’UE ne veut pas le comprendre. Elle oublie que les professions de foi ne suffisent pas devant les États perturbateurs, ou, pire, « échoués », en l’absence de moyens de coercition. Il y a pour un État quelque chose de malsain, d’absurde, et tout simplement de grotesque dans l’ambition de promouvoir des idées contraignantes par 21. Steven Everts, Unilateral America, Lightweight Europe ? Managing Divergence in Transatlantic Foreign Policy, Londres, Center for European Reform, février 2001. 22. Robert Kagan, « Power and weakness. Why United States and Europe See the World Differently », Policy Review, juin-juillet 2002.

PUISSANCE ET JOUISSANCE

283

nature sans faire appel à la force. Les États-Unis ne sont pas grotesques ; ils restent dans l’Histoire et ne désirent pas entrer dans l’utopie postmoderne. L’attentat du 11 septembre les a confortés dans la nécessité de se défendre par la puissance. Avec l’accroissement de leur avantage sur les autres nations, ils ont remplacé le conseil du président Theodore Roosevelt : « Speak soft and carry a big stick » par un énoncé mieux adapté à leur statut : « Speak loud and carry a big stick. » Les Européens obéissent, sans crainte du ridicule, à une maxime d’une forme similaire : « Speak loud and carry no stick. » Nous ajoutons là un nouvel invariant à ceux dont le chapitre II de ce livre a exposé l’importance : le refus européen de payer pour sauvegarder sa possibilité d’options militaires est une tendance lourde, irréversible. La position prise dans la crise irakienne de 2003 par MM. Chirac et Villepin, à savoir que « la guerre est la pire des solutions et doit être évitée à tout prix » rappelle exactement celle qu’adopta le Premier ministre britannique Neville Chamberlain dans l’affaire des Sudètes en septembre 1938. Pour lui, Hitler n’était pas plus un gentleman que ne l’est pour Chirac son ancienne connaissance Saddam Hussein, il le classait sans hésiter dans la catégorie des dictateurs comme nous faisons pour le maître de Bagdad, mais tout était (est) préférable à un conflit. Je me souviens que, encore petit garçon mais déjà bien au fait de l’évolution fatale qui nous entraînait vers le désastre, puisque mon père, lieutenant d’infanterie, venait d’être démobilisé après les funestes accords de Munich (pour repartir un an plus tard), je fus stupéfait de découvrir à la rentrée scolaire que tous mes camarades sans exception, reflétant l’opinion de leurs parents, considéraient la reculade franco-anglaise comme un heureux événement. Dans son plus beau livre, Le Sursis, Jean-Paul Sartre a décrit à l’encre noire la lâcheté des Français qui les amènerait après la défaite de 1940, à devenir le seul État d’Europe à accepter la Kollaboration avec les nazis. L’anecdote vraie du retour du président du Conseil Daladier à l’aérodrome du Bourget, dont le récit clôt le roman, garde sa valeur d’exemple : « Il y eut une clameur énorme et les gens se mirent à courir, crevant le cordon de police, emportant les barrières. Ils criaient “Vive la France ! Vive l’Angleterre ! Vive la paix !”, ils portaient des drapeaux et des bouquets. Daladier s’était arrêté sur le premier échelon ; il les regardait avec stupeur. Il se tourna vers Léger et dit entre ses dents : “Les cons !” »

Nous avons vu des millions de moutons défiler le 15 février 2003 dans six cents villes à travers le monde pour crier

284

INTRODUCTION AU SIÈCLE DES MENACES

« Vive la paix ! » et protester contre la volonté américaine d’éliminer le maître de Bagdad. L’action du gouvernement français pendant les mois qui ont précédé l’invasion de l’Irak par les États-Unis restera dans l’histoire diplomatique comme un monument d’impéritie, comparable quant au style à la gestion de la crise avec la Prusse en 1870 par le ministre Gramont, en beaucoup moins grave heureusement, car la France n’est plus une puissance23. La ligne à suivre était pourtant simple : dès septembre 2002, on savait que les États-Unis avaient l’intention inébranlable d’attaquer l’Irak pour déposer Saddam Hussein, et l’envoi irréversible d’une armée de cent cinquante mille hommes confirmait les informations fournies par l’ambassade à Washington. La priorité de la France et en général des pays européens, était la sauvegarde des trois systèmes de sécurité collective sur lesquels repose l’ordre international, l’ONU, l’OTAN et surtout l’UE. La crise irakienne, qui impliquait certes de graves intérêts, mais ne constituait qu’un épisode après tant d’autres parmi les convulsions des pays sousdéveloppés, ne justifiait pas, ne valait pas qu’on risquât de lézarder les bases du concert mondial. Elle pouvait, elle devait rester l’affaire des États-Unis s’ils voulaient s’y engager. Tout en affirmant sa volonté de n’intervenir en Irak ni militairement ni financièrement, attitude partagée par l’Allemagne, il suffisait à la France d’appliquer le traité de Maastricht, c’est-à-dire de ne participer à aucune démarche ou négociation sans avoir obtenu sur chacune d’entre elles un accord de ses partenaires européens, d’exiger de ces partenaires la même discipline, et de pousser en avant comme porte-parole des nations formant l’UE, le Haut Représentant de la politique européenne de sécurité et de défense, M. Javier Solana24. Une telle attitude n’aurait certainement pas permis à l’UE, qui serait restée divisée, de peser sur les événements ; elle n’aurait pas empêché l’action unilatérale des ÉtatsUnis, mais elle aurait contré les tentatives de l’administration Bush pour dresser les Européens les uns contre les autres, elle aurait freiné sinon arrêté les velléités italiennes et espagnoles de baiser l’anneau de l’oncle Sam, elle aurait plus qu’embarrassé le Royaume-Uni qui serait apparu aux yeux de tous comme ce qu’il est réellement, à savoir le caniche du gouvernement américain, elle n’aurait pas endommagé les relations franco-américaines, et 23. La lecture des Souvenirs d’un demi-siècle, de Maxime Du Camp, est recommandée à ceux qu’amuse la persistance des comportements politiques à travers le temps, et aux misanthropes amateurs d’outrecuidance gouvernementale. 24. Voir p. 293.

PUISSANCE ET JOUISSANCE

285

enfin elle aurait renforcé les institutions, ce qui aurait permis au moins une gestion raisonnable de la sortie de crise. Elle se serait placée dans le fil de la politique de l’avenir, qui doit s’attacher à faire exister l’exécutif européen. Au lieu d’adopter cette conduite prudente, le coq français oublieux des succès quotidiens qu’il remporte contre les États-Unis au sein de l’OMC depuis qu’il y fait défendre ses thèses par l’UE, ne s’est pas contenté de s’opposer par la parole au diktat américain, mais a consacré ses forces à supplier quelques associés douteux de suivre ses initiatives. Loin de vouloir contribuer à la résolution de la crise irakienne, qui passait de toute évidence par le renforcement d’une unité sans faille des nations bandées contre Saddam Hussein, la France s’est acharnée à empêcher la construction de cette unité pour gêner systématiquement les États-Unis. Démonstration d’impuissance et de jactance approuvée et c’est le plus triste, par 90 % des Français qui ont montré ainsi ne rien comprendre à ce qui se passe dans le monde. Lundi 20 janvier. Le ministre français des Affaires étrangères, Dominique de Villepin, déclare au Conseil de sécurité des Nations unies réuni pour discuter la crise : « Nous pensons aujourd’hui que rien ne justifie d’envisager l’action militaire […]. Si les États-Unis décident à un moment donné d’envisager une action militaire unilatérale – le président de la République l’a dit depuis le début – nous ne nous associerons pas à une intervention qui n’aurait pas le soutien des Nations unies […]. À partir de là, vous imaginez que la France – vous évoquez le droit de veto – la France comme membre permanent du Conseil de sécurité, assumera toutes ses responsabilités, fidèle aux principes qui sont les siens. Croyez bien qu’en matière de respect des principes nous irons jusqu’au bout. »

Le défi ainsi lancé, s’appuyant sur une menace, provoque la colère du secrétaire d’État Powell, qui ne pardonnera pas. Le conflit ouvert par le pot de terre contre le pot de fer s’envenimera pour atteindre une intensité destructrice. Mercredi 22 janvier. Lors de la célébration à Versailles du quarantième anniversaire du traité de l’Élysée signé par Konrad Adenauer et Charles de Gaulle, en présence de douze cents parlementaires des deux pays, le président Chirac affirme : « La voix du couple franco-allemand doit s’élever pour ouvrir un chemin à la nouvelle Europe […]. Il est urgent que l’Europe s’impose comme un acteur international. Elle est aujourd’hui un exemple pour tous ceux qui refusent la fatalité de la guerre. »

Ainsi les duettistes Chirac et Villepin, avec le chancelier Schröder pour brillant second, se posent en guides de l’Europe

286

INTRODUCTION AU SIÈCLE DES MENACES

face à l’abominable Amérique, et réussissent à antagoniser aussi bien tous les autres gouvernements européens que leur « rival » d’outre-Atlantique. La riposte viendra des deux côtés. Mercredi 22 janvier au soir. De Washington, Donald Rumsfeld s’adresse à la presse étrangère : « Je ne vois pas l’Europe comme étant la France et l’Allemagne. Je pense que c’est la vieille Europe. Si vous regardez l’Europe entière son centre de gravité passe à l’Est. L’Allemagne a été un problème, la France aussi. Mais si vous considérez un grand nombre de pays en Europe, ils ne sont pas avec la France et l’Allemagne, mais avec les États-Unis. »

Jeudi 30 janvier. La bombe éclate. Cinq chefs de gouvernement de l’UE et trois dirigeants de pays candidats à l’entrée dans l’Union rendent public un appel réaffirmant à propos de l’Irak l’importance de la solidarité transatlantique avec les États-Unis. L’affaire a été concoctée par le Wall Street Journal qui a obtenu immédiatement l’accord des Italiens, puis des Espagnols et surtout le soutien agissant de Tony Blair. S’y associent le Danemark, le Portugal, la Tchéquie, la Pologne et la Hongrie. MM. Chirac et Schröder n’ont pas été informés. Le texte constitue un rejet de toute tentative franco-allemande de mener la politique étrangère de l’Union. Une gifle. Mercredi 5 février. Dix États de l’Europe orientale (sept candidats à l’UE : Estonie, Lettonie, Lituanie, Slovaquie et Slovénie, acceptés pour entrée en 2004 ; plus Bulgarie et Roumanie, acceptés pour entrée en 2007 ; accompagnés de l’Albanie, de la Croatie et de la Macédoine), publient à leur tour un texte de soutien inconditionnel aux États-Unis, complétant ainsi la coupure diplomatique entre l’Europe d’un côté, le couple franco-allemand et son toutou belge de l’autre. Nouvelle gifle. L’auteur de la manœuvre est le lobbyiste Bruce Jackson, ancien directeur de la stratégie de Lockheed Martin et membre du brain-trust de Bush pendant les élections. Même jour. Le secrétaire d’État Colin Powell présente au Conseil de sécurité les faits amassés par la CIA pour prouver la possession d’armes de destruction massive par Saddam Hussein. Le réquisitoire américain repose sur des écoutes téléphoniques et des images spatiales. Mais ne convainc personne. Il est creux. Une surveillance satellitale efficace exigerait des moyens tels que la FIA dont les États-Unis ne disposeront pas avant 2010. On notera que l’opposant le plus virulent à la politique du président Bush II, à savoir la France, qui se vante de ses satellites d’observation optique, s’est réfugié dans un discours de référence aux Grands Principes. Pour une fois qu’une posture de puissance aurait pu être

PUISSANCE ET JOUISSANCE

287

défendue avec des outils de puissance… C’est que les satellites Hélios ne font pas partie d’un système intégré. En l’absence d’un C4ISR, ils ne contribuent en rien à la gestion d’une crise. La presse américaine se félicite de l’isolement franco-allemand en Europe, qu’elle prétend aggravé par la débâcle du chancelier lors des élections en Hesse et en Basse-Saxe, le dimanche 2 février. Elle en profite pour cracher sur la France plus que d’habitude. Le New York Times écrit : « Il faut être imbécile ou français pour n’être pas convaincu par l’exposé du secrétaire d’État. » Mais le champion de ce sport prisé des plumitifs anglosaxons, Thomas Friedman, a-t-il tort d’écrire25 : « Être faible après avoir été puissant est une chose terrible. Elle vous rend stupide. » Si la naïveté de ces affirmations venimeuses éclatera dans l’avenir lorsqu’il sera démontré que la position américaine repose sur le mensonge et la désinformation, néanmoins les Français sont effectivement très faibles devant elle, car ils ne possèdent ni les moyens techniques d’en prouver la fausseté, ni la capacité politique, et encore moins le désir, de construire un obstacle véritablement européen à l’assaut du bulldozer yankee. Faute d’une attitude vraiment européenne, les FrancoAllemands ne parviennent pas à capitaliser l’état de la psyché collective. Le Time Magazine a posé sur son site web la question suivante : « Quel pays présente le plus grave danger pour la paix en 2003 ? » Les 318 000 réponses publiées le 28 janvier se répartissent ainsi : Corée du Nord 7 % ; Irak 8 % ; États-Unis 84 %. Quand les ministres des Quinze se rencontrent, ils ne discutent pas de ce qu’ils devraient faire, mais de ce que les États-Unis devraient faire !… Portés par l’antiaméricanisme des opinions publiques, les gouvernements français et belge opposent le 10 février leur veto à une demande américaine du Conseil de l’OTAN de transférer des équipements défensifs comme des batteries Patriot ou des avions AWACS à la Turquie, prétendument menacée par l’Irak. L’Allemagne se rallie à ce refus. Pour débloquer la situation, la Turquie invoque l’article 4 du traité de l’Atlantique Nord, qui prévoit des consultations entre Alliés lorsque l’un d’eux estime menacées sa sécurité ou son intégrité territoriale. L’Allemagne, la Belgique et la France maintiennent leur veto. Il est curieux de voir la France, dont le rôle dans l’OTAN est marginal, parvenir à coincer, ne serait-ce que quelques jours, le fonctionnement d’une Alliance qui, sans elle, a maintenu la paix en Europe pendant cinquante ans. Cette Alliance évolue. Sous 25. International Herald Tribune, 3 février 2003.

288

INTRODUCTION AU SIÈCLE DES MENACES

l’Administration Bush II, les États-Unis ont révisé leur posture stratégique en retournant à une politique unilatérale de puissance, veulent conserver les mains libres en toutes circonstances et refusent la moindre forme d’engagement contraignant, que ce soit au sein de l’OTAN désormais considérée comme une organisation annexe de sécurité régionale, ou dans une instance multilatérale comme une Cour pénale internationale. Les faucons sont tentés d’abandonner les alliances permanentes au profit de la doctrine Rumsfeld : « La mission fait la coalition. » La garantie d’un engagement américain automatique en cas de menace sur la sécurité de l’Europe pourrait s’affaiblir. Heureusement, il ne s’agit que d’un épisode ridicule. L’OTAN en a connu d’autres plus délicats, comme le retrait de la France en 1966, l’introduction des Pershing-2 et des missiles de croisière dans les années 1980, et les disputes récurrentes entre les Grecs et les Turcs. Elle sortira d’une crisette éphémère créée par les chevau-légers français, mais saura prendre les dispositions qui maintiendront ces derniers dans l’impossibilité d’empêcher la défense de l’Europe pour le plaisir de parader sur le devant de la scène internationale. En fait, la critique par laquelle l’Administration Bush II répond aux résistances à sa politique s’étend à toutes les institutions internationales qu’elle ne considère dorénavant que tactiquement, selon qu’elles soutiennent ou gênent ses desseins immédiats. La gesticulation française ne fait que renforcer cette dangereuse dérive. Rappelons notre leitmotiv : seule la puissance compte devant la puissance. Lundi 17 février. Lors de la réunion du sommet européen extraordinaire à Bruxelles, le président Chirac remet vertement au rang de leur pairie les dix-huit gouvernements européens coupables de s’être démarqués de la ligne franco-allemande : « Ils ne sont pas très bien élevés, et un peu inconscients des dangers que comporterait un trop rapide alignement sur la position américaine !… Ils ont perdu une bonne occasion de se taire ! » Ces propos sont repris le lendemain par la ministre française de la Défense en visite officielle à Varsovie, à la stupeur irritée des dirigeants polonais. Dimanche 16 mars. Jour de deuil pour l’Europe. Le président Bush II rencontre à Lajes aux Açores les Premiers ministres respectivement du Royaume-Uni, d’Espagne et du Portugal, Tony Blair, José Maria Aznar et José Manuel Durao Barroso pour conforter leur alliance contre l’Irak. Ces messieurs publient un communiqué qui est un ultimatum adressé non à l’Irak, mais à l’ONU et surtout à l’UE. Le lecteur aura compris que, pour l’auteur de ces lignes, vis-à-vis des Américains seul Javier Solana aurait dû représenter les nations européennes, même et surtout en l’absence d’une position commune.

PUISSANCE ET JOUISSANCE

289

Devant la campagne organisée par la France pour les empêcher d’obtenir une majorité au Conseil de sécurité, avec son veto à la clé, les États-Unis décident de traiter l’ONU par le mépris et attaquent l’Irak le 20 mars. L’événement aura démontré une fois de plus l’incapacité grandissante des institutions multilatérales à gérer les crises. Grâce à l’action convergente de la France et des États-Unis, l’ONU, l’OTAN et l’UE sont provisoirement chacune hors jeu. Il faudra du temps pour édifier une digue à l’unilatéralisme américain. Il faudrait surtout une DIRD européenne… Et qu’on ne prétende pas que la France se bat pour les grands principes, elle qui s’appuie sur la Russie exterminatrice de Tchétchènes. L’attitude française, qui ne tient compte ni de la réalité des rapports de forces ni des traités, a été magnifiée par le Premier ministre M. Jean-Pierre Raffarin, le 4 septembre 2003, devant la chaîne de télévision TF1, à l’occasion d’une autre dérive plus destructrice encore, le refus de se plier au pacte de stabilité qui impose aux membres de l’UE de plafonner le déficit budgétaire à 3 % de leur PIB26 : « La France ne peut se comparer à n’importe quel pays. C’est un grand pays avec un rôle international, des missions à remplir. Tous les pays n’ont pas une défense, une armée comme nous avons ; tous les pays n’ont pas une diplomatie. »

Ainsi construit-on l’Europe. Pauvre Jean Monnet.

L’Europe de la Défense Sont concevables en Europe trois types d’organisations de sécurité et de défense : l’OTAN dominée par les États-Unis, créée par la guerre froide et à la recherche d’une mission ; les armées nationales, sans crédits, faibles, dispersées et inutiles sinon comme supplétifs des Américains ; une structure intégrée européenne, qui n’existe pas, aurait seule la capacité de donner à l’UE un instrument de puissance. Personne ne sait ce qu’il faut faire. Une partie de l’opinion publique européenne souhaite vaguement le développement d’une force militaire indépendante de l’OTAN, mais l’émergence d’un noyau dur coïncidant avec les pays fondateurs de l’Europe serait indispensable à sa création et à sa croissance. Nous verrons maintenant s’il faut y croire. 26. Le Monde, 7 septembre 2003.

290

INTRODUCTION AU SIÈCLE DES MENACES

PRÉHISTOIRE

Au début des années 1950, les États-Unis trouvaient trop faibles les contributions européennes à l’Alliance, et le secrétaire d’État Foster Dulles insista pour que la République fédérale allemande se dotât d’une armée. Le gouvernement français riposta en proposant la création d’une force européenne, la Communauté européenne de défense (CED), où les troupes allemandes auraient été encadrées à l’intérieur d’une structure communautaire. Derrière cette initiative se trouvaient les politiciens catholiques, dits démocrates-chrétiens, qui voyaient dans la Lotharingie, de l’embouchure du Rhin à la Sicile, le creuset de la future confédération européenne, et qui poseraient sa première pierre avec la signature du traité de Rome en 1957. Le sentiment antiallemand, encore très vigoureux dans la population, amena le Parlement français à rejeter la CED pendant l’été de 1954, et le réarmement allemand s’opéra au sein de l’OTAN dans l’obédience à l’Amérique. Fut alors gonflée une chose informe, une structure de papier appelée Union de l’Europe occidentale (UEO), localisée à Strasbourg, dévolue à des palabres sur la défense, sans moyens d’action ni influence. Les dés étaient jetés ; la dépendance des Européens vis-à-vis de l’Amérique les conduisit à restreindre leur horizon stratégique et affaiblit leur sens des responsabilités. En matière de sécurité externe, et même souvent interne, les réponses aux questions qui se poseraient viendraient de Washington. Pendant la guerre froide, les inconvénients de cette attitude furent largement compensés par ses avantages, surtout financiers. Le président de Gaulle, conscient de la désaffection que les Français éprouveraient envers leur défense si elle reposait principalement dans les mains des Américains, retira, en 1966, les armées françaises du commandement intégré de l’OTAN sans quitter l’Alliance, selon une doctrine énoncée par lui et résumée dans la phrase : « Il faut que la défense de la France soit française », à laquelle nul en dehors de l’Hexagone n’a jamais attribué de contenu réel. Jusqu’à la fin de la guerre froide, les puissances militaires en Europe restèrent l’OTAN sous commandement américain et les troupes du pacte de Varsovie sous commandement soviétique. Dans les années 1990, alors que l’hyperpuissance américaine se déployait, le refus français de participer à la seule alliance militaire opérationnelle, l’OTAN, n’était plus justifié que par le poids du passé. Le rapprochement, voulu par le président Chirac en 1995-1996 entre la France et l’OTAN, semblait traduire une éva-

PUISSANCE ET JOUISSANCE

291

luation réaliste du véritable poids de son pays dans les affaires mondiales lorsqu’il achoppa sur l’incroyable exigence de l’attribution du commandement de la flotte méditerranéenne basée à Naples à un amiral français. Une fois de plus s’affichait la propension gauloise à péter plus haut que son cul. La Royale aligne un unique porte-avions, dont les pannes en mer ont défrayé la chronique. Savez-vous que la VIe flotte américaine règne sur la Méditerranée à six mille kilomètres de sa base de Norfolk, Virginie ? AGITATION INSTITUTIONNELLE APRÈS LA DISPARITION DE LA SOVIÉTIE

Voilà le mur de Berlin qui tombe, et la dynamique européenne relancée. La France et l’Allemagne prirent des initiatives, fort limitées, dans le domaine de la défense. Elles créèrent en 1991 une brigade franco-allemande, et elles essayèrent de ressusciter l’UEO pendant les négociations du traité de Maastricht, afin d’en faire une structure qui donnerait à l’UE une dimension militaire. L’Administration Bush I écrivit alors aux gouvernements européens pour leur faire rejeter l’idée d’offrir un bras armé à l’UE, et en particulier de fondre l’UEO dans l’UE. Le RoyaumeUni, suivant la Voix de Son Maître, torpilla l’initiative mais, tout de même, le traité de Maastricht entérina le souhait que l’UE mît sur pied une « politique extérieure de sécurité commune » (PESC) à définir, et désigna l’UEO comme ayant vocation de devenir un de ses moyens d’exécution. L’UEO s’en trouva revigorée. Ses ministres tuteurs se réunirent à Petersberg le 19 juin 1992 pour y adopter une liste des missions qu’elle pourrait remplir : des missions humanitaires ou d’évacuation de ressortissants ; des missions de maintien de la paix ; des missions de forces de combat pour la gestion des crises, y compris des opérations de rétablissement de la paix. Le sommet de l’Alliance à Bruxelles en 1994 affirma que l’émergence d’une identité européenne de sécurité et de défense consoliderait son pilier européen, tout en renforçant le lien transatlantique et en permettant aux alliés européens d’assumer une plus grande responsabilité dans leur sécurité et leur défense communes. En 1996, les ministres des Affaires étrangères et de la Défense de l’OTAN approuvèrent le concept de « Groupes de forces interarmées multinationales » (GFIM), forces « séparables mais non séparées » des forces de l’OTAN, qui pourraient être employées dans des opérations de réponse aux crises, dirigées par les Européens à d’autres fins que la défense collective. Apparaissait un nouveau concept à l’intérieur de la PESC, la PESD

292

INTRODUCTION AU SIÈCLE DES MENACES

(politique européenne de sécurité et de défense) visant à l’organisation des instruments civils et militaires nécessaires à sa mise en œuvre. Le traité d’Amsterdam, signé en 1997, créa le poste de Haut Représentant pour la politique étrangère, M. PESC, qui serait une sorte de porte-parole de l’UE, sans pouvoir ni responsabilité, et il envisagea la définition progressive d’une politique européenne de défense commune. L’INITIATIVE DE SAINT-MALO

La proposition du Premier ministre Tony Blair au sommet franco-britannique de Saint-Malo, le 4 décembre 1998, a induit un changement profond dans le discours sur la défense européenne ; les dirigeants anglais et français déclarèrent en effet : « L’UE a besoin d’une capacité d’action autonome, reposant sur des forces militaires crédibles et les moyens de décider leur emploi. […] Pour que l’UE puisse agir dans des circonstances où l’ensemble de l’OTAN ne serait pas impliqué, l’Union doit disposer de structures appropriées, d’une capacité d’analyse des situations, de source de renseignement (intelligence) et de moyens de planification stratégique, sans duplication. »

Étaient considérés comme envisageables trois types d’opérations militaires impliquant des forces européennes : des missions de l’OTAN ; des missions de l’UE autonomes ; des missions de l’UE utilisant des moyens de l’OTAN. L’initiative paradoxale du Premier ministre anglais s’explique par son désir personnel de voir son pays devenir un membre actif de l’UE à égalité de créativité avec la France et l’Allemagne. Comme le Royaume-Uni n’est pas mûr pour accepter la monnaie unique, et n’a pas signé les accords de Schengen sur la coopération interétatique en matière de sécurité, Blair avait besoin de trouver un domaine où il pourrait exercer un leadership tout en se montrant bon européen. La Défense se présentait comme une zone à explorer, puisque son effort militaire, plus grand que celui des autres États, donnait au Royaume-Uni une position de supériorité. De plus, la coopération en cette matière échapperait à la compétence de la Commission, bête noire des Anglais. Une autre motivation du Premier ministre lui vint de l’expérience acquise au Kosovo en 1998, où l’impuissance européenne dans le domaine diplomatique avait trouvé sa source dans l’absence de capacités militaires. Une dernière raison pour les Anglais de se porter en avant dans les questions de défense pourrait avoir été leur désir de canaliser les velléités éventuelles des Français désireux de construire quelque chose contre l’OTAN.

PUISSANCE ET JOUISSANCE

293

L’approche britannique, toute pragmatique, donnait la priorité aux capacités et non aux institutions, alors que les tentatives franco-allemandes avaient privilégié sans succès le caractère institutionnel. Les Anglais, qui tiennent avant tout à sceller l’engagement américain en Europe, estiment que la meilleure manière d’y parvenir passe par l’amélioration des capacités européennes. La volte-face d’Albion avait été si soudaine, si inattendue dans ce domaine, qu’elle paraissait destinée à faire long feu quand les affaires deviendraient sérieuses. En attendant, elle ravissait les partenaires européens, habitués aux divergences permanentes de la France et de l’Angleterre en matière de défense, et ils s’y rallièrent. Une dynamique était alors engagée : les Américains acceptèrent ces principes au sommet de Washington (avril 1999). Le sommet européen de Cologne (juin 1999) se rangea à la position franco-britannique prise à Saint-Malo et, passant à l’acte, proposa de créer trois nouveaux organes (qui rappelaient le modèle otanien) pour conduire les « missions de Petersberg » : un comité de politique et de sécurité chargé de la coordination des actions de défense (COPS) ; un comité militaire de l’UE regroupant les chefs d’état-major des différents pays (CMUE) ; et un état-major militaire de l’UE (EMUE). La mise sur pied de ces structures sonnait le glas de l’UEO, destinée désormais à disparaître pour être remplacée par une organisation véritable, et surtout exigeait la présence d’un patron. Les États se résolurent enfin à choisir un M. PESC, et, le 18 octobre 1999, M. Javier Solana devint le titulaire de ce poste, en même temps que lui était confié le secrétariat général de l’UEO. Accompagnèrent cette nomination la décision de créer les structures proposées à Cologne, qui constitueraient le début des instruments nécessaires à la PESD, et l’adoption d’un objectif global (headline goal) par le Conseil européen réuni à Helsinki les 1er et 2 décembre 1999, correspondant aux capacités suivantes : • Capacité de déploiement rapide de forces adaptées aux missions de Petersberg, y compris des opérations au niveau de corps d’armée (jusqu’à 15 brigades, c’est-à-dire 50 000 à 60 000 hommes). Devant rester disponibles pendant un an, ces forces disposeraient de capacités de commandement, contrôle et renseignement, logistique, services de support et éléments appropriés aériens et maritimes. Leur déploiement devrait s’effectuer en moins de soixante jours et fournir à l’intérieur de cette durée des éléments plus légers capables d’une réponse rapide. • Développement d’éléments collectifs dans les domaines de commandement et contrôle, renseignement et transport stratégique.

294

INTRODUCTION AU SIÈCLE DES MENACES

• Capacité de déploiement de police civile pour la gestion de crise « non militaire » (le chiffre de 5 000 hommes a été accepté par l’UE à la fin de 2000). Les objectifs d’Helsinki sont ambitieux, car le soutien de 50 000 à 60 000 hommes pendant un an correspond à un effectif total d’au moins 200 000 hommes, plus trois quartiers généraux mobiles. Les institutions prévues à Cologne et à Helsinki ont commencé à fonctionner en mars 2000. Au sommet de Nice (7 et 8 décembre 2000) elles ont été rendues permanentes. Le COPS est entré en service le 22 janvier 2001, le CMUE le 9 avril 2001 après la nomination de son président le général finlandais Hagglund, l’EMUE le 11 juin 2001. Les structures permanentes de gestion de crise de la PESD ont été déclarées opérationnelles en décembre 2001 au Conseil européen de Laeken. L’attaque du 11 septembre 2001 a conduit l’UE à reconnaître la menace du terrorisme pour sa sécurité et sa stabilité. Un conseil européen extraordinaire tenu à Bruxelles le 21 septembre a confirmé les choix de sécurité précédents, c’est-à-dire le développement de la PESC et la mise sur pied opérationnelle de la PESD. L’important a été la reconnaissance de la nécessité d’augmenter les capacités, afin de combler les déficiences de l’Europe : impossibilité réelle de remplir les missions de Petersberg sans l’aide de l’OTAN, absence d’une capacité européenne multinationale et interarmées de commandement et de contrôle en amont de la Force de réaction rapide ; inexistence de moyens aériens ou navals de projection de force et du renseignement (nous y reviendrons). Un plan d’action sur les capacités (ECAP, ou European Capability Action Plan) a été mis sur le chantier en février 2002, afin d’identifier les carences. On ne parle pas de financement. Ainsi est née une nouvelle fonction de l’Europe, l’Europe de la Défense qui représenterait le premier pas dans l’instauration d’une politique autonome de puissance si des objectifs étaient définis et des capacités disponibles. Par définition, l’Europe de la Défense correspond à une force de projection capable de se déployer indépendamment des Américains. Ses missions sont celles de Petersberg et ses forces celles d’Helsinki. Lorsqu’une action militaire est décidée par les États occidentaux, elle est placée sous la responsabilité d’une nation dite « nation-cadre » et menée par deux catégories de partenaires : d’une part la « nation-cadre » qui assume le commandement, détermine l’architecture de l’intervention, fournit du renseignement et apporte ses moyens ; d’autre part les « nations participantes » dont les moyens sont subordonnés.

PUISSANCE ET JOUISSANCE

295

Actuellement, l’objectif global de l’UE prévoit la capacité de déployer une force en deux mois, ce qui est trop long pour gérer la crise. Il faudrait par conséquent organiser une « Force de réaction rapide ». Cette force multinationale serait à la disposition du Conseil sous l’autorité du Comité militaire de l’UE, et serait soumise à des règles spécifiques de financement en commun. Il existe déjà, mais dans le cadre de l’OTAN et non de l’UE, une structure militaire européenne qui regroupe des capacités opérationnelles : la brigade mixte franco-allemande créée en 1991 s’est étoffée avec la participation successive de la Belgique en 1993, de l’Espagne en 1994 et du Luxembourg en 1996. Les objectifs de Petersberg lui ont été assignés dès leur énoncé (juin 1992), et un accord a été signé le 21 janvier 1993 entre les chefs d’étatmajor des armées allemande et française d’une part, les commandements militaires de l’Alliance atlantique de l’autre. La brigade devenait alors (sur le papier) une formation de 61 000 hommes au service de l’OTAN, dotée de 800 chars, un millier de véhicules de combat d’infanterie, 350 pièces d’artillerie et quelque 600 systèmes d’armes antichars, avec son poste de commandement à Strasbourg. Progressivement, on est passé d’une brigade franco-allemande à un corps d’armée multinational, l’Eurocorps, auquel, aujourd’hui, huit autres pays européens veulent être associés. Outre les cinq pays fondateurs, la Grèce, la Turquie, la Pologne, l’Autriche, la Finlande, les Pays-Bas, l’Italie et le Royaume-Uni installent des missions de liaison auprès de l’état-major à Strasbourg. Par deux fois, avant même cette reconnaissance, l’étatmajor de l’Eurocorps a été engagé sur le terrain : entre mai 1998 et décembre 1999, il a commandé la Force de stabilisation de l’OTAN en Bosnie (SFOR), puis, d’avril à octobre 2000, la Force de maintien de la paix au Kosovo (KFOR). L’Eurocorps est-il appelé à devenir le corps de réaction rapide prévu à Helsinki ? L’OTAN dispose déjà de deux corps de ce type, l’Allied Rapid Reaction Corps (ARRC), britannique à 60 %, et un corps germano-néerlandais qui a pris, en février 2003, la tête de la Force internationale d’assistance pour la sécurité (ISAF) à Kaboul. Nous avons vu le sommet de Prague décider en novembre 2002 sous la pression de Donald Rumsfeld, la création d’une FRR de l’OTAN. L’allégeance de l’Eurocorps, entre l’OTAN et l’UE, fera sans nul doute l’objet de négociations difficiles et de crispations en période de crise. Quelle que soit leur appellation, il s’agira des mêmes unités, appelées à servir soit sous le drapeau de l’OTAN, soit sous celui de l’UE. La question est de savoir si l’organisation atlantique

296

INTRODUCTION AU SIÈCLE DES MENACES

n’absorbera pas les velléités européennes de se doter d’une capacité militaire autonome. « La force de réaction rapide de l’OTAN, qui aura bien sûr une composante américaine, et la force européenne, qui agira en fonction de missions de l’UE, n’ont pas besoin d’être deux forces différentes. Il peut s’agir de la même force orientée dans différentes directions […]. Espérons que nous serons toujours au diapason »,

a déclaré, lors de la création de cette FRR, le général américain James Jones, futur commandant en chef des forces alliées en Europe. L’initiative de l’OTAN ne présage rien de bon pour l’Europe de la Défense, dont on ne sait pas vraiment si elle est un appendice de l’Alliance, ou une réalisation en soi, complémentaire mais autonome. Dès qu’un exercice pratique se présente, ses parrains, français et anglais, obligés de sortir de l’ambivalence, ne s’entendent plus. La relève de l’OTAN en Macédoine (maintenant Asym) par une force purement européenne, discutée pendant tout 2002, en fournit l’illustration. Faute d’accord entre l’OTAN et l’UE – tantôt à cause des Grecs, tantôt à cause des Turcs –, les Européens peinent à déployer trois cents hommes dans une petite république balkanique pour une opération de quasi-police. Vu la modestie des moyens impliqués, la France a proposé que l’UE se passe d’un accord avec l’OTAN. Non, ont répondu les Britanniques, qui oublient leur pragmatisme quand il s’agit des relations avec les États-Unis. Enfin, le 31 mars 2003 l’Europe de la Défense existe pour la première fois sur le terrain avec une force en Macédoine, qui a recours il est vrai aux capacités de l’OTAN. Mes interlocuteurs haut placés à Bruxelles (y compris l’adjoint direct de Javier Solana) se congratulent de cet extraordinaire succès, obtenu en seulement cinq ans de négociations. Autre exemple qui les réconforte : à la demande de l’ONU qui veut déployer sa force d’intervention MONUC, une action militaire de séparation des factions tribales à Bunya au Congo ex-belge est dirigée pendant l’été 2003 par la France comme nation-cadre, selon un plan d’opérations avalisé par les états-majors de l’UE. Les 1 679 Français sont complétés par 381 Européens. La France seule n’aurait pas eu les moyens tactiques et stratégiques nécessaires. Le flou des idées, de la situation et des budgets n’a pas empêché le Conseil européen à proclamer le 19 mai 2003 que l’UE est désormais capable de mener toutes les opérations de Petersberg. L’Europe de la Défense n’existe que sur le papier. Dès l’instant où l’on cherche l’autonomie d’action, il est impératif de disposer d’une chaîne autonome de commandement qui permettrait

297

PUISSANCE ET JOUISSANCE

de se dispenser si nécessaire d’avoir recours aux capacités de l’OTAN, c’est-à-dire d’un état-major d’opérations interarmées, européen et permanent, ou d’états-majors interarmées nationaux et multinationalisables. Ce n’est pas le cas aujourd’hui. Il n’existe pas d’organe permanent et multinational capable d’assurer le commandement militaire d’une opération organisée sous le contrôle politique de l’UE, car l’état-major (EMUE) n’exerce que des fonctions de planification. Le problème à résoudre ressemble à la quadrature du cercle : comment organiser le commandement de forces de l’OTAN devant opérer en dehors de l’OTAN ? Leur état-major doit-il se trouver le même, ou un autre, à côté ou en dehors ?… L’expérience a montré que les Européens peuvent conduire de petits engagements multinationaux sans recourir à l’OTAN, en dépit de leurs fortes carences capacitaires. Le 12 décembre 2003, la France, l’Allemagne et le Royaume-Uni ont proposé de mettre à la disposition de l’ONU, voire d’organisations régionales, une force censée aider à restaurer l’État là où il est en déliquescence. Elle disposerait d’un étatmajor situé à Bruxelles pour mener à la fois des opérations militaires autonomes (sans les moyens de l’OTAN), et la gestion civile des crises. On se gargarise alors de « coopération renforcée ». C’est tout ce qui reste d’une proposition irréfléchie faite le 23 avril 2003 par l’Allemagne, la France, la Belgique et le Luxembourg, de créer en dehors des structures de l’OTAN, un état-major à Tervuren pour diriger les opérations de l’Europe de la Défense, initiative aussitôt contrée par le Royaume-Uni. RELANCE DE L’ESPRIT DE SAINT-MALO

?

Au milieu de la tempête diplomatique préparant l’intervention en Irak, Jacques Chirac et Tony Blair veulent afficher un discours européen. À l’issue du sommet franco-britannique tenu le 4 février 2003 au Touquet, la France et l’Angleterre annoncent leur volonté de coopérer sur les porte-avions, mais proposent aussi de coordonner leurs capacités aéronavales au service du corps européen de réaction rapide. Cet accord a été rédigé le 23 janvier précédent à Londres, par les chefs d’état-major des deux marines. Le 31 janvier, le gouvernement anglais a rendu publique son intention de commander deux porte-avions de 40 000 à 50 000 tonnes, livrables entre 2012 et 2015, à hauteur de 4,5 milliards d’euros, pour remplacer ses trois navires en service, équipés d’avions Harrier à décollage vertical. Le nouveau programme repose sur l’emploi de l’avion JSF. Downing Street a choisi pour

298

INTRODUCTION AU SIÈCLE DES MENACES

maître d’œuvre BAE, connu pour ses dépassements incontrôlables, avec Thalès comme sous-traitant clé pour la conception du bateau. La France a mis seize ans pour déclarer opérationnel, en 2002, le Charles-de-Gaulle commandé en 1986, et prévoit d’en aligner peut-être un second vers 2015. Ces deux navires seront équipés d’avions Rafale-Marine, catapultés, alors que le JSF atterrit et décolle verticalement ou sur une distance très courte, sans catapulte. Les deux pays ont déjà choisi des stratégies différentes débouchant sur des matériels non interopérables. Par le traité de Nice, la France et le Royaume-Uni se sont engagés à fournir une centaine de navires pour des interventions du corps européen. Cette armada sera groupée autour de la pièce maîtresse que sont les porte-avions. Au Touquet ont été formalisées les dispositions grâce auxquelles les deux nations organiseront leur coopération à court terme dans le domaine aéronaval pour donner à l’Union européenne une plus grande capacité de projection de forces. « L’objectif est de maintenir en permanence un porte-avions européen disponible », indique la déclaration. L’Espagne et l’Italie, qui ont chacune un porte-avions de plus petit tonnage, seront associées plus tard à cet engagement naval. Devant cette gesticulation, il est intéressant de rappeler l’analyse que fait Laurent Murawiec27 sur l’avenir du porte-avions, pour lui arme en voie d’extinction : « Repéré de l’espace, suivi par des sous-marins difficiles à détecter, mis en danger par les mines dès qu’il s’approche trop des côtes, harcelé par des navires rapides mais agiles dotés de missiles dangereux, menacé par des missiles à la trajectoire balistique ou même endoatmosphérique, le “cercle de feu” qui entoure le porte-avions est de moins en moins capable d’en assurer la survie. […] Même modernisé, le porte-avions, comme le projet américain CVX, dont les promoteurs prévoient commencer la construction en 2006 pour une mise en service en 2014, sera de plus en plus difficile à sauver du désastre pour son propriétaire. Le Béhémoth – le monstre des mers de la Bible – ne survira pas en tant que pivot de la puissance maritime. »

Par quoi sera-t-il remplacé ? Quel que soit le futur des concepts encore naissants et controversés, il est certain que des navires de type nouveau rempliront de façon plus efficace et moins coûteuse les fonctions confiées aux porte-avions européens lorsque ceux-ci vers 2020 seront en service opérationnel. Au Touquet, l’Europe de la Défense n’a fait qu’afficher ses retards conceptuels. 27. Laurent Murawiec, op. cit., p. 129-140.

PUISSANCE ET JOUISSANCE

299

En réalité il ne s’agit pas d’Europe de la Défense, mais d’un simple accord bilatéral de développement industriel. OBSTACLES

Incompatibilité avec la doctrine américaine

Les Américains avaient accueilli avec antipathie l’initiative de Saint-Malo. La secrétaire d’État Madeleine Albright a résumé les raisons de son opposition dans ses trois D : • Refus d’un découplage de la défense européenne par rapport à l’OTAN et, en particulier, d’une entente fractionnaire des Européens entre eux qui mettrait les Américains devant le fait accompli d’une prise de position unanime. • Refus de la duplication des efforts entre OTAN et Europe. Là apparaît, de la part des États-Unis, une irritation constante devant la possession d’équipements modernes tel que les satellites, par leurs alliés, « alors qu’ils pourraient dépenser leur argent à des investissements plus utiles ». • Refus de la discrimination contre des membres de l’OTAN non-membres de l’UE comme la Turquie, discrimination inévitable dans le schéma européen. Peu après son arrivée au pouvoir, Donald Rumsfeld mit en garde les Européens sur « tout ce qui pourrait réduire l’efficacité de l’OTAN en doublonnant ou en perturbant la relation transatlantique ». Nous avons cité la déclaration similaire de Colin Powell sur le sujet28. Les États-Unis insistent pour qu’une planification des opérations éventuelles – ce qui relève en propre du commandement – ne soit pas menée, chacune pour soi, par une OTAN et une UE qui s’ignoreraient. Un tel travail d’état-major est délicat. Comment faire coopérer sur une base d’égalité les dixneuf de l’OTAN et les quinze de l’UE, même si la plupart des États appartiennent aux deux instances, et garder en même temps l’autonomie de décision de chacune ? « Nous devons nous assurer que nos forces armées soient équipées pour des missions OTAN et UE, plutôt que pour des missions OTAN ou UE », affirme Lord Robertson, le secrétaire général de l’OTAN. C’est dire qu’au point de vue des projections de force, l’UE doit rester un sous-ensemble de l’OTAN. L’analyse de Madeleine Albright restera la base de la résistance américaine à l’Europe de la Défense. Les États-Unis n’ont peut-être pas trop de soucis à se faire à ce sujet. À la raison profonde pour laquelle l’Europe de la Défense ne se fera pas, et qui 28. Voir p. 274.

300

INTRODUCTION AU SIÈCLE DES MENACES

est l’absence d’une volonté de créer une Europe de puissance, nous en ajouterons plusieurs autres, de nature structurelle. Les carences de la RD militaire européenne ne sont pas seulement de nature financière

Aux États-Unis, les investissements du DoD en matière de science et technologie sont effectués par le biais d’un partenariat rassemblant les agences de défense américaines, les laboratoires des forces armées, les universités, l’industrie et des partenaires internationaux. Il est difficile d’identifier les faiblesses ou les points forts des systèmes européens par rapport à l’américain, car il faudrait comparer les grandes lignes de systèmes nationaux disparates. Les politiques technologiques et les structures en matière de recherche de défense des pays européens ne présentent aucune rationalisation dans leur organisation ou leurs objectifs29. Leur coopération en matière de recherche de défense est très faible. Il convient de distinguer entre financement au niveau national, d’une part, et international, d’autre part. Le financement international ne représente que 5 % du total des moyens consacrés à la recherche en matière de défense en Europe. Il est donc évident que le sort de la recherche militaire européenne repose sur l’harmonisation de l’emploi des 95 % restants, qui sont encore entre les mains de chaque pays individuellement. Robert F. Ellsworth30 souligne que : « Les doubles emplois sont nombreux. Les programmes bi- et multilatéraux qui permettent aux Européens de réaliser des économies d’échelle dans le domaine de la RD, tels que les avions de combat Eurofighter et Tornado, les hélicoptères NH-90 et EH-101, les missiles Trigat et Aster, sont des exceptions, et non la règle générale. »

Aujourd’hui, les technologies des Européens sont à la hauteur de leurs investissements d’il y a dix ans, et celles qu’ils développent aujourd’hui sont destinées aux équipements qu’ils produiront en 2015. La faiblesse des efforts financiers européens rendra les retards très difficiles à rattraper. Cette situation potentiellement dangereuse devrait inciter les Européens à investir pour l’avenir en matière d’équipements militaires. En fait, une grande partie des dépenses actuelles de modernisation est absorbée par quelques grands programmes (l’avion de combat européen JSF 29. Document d’information A/EUO/TA (2000)12. de l’UE. 30. R. F. Ellsworth, Conférence à l’IDA (Institute for Defense Analysis), 18 juillet 2000, in Arnau Navarro, L’Écart entre l’Europe et les États-Unis dans le domaine de la recherche et de la technologie en matière de défense. Rapport à l’UEO A/1718, 46e session, décembre 2000, p. 16.

PUISSANCE ET JOUISSANCE

301

engloutira plus de la moitié des budgets de modernisation du Royaume-Uni, de l’Allemagne, de l’Italie et de l’Espagne dans les cinq prochaines années ou plus). Réaffecter des dépenses substantielles pour répondre à des besoins critiques, par exemple en systèmes avancés pour le renseignement ou pour la précision de ciblage, est exclu dans l’enveloppe financière actuelle. Loin de la priorité donnée par les États-Unis à la RD militaire, les Européens pensent que les nouveaux systèmes sont engendrés par les marchés civils. Les techniques requises à des fins de sécurité devront y être trouvées pour l’essentiel. L’État ne devra rester présent que pour les développements technologiques à vocation exclusivement militaire. Mais que signifie « État » dans ce contexte ? Les États européens ou un État européen ? Le bilan des enseignements du Kosovo, dressé par le ministère français de la Défense, pourrait aisément être extrapolé à tous les pays européens. Les Français constatent que : « La participation équilibrée à un conflit en coalition avec les ÉtatsUnis implique un niveau technologique minimal. Un écart important peut conduire à nous isoler de certaines actions […]. La France s’épuiserait à vouloir rattraper un niveau inaccessible ou sera obligée d’abandonner des pans entiers de domaines de recherche, si elle ne coordonne pas ses investissements avec ses partenaires européens, confrontés eux-mêmes à des défis similaires31. »

Il faudrait avant tout que les Européens s’entendissent sur des points de base : comment élaborer une stratégie européenne en matière de recherche ? Avec quels moyens et quel financement ? Comment coordonner les travaux de recherche effectués au niveau national et européen ainsi qu’à l’OTAN, en optimisant l’utilisation des budgets existants, en harmonisant les politiques nationales en matière de recherche et technologie et en éliminant le double emploi entre les activités RT financées par les gouvernements ? Aucun effort n’est entrepris dans ces directions. Les conséquences de la carence en RD se font sentir au niveau conceptuel. Les états-majors européens ne sont en général pas capables de discerner les évolutions techniques fondamentales et leurs conséquences. Que l’Europe ne possède pas certaines capacités, relève de choix : d’autres capacités jugées plus importantes ont été privilégiées dans le cadre de budgets restreints et en fonction de préjugés. Si certains systèmes n’existent pas dans la panoplie européenne, c’est qu’ils n’ont jamais été programmés 31. Les Enseignements du Kosovo. Analyse et références, Délégation à l’information et à la communication de la Défense, ministère de la Défense français, novembre 1999, p. 22 à 24.

302

INTRODUCTION AU SIÈCLE DES MENACES

dans les plans français, britannique ou d’autres États européens. Par exemple, les missiles de croisière de haute performance ont été jugés trop chers et nécessitant des plates-formes de mise en œuvre trop complexes et coûteuses telles que gros sous-marins, croiseurs ou bombardiers lourds. Dans le domaine des transmissions, la carence en liaisons non protégées de certains avions européens, engagés au Kosovo, découle directement du problème budgétaire. Par manque d’argent, les Européens ont mis en ligne nombre de vieux avions non modernisés. Même les avions modernes, dont ils disposent en trop petit nombre, n’ont pas tout ce qu’il faut à leur bord, car les évolutions technologiques sont rapides et le coût de leur intégration très élevé. Aux États-Unis, le discours dominant consiste à affirmer qu’un écart technologique existe dans le domaine militaire entre l’Amérique et l’Europe, découlant du gap évoqué au chapitre III32. M. John Hamre, alors secrétaire adjoint à la Défense des États-Unis, a présenté clairement33 la position américaine. « L’année dernière, l’OTAN est entrée en guerre. L’opération a été un succès, mais elle a mis en lumière les disparités existant entre les capacités techniques des États-Unis et celles de leurs alliés. Malgré les discussions et les préoccupations suscitées par ces disparités et les promesses faites de les combler, l’écart technique semble se transformer en abîme. » Selon John Hamre, il existe trois causes principales à l’écart technologique croissant entre les États-Unis et l’Europe : « En premier lieu, les budgets de défense européens continuent à diminuer. […] En second lieu, les industries de défense de l’Europe ont été lentes à se regrouper, de sorte qu’une part de l’investissement a été absorbée par les frais généraux d’entreprises faisant double emploi. Troisièmement, le maintien par les États-Unis de leur attitude conservatrice à l’égard de la coopération technologique a fortement contribué à l’entraver avec nos meilleurs alliés d’outreAtlantique qui se sont vu imposer des contraintes irritantes… »

La plupart des Européens arrivent au même constat que les Américains sur l’existence d’un écart technologique. D’après le général allemand Klaus Naumann, ancien président du Comité militaire de l’OTAN : « Les Américains consacrent trois à quatre fois plus d’argent à la recherche et au développement que tous les Européens réunis – et, qui plus est, ces dépenses font l’objet d’une coordination centralisée sur le plan national, tandis que les Européens sont loin d’une planification commune. Même s’il y a toujours des créneaux dans lesquels les Européens conservent une avance, ils ont au moins cinq ans de retard dans les domaines essentiels que sont le commande32. Voir p. 112. 33. John Hamre, « Europe Must Close Technical Gap », Jane’s Defense Weekly, 29 mars 2000, p. 28.

PUISSANCE ET JOUISSANCE

303

ment et la conduite des opérations, la communication, l’informatique et le renseignement. Le fossé se creuse de jour en jour34. »

Le gap ne se situe pas au niveau de la science et de la technologie mais à celui du développement et de la production. Le problème est celui de la valorisation du savoir. Nous avons vu au chapitre III que la recherche coûte 1, le développement 10 et la production 100. En l’absence d’argent, rien ne suit la recherche, même la bonne… Le discours américain sur l’amélioration des capacités de défense des alliés européens se réduit à un appel à « acheter américain ». Comme l’a souligné le général Charles W. Dyke35 : « Le défi est complexe mais clair ; nous devons mettre sur pied des forces armées interopérables qui puissent réagir en coopérant à toute la gamme des urgences militaires. » L’interopérabilité suppose des forces armées capables de travailler ensemble, des procédures communes, une langue commune. Plus que des équipements identiques, ce sont des équipements comparables quant à leurs performances et surtout des systèmes de commandement, de contrôle et de communication. Et puisque seule l’industrie américaine, alimentée par une abondante DIRD, peut les fournir… L’industrie de défense

En Europe, les États restent au centre de la coopération en matière d’armements36. Producteurs, clients et souvent les deux à la fois, ils décident de l’avenir de la coopération, de ses modalités et objectifs et, au dernier stade, de l’élaboration ou non d’une politique, plus ou moins intégrée. Toutefois ils doivent tenir compte de deux facteurs, le facteur budgétaire et le facteur industriel. Un programme d’armement moderne est aujourd’hui si coûteux qu’un seul pays ne peut le supporter. Les budgets restent insuffisants par rapport aux besoins affichés et n’offrent à moyen terme aucune perspective de nouveaux programmes à l’échelle nationale. D’un autre côté, l’évolution de l’économie mondiale pendant les dix dernières années a favorisé les privatisations et l’ouverture du capital des entreprises nationales de la défense à d’autres investisseurs que l’État. Les entreprises s’affranchissent des gouvernements et les participations croisées, les holdings, la 34. Interview du général Naumann par Nikolaus Blome dans Die Welt, 28 juillet 1999, in Foreign Broadcast Information Service, 28 juillet 1999. 35. Charles W. Dyke, Table ronde sur l’écart transatlantique en matière de Technologie et capacité, Conférence donnée à l’Institute for Defense Analysis, Washington, 18 juillet 2000, in Doc A/1718, op. cit. 36. M. Piscitello, Rapport du Conseil de l’UEO établi au nom de la Commission technique et aérospatiale, Doc. C/1800 48 e session, 12 novembre 2002.

304

INTRODUCTION AU SIÈCLE DES MENACES

coopération transatlantique et les limites des budgets nationaux ne permettent plus à un État de prendre le contrôle total d’une société. Les grands groupes suivent leurs propres stratégies industrielle et financière, qui limitent les possibilités et l’ampleur de l’intervention étatique. Aujourd’hui les sociétés en Europe qui ne produisent que pour la défense disparaissent au profit de groupes polyvalents, dont les productions sont « duales » et où les activités « civiles » apportent seules des profits. Pour s’en sortir les gouvernements, qui rechignent vraiment à une européanisation institutionnelle, collectionnent les accords bi- et multilatéraux, qui ont le double désavantage de multiplier par n le coût annoncé pour une gestion par un seul État, n étant le nombre de partenaires, et de pérenniser une situation malsaine et instable. Le secteur de l’aéronautique a connu à partir de 1998 un essai de restructuration et de concentration. Ainsi se sont édifiés le groupe BAE-Systems quasi tout anglais, le groupe aérospatial EADS franco-germano-britannique, le groupe Thalès exThomson-CSF dans l’électronique pour professionnels et pour la défense. À côté d’eux les structures industrielles qui ont développé l’avion français Rafale et l’avion suédois JAS-39 Grippen sont les survivants d’une période révolue ; de telles reliques engendrent des matériels répondant aux exigences nationales, mais produits à un nombre d’exemplaires plus réduit et à un coût plus élevé que les estimations initiales et avec des possibilités d’exportation limitées par la concurrence internationale. La coopération européenne au coup par coup est ainsi devenue un mode de survie pour les capacités nationales et pour les entreprises de défense confrontées en même temps à une offensive lancée par l’industrie américaine contre leurs rivaux européens. Dans le secteur des matériels terrestres et navals, les restructurations ne se sont pas faites. Si l’on constate des concentrations dans quelques secteurs marginaux, la plupart des entreprises d’armement restent figées dans la configuration qu’elles avaient prise pendant la guerre froide, alors que les budgets militaires ont beaucoup diminué. Pour soulager les tensions sociales créées par la baisse des plans de charge, les gouvernements ont taillé vigoureusement là où il n’aurait pas fallu, à savoir dans les budgets de RD. Les solutions à ce problème ne sont pas simples. Les ÉtatsUnis savent obtenir des économies d’échelle parce qu’existe un arbitre, le gouvernement fédéral. En l’absence d’arbitre, les Européens n’y parviennent pas. La plupart des pays considèrent leur industrie d’armement comme un trophée national. Le gouvernement anglais possède une golden share dans BAE Systems, la

PUISSANCE ET JOUISSANCE

305

seconde industrie d’armement dans le monde, le gouvernement italien 32 % de Finmeccanica, et le gouvernement français 15 % d’EADS et 51 % de Dassault Aviation. En dépit des efforts annoncés, la structure antique des arsenaux d’État n’a pas disparu. L’exemple le plus connu est Giat-Industries, ce fabricant de matériels pour l’armée de terre française dont le lamentable produit, le char Leclerc, a coûté 24 milliards de francs (4 milliards d’euros) au contribuable. Cette entreprise produit avec sept mille employés autant que Vickers, son équivalent anglais, avec mille37. Un autre exemple nous vient du porte-avions Charles-de-Gaulle, dont les déboires ont confirmé l’incapacité de l’État français à maîtriser des projets industriels complexes. De même, au Royaume-Uni, le gouvernement se voit forcé de renflouer BAE-Systems engagé dans deux programmes, l’avion de reconnaissance Nimrod MRA-4 et la classe Astute de sous-marin, à la hauteur de 270 millions de Livres pour l’avion en retard de six ans, et de 430 millions de livres pour ce sous-marin en retard de sept ans. Dans ce paysage fait d’initiatives dispersées, qui résultent de contraintes budgétaires, économiques et technologiques, plutôt que d’une réelle volonté politique de faire une Europe de l’armement qui ne serait pas une simple extension des politiques et des intérêts nationaux, l’idée de créer un instrument de rationalisation politique, opérationnelle et industrielle dans le domaine de la coopération en matière d’armements, présente des avantages. Pour conduire en commun le développement de certains programmes d’armement, quatre nations (la France, l’Italie, la république fédérale d’Allemagne et le Royaume-Uni) ont mis sur pied une « Organisation conjointe de coopération en matière d’armement », ou OCCAR. Prévue dans la déclaration sur l’UEO annexée au traité de Maastricht en 1991, cette structure dont le siège est à Bonn, est née avec la signature d’une convention le 8 septembre 1998. Conçue pour exercer une maîtrise d’ouvrage sur les programmes par délégation des nations qui les financent, l’OCCAR apparaît comme une tentative de la France pour imposer à ses partenaires un mode de gestion qui lui est cher, le passage par une agence d’objectifs spécialisée, mais qui reste étranger à la culture des autres nations habituées à l’absence de structure entre leur ministère de la Défense et les industriels. En plaçant sous son égide des programmes franco-allemands en route depuis longtemps, comme ceux des missiles antichars Roland et Hot/ Milan, on parvient tout de même, grâce aussi aux hélicoptères 37. Évaluation de la banque Crédit Suisse Trust Boston Corp.

306

INTRODUCTION AU SIÈCLE DES MENACES

Tigre et aux radars de contrebatterie Cobra, à présenter un total de 25 milliards d’euros déjà gérés par l’OCCAR, auquel s’ajouteront 30 autres milliards d’euros prévus pour l’avion de transport A-400 M, la frégate antiaérienne Horizon et les missiles antichars de troisième génération AC3G/MP. L’évolution se fera programme par programme, la France tirant la charrette, le Royaume-Uni la poussant, l’Allemagne et l’Italie rivalisant d’inertie. Un projet d’agence européenne de l’armement, dans lequel pourraient s’inscrire une politique et des projets technologiques communs, a reçu en 2003 la bénédiction de la Convention européenne. Il faudra faire entrer l’OCCAR dans une telle structure. L’Europe doit avant tout résoudre un problème fondamental : exprimer des besoins opérationnels communs en tenant compte des politiques, des doctrines et des capacités nationales. La définition des besoins représente la première étape, et peut-être la plus difficile pour aboutir à une politique européenne d’armement. L’absence de lien explicite entre les programmes de RD menés en coopération au niveau européen et les besoins de défense qui seraient communs constitue un point faible des Européens38. Donnons un exemple des programmes d’armement en cours. Le programme Joint Strike Fighter (devenu le F-35) a pour objectif la production de trois mille chasseurs polyvalents destinés à équiper aux États-Unis l’Air Force, la Navy et le corps des Marines et, au Royaume-Uni, la Royal Air Force et la Royal Navy. Le montant total du programme jusqu’en 2025 a été estimé à 300 milliards de dollars courants pour la production et le coût de chaque aéronef à 50 millions de dollars, mais les exportations et le coût de maintenance pourraient faire monter le chiffre d’affaires généré à 500 milliards de dollars. Le JSF fait partie d’un système intégré qui connecte aussi les chasseurs américains F-22, chargés du contrôle de l’espace aérien, et les avions de surveillance électronique AWACS, au centre de commandement qui dirige la bataille, le CAOC. Il est inutilisable en dehors de ce système. Comment le faites-vous entrer dans le concept d’Europe de la Défense ? Le JSF est autant un acte de politique industrielle qu’un programme d’avions de combat : « Par le truchement de la chaîne des fournisseurs et sous-contractants de l’industrie aérospatiale, le JSF va probablement déterminer quelles compagnies sombreront et lesquelles surnageront. L’ambition est de faire de ce programme un programme mondial39. » 38. Arnau Navarro, op. cit. 39. A. Nicoll, « An Industrial Fighter », Financial Times, 10 novembre 2000.

PUISSANCE ET JOUISSANCE

307

Parmi les deux grands de l’industrie aérospatiale américaine, Lockheed Martin a été choisi comme maître d’œuvre pour un avion dont la production ne commencera pas avant 2010. Les sous-traitants représentent 60 % du partage industriel ; de nombreuses firmes britanniques et néerlandaises sont impliquées. Dans la phase de développement dont l’appel d’offre a été clôturé le 15 juillet 2002, les États-Unis investiront 15 milliards de dollars, le Royaume-Uni 2, l’Italie 1, les Pays-Bas 0,85, la Turquie 0,175, la Norvège 0,187, le Danemark 0,105… Pour le coût total du programme, le Royaume-Uni est invité à contribuer à hauteur de 10 %, l’Italie, les Pays-Bas et la Turquie, à hauteur de 5 %, le Canada, la Norvège et le Danemark, pour 1 à 2 %. Le principal groupe non américain est British Aerospace, pour qui ce programme est crucial, puisque, depuis quelques années, le groupe a recentré ses activités sur les productions militaires qui représentent désormais les trois quarts de son chiffre d’affaires. La colonisation de l’industrie européenne d’armement commence par le Royaume-Uni, suivant le précédent de l’industrie automobile. L’organisation du JSF, qui modèlera l’industrie de défense aéronautique en Europe sous la domination américaine, est rigoureusement antagoniste au concept d’OCCAR ou d’agence européenne de l’armement. On sait que les bénéfices, comme le progrès technique induit par un grand programme, se concentrent chez le maître d’œuvre, c’est-à-dire Lockheed. Conclusion

Une structure bureaucratique de plus ne donnera pas aux armées européennes les avions, les navires, les équipements de communications, les moyens de renseignement électronique et spatial nécessaires, en l’absence d’une volonté politique de combler les lacunes, qui deviennent de plus en plus criantes à chaque crise internationale, et de les combler dans un cadre européen. La survie de l’industrie d’armement européen passe par l’exportation ; or les Européens, jamais capables de présenter un produit unique face à la concurrence, mettent sur le marché des collections d’offres disparates et se divisent en fonction de leurs intérêts nationaux. Enfin, contrairement aux Américains, dont l’approche duale relaie les ambitions des groupes privés par la volonté étatique, ils n’ont qu’une approche commerciale, qui les prive des moyens d’offrir des compensations industrielles. Maintenir le statu quo actuel équivaut à dégrader encore davantage les capacités militaires européennes et provoquer l’échec du projet d’une Europe synonyme de « puissance » politique et militaire.

308

INTRODUCTION AU SIÈCLE DES MENACES

L’EUROPE DE LA DÉFENSE DEVANT LE CONCEPT

« INFORMATION

WARFARE

»

Nous montrerons sur l’exemple emblématique du renseignement spatial, cœur de la politique militaire moderne, non seulement pour la constitution d’un C41SR indispensable à la gestion des crises, mais aussi pour l’accélération des boucles OODA40 tant stratégiques que tactiques, la difficulté fondamentale qu’éprouve à exister l’Europe de la Défense. Nécessité de fournir une composante spatiale à l’Europe de la Défense

La RMA donne à l’espace une position centrale, et l’on peut donc estimer que la défense de l’Europe, assurée par l’OTAN, reposera sur l’US Space Command. Mais qu’en sera-t-il de l’Europe de la Défense ? L’Europe de la Défense doit remplir deux fonctions : permettre le déploiement de forces dans le cadre de Petersberg, et assurer la sécurité intérieure de l’UE. Alors qu’une force de projection est en cours de création depuis Saint-Malo à partir de contingents conventionnels fournis par les différents pays, aucune décision n’a été prise pour lui donner les moyens indispensables à une action militaire sur un champ de bataille moderne, si modeste qu’elle soit, c’est-à-dire les moyens d’acquérir la supériorité d’information dont nous avons vu qu’elle constitue désormais la condition de tout succès militaire. Qu’on ne réponde pas que l’Europe n’est pas l’Amérique. Cette exigence de supériorité dans l’Information Warfare est la même pour toutes les armées, toutes les crises, tous les conflits et tous les temps. L’Europe de la Défense a besoin que les forces qu’elle déploiera soient renseignées et éclairées et son autonomie exige que les moyens devant remplir cette fonction ne soient pas uniquement ceux de l’OTAN, dont les sources de renseignement sont américaines à 80 %. Elle est essentiellement un système de gestion de crise. Comment gère-t-on une crise sans renseignement ? L’établissement d’une culture européenne de renseignement et en général de l’information est la condition sine qua non d’une Europe de la Défense. Or les capacités des systèmes spatiaux rendent leur emploi indispensable à un système de renseignement. De telles considérations s’étendent naturellement au problème de la sécurité intérieure, c’est-à-dire de la lutte contre 40. Voir p. 135.

PUISSANCE ET JOUISSANCE

309

Netwar, qui se livre, elle aussi, sur le champ de bataille de l’information et donc avant tout autour du contrôle des communications et des réseaux, domaine des satellites d’écoute41. Apparaît l’idée que l’existence d’une force spatiale militaire européenne est consubstantielle à l’Europe de la Défense. Et, corrélativement, l’instauration d’un programme spatial militaire européen est la priorité de l’Europe de la Défense. Ce n’est pas ce que nous constatons et cette carence fait mal augurer de l’Europe de la Défense. La triste histoire des programmes spatiaux militaires européens

Notre analyse de la doctrine et de la pratique américaines conduit à considérer trois types de constellations spatiales comme indispensables à la conduite des opérations militaires de l’envergure des missions de Petersberg : navigation, télécommunications, télédétection. Insignifiance des programmes nationaux : les programmes nationaux ont mis en place quelques satellites qui essaient faiblement de remplir certaines de ces fonctions, mais les Européens n’ont pas encore saisi que l’intérêt principal offert par les satellites aux forces armées réside dans la possibilité de créer un système intégré, de sorte qu’en Europe leur utilisation reste aujourd’hui marginale. • Satellites de communication : cinq États disposent chacun de communications spatiales par satellites GEO nationaux. Le Royaume-Uni a développé Skynet, dont la quatrième génération Skynet-4, en service depuis 1988, assurera les communications militaires tactiques et stratégiques des forces armées britanniques jusqu’en 2006. La France utilise la charge utile Syracuse II placée sur Telecom 2, depuis décembre 1991. Le système comprend quatre satellites en orbite. L’Italie a Sicral et l’Espagne trois canaux sur Hispasat. L’Allemagne s’apprête à financer son propre système. • Satellites d’observation optique : seule la France a adopté un programme d’imagerie dans le domaine optique, Hélios, dérivé du système civil Spot. Originellement le programme Hélios devait comprendre cinq satellites de résolution métrique en orbite héliosynchrone lancés de 1995 à 2015. L’Italie et l’Espagne ont participé aux deux premiers Hélios I A et I B, à hauteur respectivement de 14,1 % et 7 %, mais se sont retirées de la suite du 41. Voir p. 437.

310

INTRODUCTION AU SIÈCLE DES MENACES

programme. Le premier satellite Hélios II A sera placé sur orbite en 2004. L’Espagne et la Belgique participent à la hauteur de 3,5 % et 2,5 %. Hélios II B sera lancé en 2008. Hélios II C a été annulé. Soulignons que les satellites Hélios ne sont pas des satellites d’observation européens mais nationaux, appartenant à plusieurs États, libres de communiquer ou non les données recueillies à leurs alliés. Élaborés en commun par la France, l’Italie et l’Espagne, les satellites Hélios I sont programmables au prorata de la contribution financière de chaque État au projet. Les images obtenues sont la propriété des payeurs et aucun des partenaires n’a théoriquement accès à celles des deux autres s’ils ne souhaitent pas les partager. Hélios, conçu pendant la guerre froide à des fins stratégiques, en est resté à la logique de ce temps-là. Dans la pratique, l’apport de l’imagerie spatiale dans la prise de décision s’est révélé modeste. En théorie, les satellites d’observation ont pour missions de contribuer à la prévention des crises, obtenir un préavis d’agression, surveiller l’application des traités de désarmement, suivre les opérations humanitaires, et recueillir des informations stratégiques et tactiques. Le rôle d’Hélios au Kosovo, en 1999, a été limité par une météorologie défavorable. Et surtout, la classification des images dans la catégorie « Secret Défense » interdit leur dissémination. L’architecture générale du système le rend très difficilement orientable vers l’emploi aux niveaux opératif et tactique. • Satellites d’observation radar : irritée par la gestion américaine du renseignement pendant les opérations du Kosovo, l’Allemagne a engagé le programme de satellites d’observation SAR-Lupe, portant un radar à synthèse d’ouverture de résolution métrique. Quatre satellites seront déployés comme un ajout militaire à d’autres collecteurs d’information actifs et passifs, militaires et commerciaux. Le système sera centralisé comme Hélios et peu accessible aux utilisateurs potentiels. Il fonctionnera de 2004 à 2014. Comme les Hélios, les SAR-Lupe resteront des satellites nationaux et non des instruments de renseignement européens. • Satellites SIGINT : le Royaume-Uni a mis sur orbite un satellite Zircon en 1987 pour créer une capacité d’écoute. Le programme n’a pas été poursuivi. La France s’est également essayée à l’écoute orbitale avec successivement les charges utiles Euracom (passagers d’Hélios I A et I B), les petits satellites Cerise (1997), et Clémentine (1999), et prévoit de lancer avec Hélios II A les quatre microsatellites COMINT Essaim. Ces tentatives ne

PUISSANCE ET JOUISSANCE

311

représentent que des démonstrateurs sans prétention à un rôle opérationnel. Échec des programmes européanisés : l’Europe n’a ni culture spatiale, ni vision globale des enjeux spatiaux. Une étonnante distance sépare le discours des responsables politiques et les décisions budgétaires. En fait, le blocage n’est pas d’ordre financier mais conceptuel42. Le programme de navigation Galileo, présenté par l’UE comme un rival stratégique de GPS, dont il est le jumeau, reste officiellement un programme civil dont les applications militaires ne sont pas acceptées par tous les partenaires, malgré l’importance capitale qu’ont donnée à la navigation par satellite les forces armées américaines lors des derniers conflits. Adopté le 27 mai 2003 malgré une violente opposition des États-Unis, il n’est pas encore certain qu’il recevra des équipements lui permettant de fonctionner en cas de crise ou de guerre et de remplir les besoins militaires de l’Europe de la Défense. La gestion par les États européens et par l’UE du premier système spatial de souveraineté dont ils veulent se munir exigera une créativité institutionnelle qui est loin d’exister aujourd’hui. Qui des vingt-cinq appuiera sur le bouton de télécommande lorsque des hostilités imposeront le passage de la constellation en mode de défense ? Les négociations anglo-germano-françaises sur le remplacement des satellites nationaux de télécommunications militaires Syracuse et Skynet, hors d’âge à partir de 2005, par un programme trilatéral appelé Trimilsatcom, ont abouti après mille péripéties affligeantes à un échec, c’est-à-dire au choix d’une politique nationale menée par chacun des partenaires. Pour sa part, la France mettra en place en 2004 un satellite Syracuse III et deux autres plus tard, tandis que les Anglais confieront à un consortium industriel purement britannique, le programme national Skynet V. Après avoir investi près de 8 milliards d’euros (y compris les satellites OTAN), l’Europe ne disposera toujours pas de capacité en télécommunications militaires s’approchant de celle des États-Unis. Il n’existera aucun système européen communautaire opérationnel. Les négociations sur l’addition aux cinq satellites français d’imagerie optique Hélios de trois satellites allemands d’imagerie radar Horus, ont échoué en 1997, malgré un accord annoncé à coups de clairon par les plus hautes autorités. 42. Jacques Blamont, « Ce que devrait être la composante spatiale d’un système de renseignement européen », in Pierre Pascallon (sous la dir. de), Quelles perspectives pour le renseignement spatial et aérien français après le Kosovo ?, Paris, L’Harmattan, 2001.

312

INTRODUCTION AU SIÈCLE DES MENACES

Un centre d’imagerie satellitale, capable de produire un renseignement stratégique élaboré en commun à partir de données spatiales, le CSUEO (Centre satellitaire de l’UEO) avait été créé à Torrejón de Ardoz près de Madrid en 1991. Son rôle était d’exploiter des images achetées ou données, au bénéfice des organes de l’UE, des États membres et des États associés. Conçu comme un instrument permettant d’élaborer en commun un renseignement stratégique, il se voulait la première pierre de l’édifice du renseignement européen. On s’était imaginé que les images seraient fournies par les Spot et les Hélios. En réalité, le CSUEO s’est orienté vers l’utilisation quasi exclusive d’images américaines achetées à Ikonos. L’opinion universellement répandue attribue au RoyaumeUni la responsabilité d’avoir maintenu l’UEO dans l’impuissance ; c’est oublier que la France, persuadée que le CSUEO était une machine de guerre inventée pour lui dérober les secrets d’Hélios, privilégiait son propre centre de traitement des images. En outre, les Espagnols, soutenus par les Britanniques, refusèrent toujours l’insertion du centre de Torrejón dans une chaîne otanienne qui aurait le mérite de déboucher sur un état-major de planification stratégique opérationnelle de renseignement. Chacun avait ses raisons pour refuser à l’Europe du renseignement les moyens qui appartenaient aux États. En 2002, le centre n’a reçu que 63 demandes d’images et en a traité 41 ; la production du centre correspond donc à moins d’une image analysée par semaine ! Les budgets : les programmes spatiaux militaires en Europe sont développés essentiellement dans un cadre national, ou dans un cadre multilatéral en fait très voisin du cadre national. Les dépenses spatiales militaires de l’Europe s’élevaient à environ 750 millions d’euros en 1998 (sources : Euroconsult) et sont le fait de cinq nations (France : 457 ; RU : 175 ; Allemagne : 50 ; Italie : 47 ; Espagne : 23). Les chiffres pour 2001 sont très voisins, le total montera jusqu’à 1,6 milliard d’euros en 2006 pour redescendre rapidement ensuite (la bosse est due au remplacement de Skynet et de Syracuse). Les programmes sont empilés les uns à côté des autres sans coopération ni coordination. Le budget correspondant français a culminé aux environs de 4 milliards de francs (600 millions d’euros) en 1992, pour se retrouver divisé par un facteur 2 en 2003 et, selon la loi de programmation militaire 2003-2008 récemment approuvée, restera constant à ce niveau d’environ 300 millions d’euros jusqu’en 2008. Son effondrement signifie l’arrêt de tous les programmes, sauf Syracuse III et quelques démonstrateurs.

313

700 M€ 600

Courbe de tendance baisse de 61 % sur 19 ans

500 400 300 200

EMA/ESPACE + EMA/TSIC + Armées + DGA

100 19 90 19 91 19 92 19 93 19 94 19 95 19 96 19 97 19 98 19 99 20 00 20 01 20 02 20 03 20 04 20 05 20 06 20 07 20 08

ÉTAT-MAJOR DES ARMÉES - BUREAU ESPACE

PUISSANCE ET JOUISSANCE

(Source : État-major des armées, Bureau espace, 2003)

Évolution du budget spatial militaire de la France (millions d’euros)

Pourquoi un C4ISR européen ne se mettra pas en place

L’évolution institutionnelle : le sommet d’Helsinki les 10 et 11 décembre 1999, affirma qu’à l’avenir, l’UE « devrait être en mesure d’assumer ses responsabilités face à l’ensemble des activités de prévention des conflits et des missions de gestion des crises définies dans le traité sur l’Union européenne, les missions dites de Petersberg ». Le renseignement devrait couvrir tous les conflits et toutes les crises pour permettre à l’Europe de les gérer. L’EMUE nouvellement créé43 serait chargé « de l’alerte avancée, de l’évaluation des situations et de la planification stratégique ». La Division renseignement de l’EMUE serait donc censée fournir l’expertise et le soutien en temps de paix ou en situation de crise, en vue de la conduite des opérations militaires décidées par l’Union européenne. Une « usine à gaz » typiquement européenne se mettait en place, qui conjuguait l’incompatibilité entre les doctrines des différents partenaires, les rivalités de services et le manque de moyens humains, matériels et financiers. Impossibilité de concevoir le renseignement stratégique européen : l’UE serait capable de produire le renseignement stratégique qui lui est nécessaire, sans participation militaire, à partir des rapports qui convergent vers Bruxelles, des données fournies par 43. Voir p. 293.

314

INTRODUCTION AU SIÈCLE DES MENACES

les systèmes modernes de collecte, des recensions des nouvelles locales et des analyses de ses représentants à travers le monde. La synthèse de ces informations rendrait possible une appréciation fine de l’état de la planète, à laquelle le militaire n’apporterait que l’indispensable complément à la veille d’une opération, avant d’assumer de plus grandes responsabilités lors de son déroulement. On aboutit ainsi à l’idée d’envisager le recueil et l’exploitation du renseignement stratégique européen sous la forme d’un C4ISR civilo-militaire où l’information satellitale jouerait un rôle central, et où le CSUE trouverait une place nouvelle, au sein du COPS sous l’éventuelle direction de M. PESC. Nous identifions ici une fonction de sécurité et de gestion des évolutions, des crises et des catastrophes, dont le caractère dual élargirait le cadre considéré par l’Agence spatiale européenne pour l’initiative GMES (Global Monitoring Environment and Security), qui se propose de regrouper toutes les données recueillies tant au sol ou en mer que par satellites sur l’état de l’environnement, bref de créer une sorte de C4ISR civil. Mais cessons de rêver. La culture du renseignement militaire ou civil est nationale. Les services fonctionnent par échanges avec leurs homologues et ne partagent pas : ils gardent jalousement leurs secrets. Les différences de nature et les luttes entre services ouverts, services secrets et renseignement militaire ne disparaîtront pas. La fusion européenne du renseignement recueilli par les États membres se heurtera au souci de protéger les sources et les moyens de collecte nationaux. Les mettre en cause serait porter atteinte à la souveraineté des États que M. PESC se doit de respecter. La préservation du système intergouvernemental d’échange de « produits finis » garantit la protection des souverainetés nationales que menace leur mise en commun. Ainsi que l’a écrit le général Schmitz, alors chef d’état-major adjoint, responsable du renseignement militaire de la Bundeswehr : « Presque par définition le but du renseignement est, en premier lieu, de servir les intérêts nationaux afin de garantir la survie d’une nation. Les États nationaux sont-ils disposés à confier leur sécurité nationale, et de ce fait, leurs services de renseignement, à une structure supranationale, laquelle ne serait peut-être pas dotée de tous les pouvoirs à la définition et à la mise en œuvre de la politique étrangère et de sécurité, et à terme de la Défense44 ? »

La réponse à la question du général Schmitz est évidemment non : la protection des secrets est consubstantielle à la notion 44. Peter N. Schmitz, « Un renseignement européen : utopie ou réalité ? », International Defense & Technologies, 23 décembre 1995, p. 35.

PUISSANCE ET JOUISSANCE

315

d’État. Quinze tuyaux séparés (et bientôt vingt-cinq) alimenteront le renseignement de l’EMUE. Pour des raisons de commodité, les contributions nationales des États européens membres de l’OTAN, seront les mêmes que les contributions adressées à la Division renseignement de l’EMUE : ces États n’ont pas les moyens techniques et humains d’en préparer deux. Il ne faut s’attendre qu’à une différence de « formatage ». Politiquement, il est d’ailleurs inconcevable de voir tenir deux discours, différents en qualité ou en quantité, par le même État, appartenant à l’UE et à l’OTAN. Devant ces difficultés intrinsèques, il est illusoire d’espérer qu’en créant une structure européenne de renseignement stratégique, l’UE s’affranchirait de sa dépendance des États-Unis. Elle devra donc limiter son ambition à gérer la duplication de ses moyens de renseignement stratégiques avec ceux de l’OTAN, afin au moins de pouvoir vérifier de temps en temps l’exactitude des produits américains. Les lignes précédentes suggèrent que le renseignement n’est pas « européanisable », et qu’il n’est donc pas possible de justifier les dépenses d’un système spatial européen qui lui fournirait l’essentiel de ses données. L’Europe disposera-t-elle des données SIGINT satellitales dont les opérations militaires récentes ont démontré le caractère irremplaçable, en particulier dans la lutte contre Netwar ? Il y faudrait un miracle. On peut souhaiter que le CSUE de Torrejón permette une organisation européenne satisfaisante de la fourniture de renseignement spatial à la force de Petersberg. Que l’Agence spatiale européenne rénovée se montre capable d’une action duale au service des besoins civils et militaires…, là encore il faudrait des miracles. Car rien de tout cela ne s’inscrit sur la liste des priorités européennes. Comme le conseil de Nice (décembre 2000) avait décidé de « doter l’UE de capacité de gestion de crises, civiles et militaires », un document précisant les besoins opérationnels communs (BOC) d’un système spatial européen dévolu à des fins de sécurité et de défense, fut élaboré en 2003 par les états-majors allemand, espagnol, français et italien sous l’impulsion française. Il est déjà enterré. Comparez la formidable unicité de la construction américaine avec le dispositif éclaté des moyens militaires européens, et demandez-vous quelles en seront les conséquences. CONCLUSION

Le scepticisme désabusé qui inspire ces pages n’empêche pas leur auteur de penser que l’Europe éprouve le besoin fondamental

316

INTRODUCTION AU SIÈCLE DES MENACES

d’une structure de renseignement stratégique dual, même si elle refuse la politique de puissance et confie sa défense à l’OTAN ; et que la création de cette structure et son financement au niveau qui la rendrait efficace sont la priorité aussi bien de la défense de l’Europe que de l’Europe de la Défense. Ce devrait être le rôle du « noyau dur » de la « vieille Europe » que de fonder une véritable « Europe de la Défense » sur des bases modernes adaptées au nouveau siècle. Poser ainsi le problème revient à admettre qu’il n’a pas de solution. Peut-être un homme d’État visionnaire recevra-t-il ce message ? Avoir vécu successivement sous MM. Mitterrand, Jospin et Chirac, me convainc de l’inanité d’une telle interrogation. Les obstacles matériels à l’édification de l’Europe de la Défense que nous avons analysés proviennent d’un manque rédhibitoire de volonté politique. Il se traduit par : l’absence de crédits, l’absence de RD militaire et avant tout, l’absence d’une doctrine de relations avec l’OTAN. L’Europe de la jouissance se contente de gesticuler. La seconde guerre d’Irak a révélé que l’évolution militaire américaine se poursuivait selon les lignes exposées aux chapitres IV et V de ce livre. En dehors des États-Unis, son déroulement prévisible a pourtant surpris les politiciens, les militaires et les médias qui se sont illustrés pendant les hostilités par les analyses les plus fausses. Parti dans l’azur de la spéculation bouffonne, le gouvernement français suivi par les Allemands, vaticine, après la démonstration de force américaine, sur la multipolarité (politique et militaire) du monde, ce qui revient à concevoir l’Europe de la Défense comme une puissance à un niveau potentiel comparable à celui des États-Unis ! C’est oublier qu’elle ne peut exister sans le Royaume-Uni, d’autant plus que pendant la phase aiguë des hostilités, ce dernier a montré que ses moyens ont dépassé le stade de la conduite d’une opération pour lui permettre d’entrer dans le club fermé des armées capables de maîtriser une campagne, au contraire des autres Européens. Or, à la fin de juin 2003, le secrétaire à la Défense britannique Geoff Hoon a déclaré que les forces armées du Royaume-Uni seraient « reconfigurées afin de fonctionner désormais comme des auxiliaires du Pentagone », puisque, d’après lui, il est improbable que le Royaume-Uni s’engage sans les ÉtatsUnis dans des opérations de combat à grande échelle. Un livre blanc, publié à la fin de 2003, a confirmé cette orientation. Toutes les troupes européennes, sauf celles de la France, ont déjà été transformées en unités spécialisées d’une armée de l’OTAN commandée par les Américains.

PUISSANCE ET JOUISSANCE

317

Aujourd’hui et demain Après avoir affirmé dans notre chapitre II que la prospective est impossible au XXIe siècle, nous nous aventurerons cependant à suivre Charles Grant45, directeur du Centre for European Reform à Londres, conseiller officieux du Premier ministre Tony Blair, dans sa vision de l’Europe en 2010, vision colorée par la certitude du triomphe anglais et la haine viscérale des Français et de leurs idées – bien que, naturellement, l’auteur se proclame francophile. Une prévision à dix ans n’est peut-être pas trop risquée. 2010, c’est aujourd’hui. LES ÉLÉMENTS DE PUISSANCE

En 2010, l’Allemagne, le Brésil, l’Inde et le Japon disposent d’un siège au Conseil de sécurité, mais non l’UE, qui a pourtant transformé l’office de M. PESC (Mme PESC pour Charles Grant) en un ministère des Affaires étrangères. Un groupe restreint de six « grands pays » (le Royaume-Uni en tête, la France, l’Allemagne, l’Espagne, l’Italie et la Pologne) prennent les décisions, auxquelles les « petits » ne se permettent pas d’opposer leur veto. Un partenariat stratégique a été établi avec la Russie, l’Ukraine et la Turquie. S’inspirant des headline goals militaires d’Helsinki, l’UE a inventé des headline goals civils pour gérer les crises. Elle maintient quatre-vingt mille hommes dans les Balkans pour le maintien de l’ordre et les actions humanitaires. Dans le domaine du renseignement, les services nationaux subsistent intacts, mais un Joint Intelligence Committee (EUJIC, ou Comité commun de renseignement), imité bien sûr du JIC anglais, a été mis en place pour les coordonner. Un officier américain y est placé à un très haut niveau, puisque le renseignement d’origine américaine offre tellement plus aux Européens qu’ils ne peuvent le faire réciproquement. Le Royaume-Uni a conservé son accès privilégié aux sources américaines, canadiennes, australiennes et néo-zélandaises et donc sert de pont entre les Anglo-Saxons et les continentaux. L’UE a abandonné l’idée de posséder un système d’imagerie spatiale devant le succès des entreprises privées dans ce domaine. Dans le domaine militaire, l’OTAN reste l’expression de l’adhésion des Européens et des Nord-Américains à la doctrine de 45. Charles Grant, EU 2010 : An Optimistic Vision, Londres, Centre for European Reform, 2000.

318

INTRODUCTION AU SIÈCLE DES MENACES

défense collective ; les Baltes n’y sont pas encore entrés, car on ne veut pas peiner les Russes (erreur de Charles Grant). L’OTAN est un peu moins dominée par les États-Unis en 2010 qu’en 2000. La division du travail s’est accentuée. Les Européens fournissent les troupes et les Américains les capacités de haute technologie qu’ils aiment financer, comme les moyens spatiaux, les communications et la surveillance que les Européens, eux, n’aiment pas payer. Il n’y a plus de forces américaines stationnées en Europe. L’OTAN est devenu un canal de transfert de la technologie et de l’aide logistique américaines aux opérations européennes pendant les crises. Les forces européennes d’intervention comprennent trois corps mobiles nationaux indépendants, anglais, français et allemands, coordonnés par un quartier général commun situé à Strasbourg. La défense antimissiles a été déployée aux États-Unis mais l’Europe a refusé de participer au programme. L’UE a déclaré que ses membres devraient dépenser 2 % de leur PIB pour leur défense, mais ils n’y parviennent pas tous. Le développement des capacités militaires communes reçoit l’appui des opinions publiques, au point qu’un budget de Défense a été accepté en 2009, à l’initiative des Anglais. Il est maintenu séparé du budget général, de sorte que le Parlement européen est tenu à l’écart des affaires militaires. Les traités permettent à un groupe d’États d’avancer dans certains domaines par « coopération renforcée », après un vote de tous les gouvernements à la majorité simple. Ainsi ont été créés un corps de gardes-frontières, une flottille de garde-côtes et une Agence d’armement. Les États-Unis et l’Europe ont commencé d’établir un marché commun des armements. Boeing a absorbé BAE Systems, Lockheed-Martin a absorbé EADS (de sorte que l’Airbus A380 se construit en Californie comme à Toulouse), et Raytheon a absorbé Thalès. L’OTAN établit les règles du marché. L’ÉQUILIBRE DES ÉTATS

La plupart des États membres ont adopté la philosophie « pragmatique » de l’Angleterre, qui considère l’UE seulement comme un outil capable de fournir certains produits plus efficacement que les nations individuelles séparées. La vieille idée fédéraliste selon laquelle la Commission devrait devenir un gouvernement européen responsable devant le Parlement ne trouve plus de support qu’au Benelux ou en Italie. L’Angleterre, la puissance qui compte, montre la route à ses partenaires en promouvant la libre entreprise, la réforme économique et l’économie

PUISSANCE ET JOUISSANCE

319

basée sur la connaissance. Albion oriente (avec la France) les politiques extérieure et de défense, elle coordonne les coopérations en matière de justice et de sécurité intérieure. Elle prospère, car depuis son adoption de l’euro, elle est devenue le centre des investissements étrangers en Europe, et d’autre part, elle a su gérer habilement les retraites, au contraire de la France et de l’Allemagne. Cependant, c’est l’Allemagne qui domine l’économie européenne, grâce en grande partie au retour de ses investissements à l’Est. L’Espagne émerge comme un des membres les plus puissants de l’UE. Quant à la France, elle a perdu toutes les batailles, la réforme de la PAC, celle de l’OMC, la libération de l’énergie, l’élargissement de l’Europe. Son hostilité aux pratiques commerciales des « Anglo-Saxons » paraît démodée à tous et l’isole. Sa croyance à l’exception française, sa persistance dans une centralisation démodée, ses syndicats rétrogrades affectent son économie pour le pire. Les querelles sur le langage repoussent l’investissement étranger en France ; tous les membres de l’UE sauf elle ont décidé que l’anglais serait leur seule langue officielle de travail. Les Français ont dû l’accepter, malgré une campagne populiste menée par José Bové (décidément très connu dans l’Univers) avec Jeanne d’Arc pour drapeau. Un noyau dur lotharingien ne s’est pas formé ; le couple franco-allemand n’existe plus guère, car l’Allemagne se tourne résolument vers l’Est. Les nouveaux membres venus de l’Europe orientale sont les alliés naturels des Anglais. Les Français sont confinés dans leur coin. Le Royaume-Uni et l’Allemagne sont les seuls capables, parfois, d’infléchir la ligne fixée par les États-Unis. On prévoit la formation d’un axe Londres-Madrid-Varsovie, pour combattre l’antiaméricanisme. Mais pourquoi attendre 2010 ? Déjà la Maison Blanche du président Bush II place la Grande-Bretagne, la Pologne et l’Espagne en tête de liste de ses alliés européens46.

Conclusion La continuité de l’évolution telle que l’imagine Charles Grant accentue les tendances récentes de l’Europe vers la vassalisation politique et l’impuissance militaire. L’emprunt que je me suis permis de faire à sa « vision optimiste » du futur montre que je ne 46. New York Times, 24 janvier 2003.

320

INTRODUCTION AU SIÈCLE DES MENACES

suis pas loin de croire hélas au succès anglais de la zone de libreéchange sous protectorat américain. La richesse des Européens s’accroîtra, peut-être avec des hésitations et des reculs entre deux augmentations. Il fera bon vivre en Europe, et ses habitants refuseront de se serrer la ceinture pour organiser et payer la défense de leur bonheur. Tant que nous y sommes, allons plus loin dans le futur47, en suivant un scénario fondé sur la projection des évolutions de la population active, de la productivité du travail et de la production dans les différentes parties du monde. En 2050, l’Europe élargie à trente membres ne représenterait que 12 % du produit intérieur brut (PIB) mondial (contre 22 % aujourd’hui), alors que son poids dans les échanges mondiaux se réduirait de 23 % à 17 %. L’Europe ne peut plus éviter un double décrochage : — vis-à-vis des États-Unis « dans les quatre secteurs clés de la puissance (économique, technologique, culturelle et militaire). Il lui faudrait mener un effort financier pour rester dans la course technologique et combler son retard vis-à-vis des États-Unis, qui possèdent une avance significative dans les technologies qui détermineront la division internationale du travail au XXIe siècle ». Nous avons vu ce qu’il faut penser de la DIRD en Europe ; — vis-à-vis des pays en voie de développement, qui connaissent paupérisation et explosion démographique. Face à ces tendances irréversibles, « l’Europe entre progressivement dans un hiver démographique qui compromet à moyen et long terme sa vitalité économique. Les pays du Sud disposent a contrario d’une force de travail pléthorique, mais non des moyens matériels et en ressources humaines pour les former ». La seule réponse passerait par un sursaut démographique totalement improbable. Le scénario optimiste de l’IFRI suppose l’immigration de trente millions de personnes d’ici à 2020 et une politique nataliste faisant passer le nombre d’enfants par femme de 1,4 aujourd’hui à plus de 2,1 ! Un des succès les moins discutables de l’Europe a été la diminution de sa classe paysanne, dont le pourcentage dans la population active a été réduit pendant la seconde moitié du XXe siècle d’environ 20 % jusqu’à 5 %, sans traumatisme social. Subsiste aujourd’hui un reste fossile de l’habile politique suivie, le système de subventions dit « politique agricole commune » ou PAC, à laquelle l’UE consacre la moitié de son budget (40 milliards d’euros). Chaque vache européenne reçoit de la part de l’Union une 47. L’Avenir de l’Europe, étude de l’IFRI (Institut français des relations internationales) écrite pour la Commission européenne, Paris, 2003.

PUISSANCE ET JOUISSANCE

321

moyenne de 2 euros par jour. Les lobbies paysans français et allemands, qui tiennent les politiciens en laisse, s’opposent à toute réforme. Oxfam, l’ONG britannique qui est en pointe sur ces sujets, a calculé que les subventions accordées aux vaches européennes dépriment le cours du lait mondial de plus de 30 %, poussant à la ruine des milliers d’exploitations en Inde, au Kenya, en République dominicaine. Les petits paysans réduits à la misère nourrissent un exode rural déstabilisateur48. L’entrée à la fois dans l’UE et dans l’OTAN de dix nouveaux partenaires orientaux augmentera de 50 % le nombre des fermiers, et ouvrira nécessairement la question de la vache polonaise, qui ne saurait se contenter des 50 cents par jour que lui octroie aujourd’hui l’Europe en don de joyeuse entrée, mais qui, bientôt, gageons-le, voudra recevoir, elle aussi, 2 euros par jour : la Pologne compte plus de paysans qu’au total l’Allemagne et la France. L’élargissement de l’Europe exige un transfert de crédits vers la population des ex-républiques populaires ou soviétiques, dont le PIB par habitant ne dépasse pas 40 % de la moyenne communautaire. Nous avons vu49 qu’il n’est pas question d’augmenter le budget fédéral, et il faudra donc réallouer à l’intérieur de son enveloppe une partie des fonds reçus par les Européens de l’Ouest au bénéfice de ceux de l’Est. Les calculs montrent que la France sera la principale perdante ; sa contribution passerait de 3 à 7 milliards d’euros, ce qui correspond à la moitié de ses investissements de défense. Autant de ressources ôtées aux velléités de puissance qu’elle voudrait promouvoir. L’argument se renforce évidemment si le budget fédéral est augmenté pour couvrir les besoins sociaux des nouveaux venus. L’exemple de la vache polonaise se généralise à toutes les productions européennes, agricoles et industrielles. Nous le citons pour illustrer le mécanisme de la formation du gradient : l’Europe investit en priorité dans l’amélioration de son niveau de vie au double détriment, d’une part des gens à 1 dollar qu’elle paupérise par ses ventes à prix cassés sur le marché mondial, et d’autre part de ses moyens de défense dont l’essentiel est payé, très provisoirement, par les États-Unis. Par le même mouvement, elle crée ses ennemis, et elle se désarme. Quatre zones d’instabilité (ex-Soviétie, Balkans, Maghreb, Proche-Orient) bordent l’Europe. Ainsi le gradient se forme-t-il au-delà des frontières, à l’Est, au Sud. Il est vrai qu’aucune menace actuelle n’est purement militaire. Mais l’Europe d’aujourd’hui 48. Voir chapitre IX. 49. Voir p. 266.

322

INTRODUCTION AU SIÈCLE DES MENACES

n’est pas non plus capable de s’engager dans une action préventive située très en amont des crises, c’est-à-dire de proposer et de construire un multilatéralisme efficace qui reposerait sur une généreuse aide au développement, le soutien combattant aux forces démocratiques et réformatrices dans les zones instables, et avant tout la force d’apporter des solutions politiques aux tensions. Sans Prince, elle n’en a pas la volonté, et, payant ses vaches et ses loisirs, elle n’en a pas les moyens. Les affamés à 1 euro par jour regardent avec une haine et une envie croissantes cet Eldorado sans défense, ces vaches à 2 euros, et leurs poings se serrent. Netwar approche. Là pourrait se focaliser l’épicentre des grandes crises du e XXI siècle. Un Premier ministre français, Michel Rocard, l’a dit : « La France ne peut pas porter la misère du monde. » L’Europe non plus. Elle ne le veut certainement pas, mais le monde s’apprête à enfoncer ses portes. Le temps est passé où Walt Whitman proclamait au nom d’un pays riche : « Donnez-moi vos pauvres ! »

Chapitre VIII

LA MENACE

Les devins de Chaldée luy avoient prédict qu’il fallait, après avoir honorablement vescu, qu’il decedast en la fleur de sa prosperite. […] LXXIII. Ceste vie dissoluë fut cause de luy augmenter sa maladie, dont la cause primitive fut legere du commencement : car il fut long temps sans s’apercevoir qu’il avoit une apostume dedans le corps, laquelle par succession de temps vint à corrompre sa chair, de sorte qu’elle la tourna toute en poulx, tellement que combien qu’il y eust plusieurs personnes après à l’espouiller nuict et jour, ce n’estoit encore rien de ce que lon ostoit au prix de ce qui revenoit, et n’y avoit vestement, linge, baing, lavatoire, ny viande mesme, qui ne fust incontinent remplie du flux de ceste ordure et villanie, tant il en sortoit : il entroit plusieurs fois le jour dedans le baing pour se laver et nettoyer, mais tout cela ne servoit de rien, car la mutation de sa chair en ceste pourriture le gaignoit incontinent de vitesse, et ny avoit moyen de nettoyer qui peust suffire à si grande quantité. PLUTARQUE, Vie de Lucius Cornelius Sylla.

L’analyse de la connexion dans le monde nous permet de classer les régions en deux catégories : • le Moteur fonctionnel de l’humanité, qui, grâce à la globalisation, regorge de réseaux de communication, de transactions financières et commerciales, de flux médiatiques et de structures de sécurité collective. Les populations y jouissent d’un gouvernement stable, en général démocratique, et d’un niveau de vie en hausse permanente ;

324

INTRODUCTION AU SIÈCLE DES MENACES

• le Trou ignore la globalisation qui y reste superficielle, voire inexistante. Les connexions, disons les systèmes de communication en général, y sont peu développées. Les populations gémissent sous des systèmes répressifs, souffrent de la pauvreté et des maladies, et sont affligées par des conflits chroniques. En contradiction avec les rêveries à la Victor Hugo, répandues en Europe au XIXe siècle, le progrès scientifique n’a pas apporté le bonheur à l’humanité du XXIe siècle. Mais, fait nouveau, il nivelle les potentiels de nuisance entre les différents acteurs de la scène internationale. Une instabilité latente pèse sur l’ordre international, qui provient essentiellement de la facilité caractérisant le développement des armes nucléaires, chimiques et biologiques, dites armes de destruction massive (ADM). En 1969, un groupe d’experts témoignant devant un comité des Nations unies estimait que « des pertes causées par une opération de grande envergure dirigée contre la population civile reviendraient à environ 2 000 dollars par kilomètre carré avec des armes classiques, à 800 dollars avec des armes nucléaires, à 600 dollars avec des gaz neurotoxiques et à 1 dollar avec des armes biologiques ». Quelle que soit la solidité du bouclier déployé par l’hyperpuissance, aussi écrasante que soit la domination économique des grands ensembles continentaux, États-Unis, Europe, Russie, Inde, Chine, Japon, un petit État peut aujourd’hui acquérir le moyen de les détruire. Israël, menacé d’extermination par ses ennemis, dissuade grâce à ses bombes nucléaires, une bonne centaine de millions d’Arabes ses voisins, de se liguer contre ses cinq millions de citoyens. Plusieurs autres États désirent disposer d’armes reposant sur la science, qu’elles soient de nature nucléaire, chimique ou biologique. Certains d’entre eux, appelés par les Américains rogue states, font plus peur que les autres, parce qu’ils refusent la loi internationale imposée par les grandes puissances : l’Irak, aujourd’hui dompté, a été le premier, imité par la Syrie, l’Iran, la Libye, le Pakistan et la Corée du Nord. L’avenir en verra naître d’autres. L’Administration Bush II en a donné la définition suivante1 : « Dans les années 1990, nous avons assisté à l’émergence d’un petit nombre d’États “voyous” qui, bien que très différents les uns des autres, ont en commun plusieurs caractéristiques : — ils maltraitent leur propre population et dilapident les ressources nationales pour le plus grand profit de leurs dirigeants ; — ils ne manifestent aucun respect à l’égard des lois internationales, menacent leurs voisins et violent avec cynisme les traités qu’ils ont signés ; 1. The National Security Strategy of the United States of America, septembre 2002.

LA MENACE

325

— ils sont déterminés à acquérir des armes de destruction massive, de même que d’autres technologies militaires de pointe, et à s’en servir […] ; — ils commanditent le terrorisme à travers le monde ; — ils font bon marché des valeurs humaines fondamentales, haïssent les États-Unis et toutes les causes que ces derniers défendent. »

N’acceptant pas le mot « voyou », nous adoptons cependant le concept tel que défini ci-dessus comme désignant des États qui refusent de se joindre aux démocraties occidentales, pour suivre une voie d’opposition s’écartant d’une « fin de l’Histoire » à la Fukuyama. Les pays qui possèdent de telles armes essaient en vain d’éviter leur prolifération chez les autres : la prolifération est un fait de nature. Elle s’apparente aux poux de Sylla. C’est la thèse de ce livre que contrairement à l’opinion courante, les facteurs principaux de l’évolution du XXIe siècle ne sont pas les événements économiques, politiques, culturels ou psychologiques, mais techniques. La technique amplifie et surtout transforme le cours des événements, par son action quantitative qui crée soudain des révolutions qualitatives. Du Trou surgit une double menace pour le Moteur. La première menace provient des États du Trou, qui, non sans raison, se considèrent eux-mêmes provoqués par la politique prédatrice des États du Moteur, acharnés à accaparer les richesses naturelles. Dans le domaine de la nuisance, les plus petits profitent relativement plus du progrès technique que les grands : les États-Unis ne sont pas plus forts lorsqu’à leurs dix mille bombes nucléaires ils en ajoutent dix, mais l’acquisition par l’Irak ou la Corée du Nord de ces dix bombes leur permet de se faire craindre de l’univers, alors qu’au XXe siècle ils vivotaient marginalement dans l’ombre de l’Histoire. Les « armes du pauvre » donnent à qui les possède, les moyens de se passer du développement économique qui permettait traditionnellement d’acquérir par étapes les coûteux outils de la puissance. La loi de Moore est un grand égalisateur. L’autre menace a pris naissance au fond du Trou, dans deux des pays les plus déconnectés, le Soudan et l’Afghanistan, et elle doit sa virulence au fait qu’elle fonctionne sur le réseau de connexion du Moteur ! Le progrès technique porteur de la mondialisation ne profite pas qu’aux États : s’il les renforce, il renforce en même temps les réseaux privés, qui deviennent capables d’acquérir rapidement une capacité destructrice aux effets planétaires.

326

INTRODUCTION AU SIÈCLE DES MENACES

PREMIÈRE PARTIE LA PROLIFÉRATION PAR LES ÉTATS Le concept de prolifération concerne les États qui cherchent à se doter d’armes de destruction massive. S’il en avait été question dès le début de la guerre froide, l’événement à partir duquel s’est déclenchée la prise de conscience des risques liés à la prolifération, a été le conflit entre l’Iran et l’Irak (1980-1989), qui a vu l’emploi par l’Irak d’armes chimiques et de missiles balistiques contre les populations civiles, suivi de la découverte du programme nucléaire irakien et du potentiel chimique et biologique de l’ex-Soviétie. Il faut replacer ces péripéties dans l’évolution générale du dernier quart de siècle. L’année 1979 a vu deux fortes perturbations locales, dont la politique des États-Unis a projeté les conséquences au premier plan de la scène mondiale : en février, l’effondrement du régime du Chah, pilier de la stabilité dans la région du golfe Persique, sous les coups de la révolution islamique ; puis, en décembre, l’invasion de l’Afghanistan par l’Armée rouge pour y maintenir un protectorat soviétique. À ces deux opérations violentes, qu’elle a considérées à juste titre comme dirigées indirectement contre elle, l’Amérique a riposté, non par l’envoi de ses soldats, impossible après sa défaite au Vietnam, mais par l’armement, le financement et, en général, le soutien d’alliés recrutés localement à qui la sale besogne était sous-traitée : • L’Irak a été chargé de contenir la poussée iranienne vers l’ouest et Saddam Hussein a attaqué la République islamique en septembre 1980. Les sbires de l’ayatollah Khomeyni ont signé dans l’été 1988 un armistice avec Saddam qui a bloqué leur expansion vers l’ouest. • Les moujahidines afghans, arabes ou pakistanais, armés de Stinger2 américains, ont contraint Moscou à retirer ses troupes d’Afghanistan en février 1989. La politique américaine a triomphé sans coup férir. Les supplétifs, désormais inutiles, sont abandonnés dans leur pays exsangue et dévasté ; Saddam ruiné par la guerre ne peut payer ses dettes à ses frères arabes ; les subventions aux jihadistes de Kaboul et des alentours sont supprimées. Désespérés les ex-alliés des États-Unis réagissent dans les deux zones : 2. Voir p. 416.

LA MENACE

327

• Le 2 août 1990, Saddam Hussein annexe le Koweït et déclenche ainsi la guerre du Golfe, dont l’issue permet à la communauté internationale de le neutraliser par l’embargo et les inspections. Souterrainement cependant, l’occupation impie du territoire sacré de l’Arabie par les Yankees infidèles irrite l’Oumma3 contre eux. • Les seigneurs de la guerre s’étripent en Afghanistan, jusqu’au moment où pour rétablir un semblant d’ordre les services secrets du Pakistan inventent les talibans, équipés par la CIA. Le recours américain à des alliés locaux sous-développés a soudain rencontré l’impact formidable de la loi de Moore : la prolifération a engendré dans les années 1980 les armes de destruction massive de l’Irak et dans les années 1990 l’utilisation de l’Internet par Oussama Ben Laden. On appelle proliférateur un pays qui possède la maîtrise des ADM et alimente la prolifération en vendant sa technologie et ses produits. Un proliférant est un pays client qui acquiert ou cherche à acquérir des technologies, des équipements, des matières ou du savoir-faire dont il ne dispose pas, afin de fabriquer lui-même des ADM et des missiles vecteurs de ces armes. À côté des circuits proliférateur-proliférant se nouent des circuits proliférant-proliférant, qui associent les compétences complémentaires des partenaires. La lutte contre la prolifération s’inscrit pour l’instant dans le contexte du désarmement progressif entamé par les grandes puissances après la chute de la Soviétie, et elle en est complémentaire. La diminution en cours du niveau des forces nucléaires des cinq États « reconnus » ne se poursuivra que si les pays « nucléaires de fait » et les proliférants acceptent de modérer leurs efforts. Or nous assistons non à une modération mais à une progression de la prolifération le long d’un arc géographique allant de la Corée du Nord à la Méditerranée : il existe en effet une corrélation forte entre gradients d’instabilité régionale et acquisition d’ADM. Le proliférant se fixe pour objectif de sanctuariser son pré carré ; mais lorsqu’il a acquis une capacité ADM opérationnelle, il veut la conserver. Les zones actuelles de prolifération subsisteront donc dans le futur, alors que d’autres naîtront avec la croissance de nouveaux gradients. Si au début la prolifération a été organisée par les structures étatiques, c’est-à-dire par une autorisation explicite et formelle du 3. L’Oumma est la communauté universelle des croyants de l’islam.

328

INTRODUCTION AU SIÈCLE DES MENACES

gouvernement central, elle tend à évoluer vers une quasi-privatisation, soit par tolérance des intérêts d’industriels en mal de clientèle, soit par une véritable détérioration de l’autorité au bénéfice de groupes privés régionaux ou locaux. La politique antiproliférante qui a été suivie jusque vers 1990 reposait sur la négociation avec les gouvernements, consacrée à l’établissement de traités, et elle a connu un certain succès, mais la prolifération a beaucoup augmenté à partir de 1990, avec la soudaine arrivée sur le marché noir du travail international du personnel employé jusque-là par le complexe militaro-industriel soviétique. On sait maintenant que les pays proliférateurs les plus virulents sortent des empires écroulés qui ont mené de grands programmes secrets d’ADM et qui, après l’arrêt de leur soutien étatique, sont incapables de contrôler les centaines ou milliers de spécialistes naguère impliqués dans ces programmes avec des financements et des moyens illimités. Nostalgiques de leur ancien pouvoir, ou simplement au chômage technique, ils constituent une main-d’œuvre mobile prête à se vendre pour continuer dans un autre pays les travaux qui la faisaient vivre. Ainsi les nazis spécialistes de V2 ont-ils été employés par les Américains et les Soviétiques après la Seconde Guerre mondiale. Une telle « prolifération privée » a profité d’abord aux rogue states, mais Netwar pourrait bien en devenir le bénéficiaire. Dans les années 1990, les instabilités régionales se sont mondialisées et ont en effet donné naissance à Netwar. À côté des pays proliférants apparaît maintenant l’éventualité de réseaux proliférants.

La législation internationale Le système international de contre-prolifération appartient au système plus global d’Arms Control fait d’instruments légaux et politiques, traitant à la fois des ADM et des autres types d’armes. Mis au point progressivement pendant la guerre froide, il offre un cadre au dialogue stratégique, qui oscille entre la coopération et la confrontation. Comme toute la vie internationale, il est fondé sur deux piliers, un ensemble d’engagements juridiques pris en toute souveraineté par les États parties, et une volonté politique affichée. LES ARMES NUCLÉAIRES

Rappelons que les bombes nucléaires à fission utilisent au choix deux types de matériaux radioactifs, l’uranium enrichi à 93 % en isotope 235, ou le plutonium produit lui-même dans des

LA MENACE

329

réacteurs à uranium. Pour obtenir une bombe il faut disposer d’à peu près 16 kg d’uranium enrichi, ou de 6 kg de plutonium, et mettre au point le délicat système qui permet l’explosion. Un programme nucléaire civil se contente d’uranium faiblement enrichi. Deux accords internationaux ont été imaginés pour essayer de contrôler ou d’empêcher l’édification d’arsenaux nucléaires : le traité de non-prolifération nucléaire (NPT, ou Nuclear Non Proliferation Treaty) et le traité d’interdiction des essais nucléaires (Comprehensive Nuclear Test Ban Treaty). Le NPT, ouvert à signature le 1er juillet 1968 et entré en vigueur le 5 mars 1970, reconnaît cinq puissances nucléaires : la Chine, les États-Unis, la France, le Royaume-Uni et la Russie. Les autres, ceux qui n’avaient pas procédé à un essai avant le 1er janvier 1967, ne sont pas officiellement reconnus comme nucléaires. À ce jour (2003), 187 pays ont adhéré. Trois pays qui n’ont pas signé le traité, l’Inde, Israël et le Pakistan, ont développé des armes nucléaires en dehors de ses structures. Trois signataires qui avaient une « capacité nucléaire », le Kazakhstan, la République sud-africaine et l’Ukraine ont décidé unilatéralement de s’en débarrasser et l’ont en effet détruite sous le contrôle de l’Agence internationale de l’énergie atomique (International Atomic Energy Agency, ou IAEA), organisme autonome lié aux Nations unies, regroupant 134 États membres, créé en 1957, sis à Vienne, qui exerce, entre autres, la responsabilité de contrôler l’usage pacifique des matériaux nucléaires dans les pays parties au traité qui ne sont pas dotés d’armes nucléaires. Seules les installations nucléaires déclarées sont soumises aux règles et aux garanties de l’IAEA. Trois autres pays, l’Irak, l’Iran et la Libye sont soupçonnés de mener des projets secrets d’armes nucléaires et plusieurs autres, comme la Corée du Sud, le Japon et Taiwan, possèdent les moyens techniques de les mettre au point. La Corée du Nord est le seul signataire à avoir violé ses obligations et cherche à se retirer du traité pour libérer ses installations de la surveillance internationale. Les accords dits de garantie (safeguard) concrétisent le principe d’un droit permanent donné à l’IAEA pour inspecter les sites. Le protocole dit additionnel au NPT, mis en place en 1997, instaure des inspections inopinées et dote l’Agence d’une autonomie de renseignement, afin de lui permettre la détection d’activités clandestines ou de matériaux nucléaires non déclarés. Seuls 20 % des signataires au NPT ont accepté le protocole additionnel.

330

INTRODUCTION AU SIÈCLE DES MENACES

Un pays qui mène ouvertement un programme civil est donc autorisé à enrichir de l’uranium pour ses réacteurs, à stocker les déchets qui contiennent du plutonium et à les « reprocesser », à la condition de déclarer ces opérations à l’IAEA et de se laisser inspecter. Il peut donc, s’il le veut, produire du matériau dit militaire pour bombe, puis se retirer du traité et construire un arsenal. Afin de donner plus d’attrait au NPT, les États-Unis, le Royaume-Uni et la Soviétie se sont engagés en 1978, à ne jamais utiliser des armes nucléaires contre les États non nucléaires qui auraient signé le traité, sauf dans le cas d’une attaque par un tel État allié à un État nucléaire. Aucune exception n’a été évoquée pour une réponse à une arme chimique ou biologique. En avril 1995, les trois États précédents, où la Russie avait pris la suite de la Soviétie, et auxquels s’étaient jointes la Chine et la France, ont réaffirmé cet engagement comme un élément central de l’effort mené pour rendre le NPT permanent. Aussitôt, en rapport avec une résolution du Conseil de sécurité, 182 États non nucléaires ont demandé que les cinq États nucléaires promettent de ne jamais les attaquer avec les armes nucléaires, en échange de leur engagement à ne pas en acquérir. Complétant le traité, un mécanisme de contrôle des exportations et d’échange d’informations a été mis en place dès 1976 par les pays « reconnus » pour empêcher la dissémination de la technologie et compliquer l’acquisition d’une capacité militaire (Nuclear Suppliers Group, ou NSG). En 1992, les 27 pays du NSG ont défini une liste de 60 technologies duales interdites à l’exportation. À partir de cette date, les États-Unis, par des accords bilatéraux avec les États issus de la Soviétie (programme Cooperative Threat Reduction, ou CTR), financent le démantèlement et le contrôle des arsenaux ex-soviétiques. Les pays du G-8, lors du sommet de Kananaskis au Canada (juin 2002), ont rendu le programme CTR multilatéral : une coalition globale devrait dépenser, sur dix ans, 10 milliards de dollars fournis par les États-Unis, et 8 autres fournis par les autres membres pour sécuriser les stocks russes. La Russie abriterait, répartis dans quelque quatre cents bâtiments à travers le pays, environ 150 tonnes de plutonium, et 600 à 1 000 tonnes d’uranium hautement enrichi, d’après un rapport de la National Academy of Sciences des États-Unis de 2002. Le stockage n’est pas confiné à la Russie : en 1999, les États-Unis ont acheté au Kazakhstan 600 kg d’uranium hautement enrichi. La CIA estimait alors que sur le territoire de huit des États de l’ancienne Soviétie se trouvaient disséminés sans trop de sécurité sept cents tonnes de matériel fissile ou quasi fissile sur plus de cinquante sites.

331

LA MENACE

Les États-Unis et la Russie se sont engagés depuis le traité START-1, signé le 31 juillet 1991, puis réactualisé le 24 mai 2002, dans un processus de réduction de leur arsenal nucléaire qui devrait tendre vers un niveau voisin de 2 000 têtes pour chacun en 2012.

Nombre de têtes nucléaires déployées 2007

Russie

États-Unis

ta n is Pa k

plusieurs dizaines

Fr an ce 185 R oy au m e100 probablement Is U ra ni ël plusieurs dizaines In de

hi C

410

2 200

Traité russo-américain

350

ne

2012

6 100 3 800

5 860 3 000 1 780

2002

Pays non concernés par le traité

Avec les armes déployées et celles qui sont en réserve, les arsenaux russes et américains, y compris les armes tactiques, atteignent respectivement 20 000 et 10 500 têtes.

Source : Carnegie Endowment for International Peace

Traité de limitation des armes nucléaires signé à Moscou le 24 mai 2002

Les accords START ont permis de retirer un nombre important d’ogives des missiles qu’elles équipaient. Le nombre des ogives stockées s’est alors accru, au moment où les garanties de sécurité offertes par la police de l’État russe disparaissaient. La probabilité pour que des détournements puissent se produire est élevée. Certaines installations ne sont protégées que par des palissades en bois cadenassées, et les gardes ne sont pas payés régulièrement. Pour sécuriser ses armements et ses matériaux nucléaires, Moscou la pauvre accepte volontiers des crédits étrangers destinés à les détruire. Le programme Megatons to Megawatts, créé en 1993, permet d’exporter de Russie aux États-Unis cinq cents tonnes d’uranium très enrichi issu de têtes nucléaires, afin d’y servir de combustible dans des centrales nucléaires, pour un montant annuel de 500 millions de dollars depuis 1995. Un autre programme, intitulé Nunn-Lugar du nom des deux sénateurs qui l’ont fait adopter, consacre 1,3 milliard de dollars par an à la réduction du risque de prolifération.

332

INTRODUCTION AU SIÈCLE DES MENACES

En mars 2002, la Russie a signé un accord avec les États-Unis portant sur la fermeture des trois dernières usines de plutonium militaire, pour un dédommagement de 1,3 milliard de dollars. Aucun progrès n’a été accompli pour neutraliser le plutonium russe existant dont on ne saurait comment se débarrasser. Dans la nuit du 21 au 22 août 2002, une cinquantaine de kilos d’uranium de qualité militaire, quantité suffisante pour deux ou trois bombes, ont été saisis dans un institut de recherches situé à Vinca au sud de Belgrade et expédiés dans un lieu sûr situé en Russie pour y être recyclés et soustraits aux détournements possibles. Pour y parvenir, il a fallu, après un an de préparation secrète, utiliser des experts américains, russes et yougoslaves, protégés par la police serbe, et profiter d’un financement privé de 2,5 millions de dollars, fourni par The Nuclear Threat Initiative créé par Ted Turner et Sam Nunn. Les sources radioactives qui pourraient servir à la fabrication de bombe conventionnelle à dispersion de matières radioactives, dite communément « bombe radiologique » ou bombe « sale », ont été utilisées en Soviétie avec la désinvolture la plus inquiétante. Trois cents générateurs radiothermiques contenant chacun 40 000 curies de strontium ou de césium, aussi bien que quelques centaines de sources de césium destinées à l’étude des végétaux, ont été distribués ou abandonnés sans contrôle ni surveillance. Heureusement personne ne sait où ils sont. Mais lorsqu’un malheureux rencontre un de ces objets, comme ce fut le cas pour des bûcherons géorgiens, son sort est scellé. « Personne dans la société en voie de mondialisation n’est responsable de la sécurité de l’ensemble de la population ; chaque gouvernement a la charge de ce qui se passe à l’intérieur de ses frontières. Seules les organisations criminelles ont le privilège d’évoluer sans se soucier de découpage du monde en territoires nationaux4. »

Les installations nucléaires se sont multipliées dans le monde : 442 réacteurs producteurs d’électricité, 651 réacteurs de recherches, 250 usines impliquées dans le cycle du combustible, des dizaines de milliers de sources radioactives en circulation, tout cela est soumis à des contrôles que le directeur général de l’IAEA Mohamed El-Baradei a qualifiés par euphémisme en novembre 2001 de « très inégaux selon les pays ». D’autre part, le traité d’interdiction des essais nucléaires, après avoir été signé en 1996 par la plupart des nations, y compris la France après ses derniers tests souterrains en 1995, a été 4. Georges Le Guelte, Terrorisme nucléaire, Paris, PUF, 2003, p. 98. La lecture de ce livre est recommandée.

333

LA MENACE

rejeté par le Sénat des États-Unis en 1999, alors qu’il ne possède pas de force légale en l’absence de ratification américaine. LES ARMES BIOLOGIQUES

La politique de non-prolifération dans ce domaine repose sur la Convention d’interdiction des armes biologiques, ou BWC (Biological Weapons Convention), ouverte à la signature le 10 avril 1972. Elle complète le protocole de Genève de 1925 qui prohibait seulement l’emploi des armes chimiques et biologiques. La Convention n’interdit ni la fabrication, ni la recherche ; mais sa lacune la plus grave demeure l’absence de dispositifs de vérification. Le nombre des États-parties atteint 143. Après six ans de pourparlers laborieux à Genève, un texte avait été élaboré pour renforcer la Convention par des inspections. Lors de la Conférence d’examen qui devait adopter la rédaction d’un protocole définitif, en novembre 2001, les États-Unis ont refusé de signer, rendant très improbable une reprise des discussions. En effet, dès le milieu des années 1990, les industriels américains des biotechnologies, regroupés dans le lobby PhRma, se sont émus d’éventuelles visites de vérification dans leurs laboratoires, qui pourraient selon eux prêter à de l’espionnage. Mais les États-Unis ont une raison encore plus forte de s’opposer à une réglementation contraignante : c’est qu’ils poursuivent eux-mêmes un puissant programme de « biodéfense » sur lequel ils ne veulent fournir aucune information qui risquerait d’indiquer à un proliférant ou à un terroriste le moyen d’exploiter une ou plusieurs de leurs vulnérabilités. Ainsi le processus d’interdiction des armes biologiques est-il inopérant au moment où la menace n’a jamais été aussi forte. 5

LES ARMES CHIMIQUES

Le domaine des armes chimiques est le seul où une convention, la Convention d’interdiction des armes chimiques (Chemical Weapons Convention, ou CWC) s’est dotée d’un organe permanent chargé de contrôler son exécution, l’OIAC (Organisation d’interdiction des armes chimiques) ou OPCW (Organisation for the Prohibition of Chemical Weapons). Signée à Paris le 13 janvier 1993, la CWC stipule : l’interdiction de fabrication, stockage, transferts, et emploi de ces armes ; la destruction des stocks et des installations de production ; un 5. Col. Raymond Witkowski, « Bilan des politiques de non-prolifération des ADM », Cahiers de Mars, n° 172, 1er trimestre 2002, p. 66-74.

334

INTRODUCTION AU SIÈCLE DES MENACES

dispositif de vérification contraignant, fondé sur un régime d’inspection, soit de routine sur site déclaré, soit par mise en demeure pouvant être déclenchée en tous lieux sur court préavis. Entrée en vigueur en 1997, la CWC a été ratifiée par 143 pays dont les États-Unis, la Russie (le plus gros détenteur mondial de produits toxiques avec des stocks estimés à 40 000 tonnes, dont elle a reporté la destruction jusqu’en 2012), le Pakistan, la Chine, l’Inde et l’Iran. Seuls 14 pays n’ont pas signé la CWC. Ne sont pas États-parties à la Convention : Israël, l’Irak, la Syrie, l’Égypte, la Libye et la Corée du Nord. L’OIAC a effectué plus d’un millier de visites sur plus de cinq cents sites dans une cinquantaine de pays, détruit 8 % du stock mondial d’armes chimiques et détruit ou reconverti 32 % des installations de production. Le rythme des inspections tend à se ralentir, car certains États ne paient pas leur cotisation. LES MISSILES BALISTIQUES

Le protocole MTCR (Missile Technology Control Regime) codifie les exportations afin d’éviter la prolifération de la technologie des propulseurs. Créé à l’instigation du G-7, en 1987, le régime s’est étendu vers les exportations dans le domaine des missiles et de leurs technologies. Il a été complété en 1993 par un document qui interdit de transférer des systèmes complets de missiles. Il a été signé à des dates diverses par 33 pays. Les décisions se prennent par consensus, ce qui tend à paralyser son fonctionnement. Le document dit d’Oslo, signé en 1992, étend la prohibition aux charges chimiques et biologiques. CONCLUSION

La commercialisation incontrôlée des technologies dans les pays avancés, tant à des fins civiles que militaires, d’une part, l’impuissance des traités et des institutions multilatérales de contrôle des armements à contrer une foule de petits acteurs, d’autre part, ont conduit le monde dans une zone de dangers. En 2003, neuf pays disposent de bombes nucléaires, treize (souvent les mêmes) d’arsenaux biologiques, seize d’armes chimiques, vingt-huit de missiles balistiques.

335

LA MENACE

Quelques exemples de proliférateurs LES ARMES NUCLÉAIRES

La France a transféré à Israël la technologie nucléaire qui lui a permis de mettre au point des bombes, et le Canada a fait de même avec l’Inde et le Pakistan. Nous ne donnerons ici que l’exemple d’Osirak, réacteur français de 60 MW vendu à l’Irak6. Osirak devait fonctionner avec de l’uranium enrichi à 93 % en isotope 235 sous forme d’alliage métallique avec de l’aluminium, une charge du cœur du réacteur totalisant environ 13,9 kg d’uranium enrichi. Cet uranium n’est utilisé en dehors des bombes que dans les sous-marins à propulsion nucléaire et dans quelques réacteurs de recherche de puissance, tel Osiris à Saclay, dont Osirak était la copie. Négocié par Jacques Chirac, alors Premier ministre, le contrat signé à Bagdad le 18 novembre 1975 par le ministre Michel d’Ornano stipulait que six charges seraient fournies en une seule livraison. Comme il faut environ 16 kg d’uranium très enrichi pour faire une bombe, c’était là offrir à l’Irak de quoi faire cinq bombes atomiques. Certains anciens du CEA (Commissariat à l’énergie atomique) ont contesté et contestent encore cette affirmation. Un récent plaidoyer pro domo7 affirme qu’Osirak n’avait aucune utilité militaire, mais que les Français, malins, firent croire le contraire à Saddam Hussein pour obtenir le contrat… Et en effet, le raïs irakien affirma dans une interview publiée le 9 septembre 1975 par l’hebdomadaire libanais Al Usbu al-Arabi : « L’accord que nous avons signé avec la France est la première étape concrète de la production de l’arme atomique arabe. » Devant les protestations d’Israël et des États-Unis ainsi que de personnalités telles que Francis Perrin, le président Giscard d’Estaing a limité les fournitures à deux charges par livraison. Israël n’en a pas moins détruit Osirak par un bombardement aérien le 7 juin 1981. On se souvient de la clameur internationale ! Le Premier ministre israélien Menahem Begin estimait n’avoir gagné que cinq ans. La suite a confirmé ce pronostic, à sept ans près. Pour échapper aux critiques liées à la livraison d’uranium hautement enrichi, le CEA proposa la reconstruction d’Osirak 6. Georges Amsel, « Osirak, la bombe et les inspections » , Les Temps modernes, n° 422, septembre 1981 ; Le Monde, 10 octobre 2002. 7. Georges Le Guelte, op. cit., p. 121.

336

INTRODUCTION AU SIÈCLE DES MENACES

avec un combustible dit « Caramel », de moindre enrichissement. En fait, Caramel n’éliminait pas le danger de prolifération, les neutrons étant dans ce cas aussi nombreux et les possibilités de production de plutonium inchangées. C’est néanmoins avec ce produit que le président Mitterrand s’engagea le 9 mars 1983 à reconstruire Osirak, proposition restée sans lendemain à la suite du refus irakien. Le potentiel d’Osirak ne se limitait pas à l’existence d’uranium enrichi. Fait plus grave, il aurait pu produire environ 5 kg de plutonium militaire par an, autre matière première des bombes, dont l’une nécessite 6 kg. Pour l’obtenir, il suffisait d’irradier de l’uranium naturel, ou, mieux, appauvri, avec les neutrons produits par le réacteur. Or l’Irak avait acquis de grandes quantités d’uranium appauvri, en vente libre. C’est autour de cette question qu’ont tourné les contestations : contre l’évidence, le CEA niait la possibilité de produire du plutonium avec Osirak. À ce jour, vingt et un ans après, la production d’Osirak aurait pu totaliser environ 100 kg de plutonium militaire, de quoi fabriquer une quinzaine de bombes. Recevant à la fin des années 1970 des syndicalistes du CEA opposés à la prolifération, André Giraud, patron de cette agence et plus tard ministre de la Défense de 1986 à 1988, s’écria : « Au nom de quoi voulez-vous empêcher un pays de se doter d’armes nucléaires8 ? » Les Français n’ont pas été les seuls à mettre l’Irak sur la voie du nucléaire. L’Occident tout entier a participé à la mise au point de l’arme : 700 sociétés appartenant à 39 pays ont reçu des contrats, dont 90 % à caractère « dual », c’est-à-dire susceptibles d’applications aussi bien militaires que civiles. On y trouve des Allemands pour l’enrichissement, des Italiens pour les « cellules chaudes » destinées à la séparation du plutonium, des Français pour les systèmes électroniques (en plus d‘Osirak), les États-Unis et le Royaume-Uni, pour les problèmes théoriques (jusqu’à la fourniture de détonateurs américains en février 1990 !), le Brésil pour les calutrons, le Niger et l’Afrique du Sud pour l’uranium, la Finlande pour le cuivre, le Canada, la Norvège et le Pakistan pour les centrifugeuses. Pendant les années 1980 la France est restée un des plus constants pourvoyeurs d’armes de l’Irak : jusqu’à la guerre du Golfe, elle a fourni à Bagdad 37,4 % de ses matériels militaires, devant la Soviétie (29,3 %), qu’il s’agît d’équipements tradition8. Benoît Collombat, France-Irak : mensonges atomiques, reportage radiophonique, France Inter, émis le 9 février 2003.

337

LA MENACE

nels de toute nature ou de pièces détachées utilisables dans l’activité nucléaire. Un autre exemple de proliférateur nucléaire est offert par la Chine dans ses rapports avec l’Iran. Le programme Eurodif de coopération franco-iranien dans la production d’uranium enrichi, entrepris sous le régime du Chah, avait été interrompu lors de l’arrivée au pouvoir de l’ayatollah Khomeyni. Dans les années 1980, la Chine est devenue le principal fournisseur de technologie nucléaire à l’Iran. Elle lui a livré au moins un petit réacteur de recherche dont l’utilité se limite à la formation des personnels. Elle l’a aidé à mettre au point la fabrication d’hexafluorure d’uranium, produit qui permet l’enrichissement dans le procédé de diffusion gazeuse. L’uranium enrichi ainsi produit est soumis au contrôle de l’IAEA ; pour passer à une bombe, il faut disposer d’un nouvel étage qui peut être constitué de centrifugeuses. À la fin de 1995, les États-Unis ont réussi à convaincre la Chine de suspendre la fourniture de deux centrales nucléaires à l’Iran, annoncée en 1992. Ils ont organisé un embargo nucléaire international contre l’Iran, qui a été appliqué. La Chine, qui a signé le NPT, a adopté une politique prudente de non-prolifération nucléaire. À la suite d’une controverse avec les États-Unis sur la fourniture d’équipement nucléaire au Pakistan, Beijing s’est engagé à ne pas fournir une assistance nucléaire qui ne serait pas assujettie à inspection par l’IAEA. 9

LES ARMES BIOLOGIQUES

En 1931, le Japon envahit la Mandchourie. Dès 1932 y est créé, près de la ville de Pingfan, un puissant complexe développant des armes biologiques « offensives » connu sous le nom d’Unité 731, placé sous la direction du Dr Shiro Ishii, qui sera remplacé pendant la Seconde Guerre mondiale par Kitano Misaji. Le complexe comprend cent cinquante bâtiments, cinq camps satellites, un personnel de trois mille scientifiques et techniciens10. D’autres unités sont installées à Moukden, Changchun et Nankin. Des milliers de prisonniers chinois reçoivent des inoculations d’agents pathogènes comme les bacilles du charbon, du choléra et de la peste, ainsi que la bactérie Shigella responsable de la dysenterie et Neisseria meningitidis provoquant des méningites. 9. On se référera au livre de Dominique Leglu, La Menace. Bioterrorisme : la guerre à venir, Paris, Robert Laffont, 2002. 10. « Biological Warfare », Journal of the American Medical Association, 6 août 1977.

338

INTRODUCTION AU SIÈCLE DES MENACES

Près de 300 kg de bacilles de la peste et du charbon, et près d’une tonne de bactéries du choléra, de la dysenterie et du typhus auraient été produits mensuellement. Des épandages aériens de bactéries, mais aussi de puces nourries du sang de rats malades auraient été effectués sur des villes. Les agressions se seraient poursuivies jusqu’à la fin de la guerre. En 1948, un accord a été conclu entre les États-Unis et des membres de l’Unité 731, afin que ces derniers livrent le résultat de leurs travaux en échange d’immunité lors des procès de Tokyo pour crimes de guerre (1946-1948). Le général Ishii fut récupéré par les États-Unis, comme Werner von Braun l’avait été pour permettre le transfert de la technologie des missiles balistiques. Les États-Unis n’avaient pas attendu l’arrivée des Japonais puisqu’ils avaient créé une unité de recherche et développement à Fort Detrick (Maryland), des sites de tests dans le Mississippi et l’Utah et une usine de production de bacilles du charbon à Terre Haute (Indiana), en collaboration avec le Royaume-Uni, mais ces efforts ont finalement profité de l’expérience acquise par plusieurs des membres principaux de l’Unité 731. À la fin des années 1960, l’armée américaine disposait d’un arsenal d’agression biologique très développé. Si le président Nixon déclara, le 25 novembre 1969, que « les États-Unis renonçaient à l’utilisation d’armes biologiques et incapacitantes, et que le programme biologique serait limité à la RD en matière de défense (immunité, mesures de sûreté, etc.) », certains programmes très secrets n’en continuèrent pas moins. La Soviétie n’a peut-être pas bénéficié d’un important transfert de technologie japonaise, mais elle n’en a pas moins mené un énorme programme de mise au point d’armes biologiques, qui aurait impliqué jusqu’à soixante-cinq mille personnes dans plus de cinquante institutions11, structurées en un réseau connu sous le nom de Biopreparat, en violation de la convention d’interdiction de 1972. À partir d’une cinquantaine de souches réparties en plusieurs types d’utilisation, de nombreux agents pathogènes ont été mis au point et d’importants stocks constitués : huit agents ont été « militarisés » (variole, peste, tularémie, morve, encéphalite équine, charbon, fièvre Q, virus de Marburg) et seize autres ont fait l’objet de recherches poussées, dont les virus Ebola et Lassa. L’effort soviétique est aujourd’hui bien connu grâce à des transfuges haut placés, en 1988 le colonel Vladimir Pasetchnik, directeur de l’institut de bio-préparation « ultrapure » de Leningrad, et en 11. Ken Alibek avec la collaboration de Stephen Handelman, Biohazard, traduit sous le titre La Guerre des germes, Paris, Presses de la Cité, 2000.

LA MENACE

339

1992 Kavatian Alibekov, alias Ken Alibek, numéro deux du programme biologique. Après la désintégration de la Soviétie, un grand nombre de ses biologistes sont devenus disponibles. Des programmes ont été organisés, tel l’International Science and Technology Center (ISTC) qui dépense un quart de son budget annuel de 75 millions de dollars pour les payer, ou l’association INTAS formée par la CE depuis 1993, qui dispose de 18 millions annuels d’euros (chiffres 2001) pour des bourses de recherche destinées à empêcher les chercheurs de devenir des proliférateurs. Le chiffre de sept mille biologistes ex-soviétiques qui pourraient former la source d’un risque critique de prolifération a été avancé12, alors que le programme ISTC n’en aurait touché que mille. D’autres estimations, dont celles d’Alibek, ne dépasseraient pas quelques centaines de personnes dangereuses. Bref, on n’en sait rien. L’ancien directeur adjoint du Centre de recherches de microbiologie appliquée d’Obolensk déclarait au début de 2002 : « Je sais qu’au milieu des années 1990 plusieurs scientifiques éminents, des généticiens que je ne nommerai pas, ont aidé à former le personnel en Iran13. » Amy Smithson cite le cas de chercheurs de l’Institut Gamalia d’épidémiologie et de microbiologie de Moscou, en stage pendant l’année 1994 à Téhéran pour un salaire annuel de 50 000 dollars. D’après la même source, des vols de souches pathogènes (peste, choléra, charbon) auraient été commis dans certains laboratoires comme l’Institut expérimental de thérapie et pathologie de Sukhumi en Géorgie et l’Institut de lutte contre la peste à Alma Atta au Kazakhstan, où un journaliste14 a pu constater que « personne n’est fouillé ni à l’entrée ni à la sortie ». LES MISSILES BALISTIQUES

Les pays qui souhaitent acquérir une capacité en missiles balistiques emploient pour y parvenir trois méthodes qui se recouvrent : l’achat à un proliférateur, la modification des systèmes achetés (reverse engineering ou retro-ingenierie), et la production autonome, ou indigène, de systèmes acquis d’un proliférateur. Des proliférants peuvent ainsi devenir proliférateurs. 12. Sheldon Harris, Factories of Death-Japonese Biological Warfare (1932-1945) and the American Cover Up, New York, Londres, Routledge, 1994. 13. Dominique Leglu, op. cit., p. 100. 14. Amy E. Smithson, L’Archipel toxique. Prévenir la prolifération à partir des complexes chimiques et biologiques d’ex-Union soviétique, Rapport n° 32, projet « Prolifération chimique et biologique », Centre Henry Stimson, Washington D.C., décembre 1999.

340

INTRODUCTION AU SIÈCLE DES MENACES

Parallèlement à la notion de « puissance nucléaire » reconnue avant 1967, nous pouvons introduire la notion de « puissance spatiale primaire » ayant lancé des satellites avant 1967. La prolifération balistique s’accélère : des quinze pays qui poursuivent aujourd’hui (2003) un programme d’autonomie, seuls deux, la Chine et Israël, avaient essayé un missile avant 1984. • La Soviétie a mis au point le missile balistique à courte portée Scud-A ou SS-1, et l’a déployé dans les années 1950. Dérivé du V-2, le Scud est un véhicule à combustible liquide (kérosène pour la version A, puis diméthylhydrazine pour les versions suivantes), lancé à partir d’une plate-forme mobile chenillée, qui devait fournir une arme nucléaire tactique aux unités de première ligne. Sa portée atteignait 180 km. De nombreux exemplaires en furent livrés aux pays du pacte de Varsovie. Le Scud-B apparut vers 1965. Propulsé par 4 tonnes d’ergols, guidé par un pilotage du style V-2, par déflexion et empennages, il emportait une charge d’une tonne à 300 km, avec une erreur moyenne sur la cible de 450 m. Monté sur le châssis d’un camion qui servait au transport, à la mise en batterie et au lancement, il présentait une grande souplesse d’emploi. Le Scud-C, déployé en petit nombre pendant les années 1970, portait 700 kg à 550 km et le Scud-D, muni d’un système de guidage amélioré mais capable d’une portée de 300 km seulement, vers la fin des années 1970. La Russie a retiré ces engins vieillis de ses forces opérationnelles. Le Scud, principalement dans sa version Scud-B, est le père de la prolifération des missiles. La Soviétie l’a exporté, dès les années 1970, à l’Égypte, à la Libye et à l’Irak, au total dans 22 États, bien au-delà des limites du pacte de Varsovie. Il se prête à la rétro-ingénierie et à la production autonome, d’où son succès international. • La Chine mène le programme de missiles balistiques le plus ancien, le plus avancé et le plus diversifié des pays d’Asie. Son expertise remonte à la rétro-ingénierie de MRBM soviétique R-2 (SS-3) dont elle importa deux exemplaires en 1958, en même temps qu’elle recevait l’aide de nombreux ingénieurs et techniciens. La version chinoise de l’engin, le CSS-1 franchit 1 200 km en 1965, puis une version nouvelle, le CSS-2, atteignit la portée de 2 800 km pour une charge de 2 tonnes. En 1988, l’Arabie Saoudite a acquis 36 CSS-2 qui sont mis en œuvre par du personnel chinois. Leur imprécision (2,5 km d’erreur circulaire probable) leur ôte toute efficacité en l’absence de charge nucléaire, chimique ou biologique. Cependant, les succès de Beijing à l’exportation ont attiré l’attention des États-Unis,

LA MENACE

341

dont les pressions diplomatiques ont obtenu un infléchissement apparent de l’activisme chinois : la Chine s’est engagée, en février 1992, à appliquer le MTCR et, en octobre 1994, à ne pas vendre de missiles sol-sol de performances supérieures à l’emport d’une charge de 500 kg à la distance de 300 km. Entre autres programmes, la Chine a mis au point un missile à courte portée, le CSS-8, un SRBM15 dérivé du SA-2 soviétique par addition de moteurs à ergols solides, qui transporte 190 kg à 160 km. Son transfert ne viole pas l’accord avec les États-Unis ; vingt CSS-8 ont été exportés en Iran en 1992, suivis en 1995 de très nombreux systèmes de guidage et de machines-outils spécialisés. Le SRBM indien Prithvi utilise la même technologie de propulsion. Pour les missiles à longue portée, la Chine a préféré s’abriter derrière la Corée du Nord comme elle l’avait fait pour des engins fournis à l’Iran pendant la guerre Iran-Irak. Mais elle n’a pas hésité à prendre parfois une attitude plus ambiguë. En 1991 elle a exporté au Pakistan 30 de ses SRBM mobiles M-11 (DF-11) de portée 300 km, et M-9 (DF-15), en violation du MTCR puisque le M-9 a une portée de 700 km. La Chine a signé un accord avec l’Iran pour lui fournir des composants ou de la technologie de production, afin de l’aider à assembler les M-11 ; elle a aussi fourni de l’assistance technique aux programmes de missiles entrepris avec le Brésil, l’Iran, la Libye et le Pakistan. • La Corée du Nord, de proliférant est devenue le plus proliférateur des États. La RPDC (république populaire démocratique de Corée), État stalinien, dépense 26,8 % (estimation) de son PNB de 12 milliards de dollars pour sa défense, record mondial. Son armée compte 5 millions d’hommes. Un bref calcul nous montre que ses citoyens peuvent compter sur des revenus avoisinant 1,5 dollar par jour. Les Nord-Coréens s’exercèrent sur le DF-61, éphémère programme de SRBM fourni par la Chine dans les années 1970. Leur conversion au matériel soviétique leur permit d’atteindre un autre niveau. Leurs premiers Scud-B semblent venus d’Égypte vers 1976. Les Nord-Coréens se sont livrés sur eux à une rétro-ingénierie poussée en développant des Scud-A dits modifiés en 1984, puis allongeant la portée des Scud-B à 340 km, version testée en 1984, produite en masse à partir de 1987 et employée dès ce moment par l’Iran contre l’Irak. 15. SRBM : Short Range Ballistic Missile ; MRBM : Middle Range Ballistic Missile.

342

INTRODUCTION AU SIÈCLE DES MENACES

Pour améliorer encore la portée, ils ont augmenté la masse d’ergols à 5 tonnes tout en diminuant la charge utile et obtenu ainsi en 1988 leur propre version des Scud-C et D. La RPDC fabriquerait maintenant environ 12 Scud-C par mois, en possède 500 à 700, et en exporte 40 à 50 par an. L’exportation, qui aurait porté depuis 1980 sur plus de 500 engins vendus 1 à 4 millions de dollars pièce, a rapporté des milliards à ce pays très pauvre. Pyongyang a développé son industrie des missiles après l’effondrement de son allié, la Soviétie, et la famine qui a frappé le pays au milieu de la dernière décennie. Elle vend pour se nourrir. Contre l’abandon de ses ventes, la Corée du Nord avait demandé sans succès aux États-Unis, dans les années 1990, un milliard de dollars par an. Développé avec l’appui du bureau d’étude russe Makeyev, concepteur des Scud, le Nodong (dérivé du Scud-D) est un MRBM testé en mai 1993, mis en service en 1997, mono-étage à propulsion liquide, qui porte une tonne de charge utile à 1 000 km et dont le principe est l’assemblage de quatre chambres de combustion Scud en faisceau. La technologie ressemble à celle des missiles russes tirés de sous-marin SS-N4 (600 km de portée) et SS-N5 (1 400 km de portée). Le Nodong-2 est une version améliorée qui lance une tonne à 1 500 km. La Corée du Sud et le Japon sont donc à portée des missiles nord-coréens armés d’une charge nucléaire. Le Taepodong est le seul missile proliférant à étages qui ait été essayé jusqu’ici, et il marque donc une étape importante, atteinte assez rapidement avec l’aide chinoise pour la fourniture de pièces détachées, et celle d’ingénieurs russes importés à titre individuel. Le communiqué officiel qui a révélé son existence prétend qu’il s’agit d’un lanceur de satellite à trois étages. Le Taepodong-1 comprend un Nodong-1 comme premier étage, et un Scud-C, peut-être raccourci, comme deuxième étage. Le troisième serait un moteur à poudre dont on ignore les spécifications. Avec seulement deux étages, la portée de ce MRBM atteindrait 1 500 km. Le premier tir, effectué à cap Musudan le 31 août 1998, sans préavis, dans des zones aériennes et navales fréquentées, a créé une grande frayeur, car il a montré que le Japon est effectivement à portée de tir de la RPDC, même si le troisième étage n’a pas fonctionné. Dans sa configuration triétage, le Taepodong-1 pourrait lancer une charge de 700 kg à 6 000 km. Puisque l’essai n’a pas été renouvelé, on peut le considérer comme seulement un démonstrateur de la technologie d’étagement.

LA MENACE

343

Le Taepodong-2 comprend un premier étage inspiré du CSS-2 chinois mais plus petit. Son deuxième étage est un Nodong. Il pourrait porter une charge utile d’une tonne à une distance de 4 000 à 6 000 km. Ce serait donc le premier ICBM proliférant – s’il existe vraiment. Il serait alors capable de placer quelques dizaines de kilos en orbite. Concluons qu’en 2003, le palier technologique atteint par la RDPC ne dépasse sans doute pas la portée opérationnelle de 1 000 km, et que la technologie d’étagement n’est pas maîtrisée. Souvenons-nous cependant qu’il a fallu à la France, qui ne possédait en août 1961 ni acquis, ni compétence lorsque la décision fut prise de mettre au point le lanceur de satellites Diamant, quatre ans seulement pour parvenir à une mise en orbite réussie du premier coup en novembre 1965, à un moment où la technologie des lanceurs n’avait pas atteint le niveau de transparence qu’elle possède aujourd’hui. Le lancement du Taepodong a suffisamment inquiété le Japon, qui s’est senti le premier menacé, pour que Tokyo se lance dans un programme de satellites imageurs de résolution métrique, dévolus à la surveillance des éventuels tirs de missiles par la Corée du Nord. Les deux premiers ont été mis simultanément sur orbite en même temps par une fusée H-2A le 28 mars 2003 ; l’un fonctionne dans le domaine optique et l’autre dans le domaine radar. Un second lancement similaire en novembre 2003 a échoué. La Corée du Nord exporte ses missiles vers plusieurs pays : • L’Iran a depuis longtemps participé au financement des programmes en commandant des engins, souvent payés en pétrole. Les Nord-Coréens auraient utilisé le désert iranien pour tester leurs missiles. Dans les années 1980, 200 à 300 Scud-B et 150 Scud-C ont été livrés dont beaucoup ont été utilisés contre l’Irak. Les Iraniens s’instruisirent au contact des Coréens. Le MRBM iranien Shahab-3 est en fait un Nodong. En novembre 1999, la Corée du Nord a vendu 12 Nodong à l’Iran. • Le Pakistan reçoit l’aide coréenne et pratique la rétro-ingénierie. Son Ghauri-1, lancé le 6 avril 1998, semble être un Nodong-2, et son Ghauri-2 un Taepodong. Nous reviendrons sur le couple symbiotique RDPC-Pakistan dont l’un fournit l’arme nucléaire et l’autre le missile balistique. • La Syrie a acheté 84 Scud-B et C et testé son premier exemplaire fabriqué localement en 1996. Le Scud-D codéveloppé par les deux pays lancerait 700 kg à 700 km. • L’Égypte développe avec la RDPC le Scud-100 qui porterait 1 000 kg à 450 km.

344

INTRODUCTION AU SIÈCLE DES MENACES

• Le Yémen a acheté un certain nombre de Scud-B et C. En décembre 2002, un cargo nord-coréen voguant sans pavillon et transportant au Yémen une quinzaine de Scud a été arraisonné par la marine espagnole après surveillance par des satellites américains. Après vérification, la livraison s’est poursuivie sans encombre. • D’autres pays sont cités comme acquéreurs de Scud, la Libye16, le Soudan, l’Équateur, les Émirats, le Pérou… • La France a joué dans la prolifération balistique un rôle mineur, mais qui a certainement des conséquences non négligeables. Elle a en effet fourni une importante assistance technique à Israël à la fin des années 1960 pour la mise au point de son missile à deux étages à combustible solide, Jéricho 1, capable de frapper à 560 km avec une charge de 1 tonne. L’engin a été entièrement rendu indigène jusqu’à servir de support à une collaboration proliférante secondaire entre Israël et la République sud-africaine dans le programme Arniston aujourd’hui arrêté. Jéricho 1 a été retiré du service et ses successeurs, déployés sur des véhicules mobiles ou sur des sites fixes, sont en service opérationnel dans l’armée israélienne. Ils semblent capables de porter 1 tonne à 1 500 km, et le lanceur spatial Shavit, qui permit à Israël de devenir en 1988 la huitième puissance spatiale, pourrait transporter 775 kg à plus de 4 000 km s’il était transformé en missile balistique. Israël disposerait d’une centaine de bombes. CONCLUSION

L’espoir qu’avaient nourri les États-Unis d’empêcher la prolifération par traités s’est révélé naïf. En fait seuls les États-Unis et le Royaume-Uni ont joué le jeu. La transmission de technologie nucléaire par la France à l’Irak à partir de 1975 reste un acte irresponsable de la plus extrême gravité, qui se qualifie comme un crime contre l’humanité, car il a encouragé l’Irak à l’attaque de l’Iran. L’exportation de la technologie des missiles balistiques par la Soviétie, puis par la Chine, et enfin par la Corée du Nord crée elle aussi une perturbation majeure de l’équilibre mondial. Dans ce domaine, le crime contre l’humanité pourrait encore être évoqué, et une cour internationale saisie si une telle procédure servait à quoi que ce fût. Aujourd’hui des pays à 1 dollar, gouvernés par des dictateurs, la Syrie, l’Égypte, la Libye, le Yémen, disposent de dizaines de Scud déployés, et peuvent donc frapper à des centaines de kilomètres. L’Arabie Saoudite avec ses missiles chi16. Voir p. 377.

345

LA MENACE

nois possède une allonge de 2 500 km, c’est-à-dire qu’elle peut frapper l’Europe. Les spécialistes, inquiets de la prolifération des Scud, ont trouvé des raisons de se rassurer : • les missiles de ce genre n’ont jamais joué un rôle décisif pendant une guerre : ni les 3 300 V-2 tirés par l’Allemagne nazie, ni les 2 000 Scud tirés par les Soviétiques contre les islamistes en Afghanistan, ni les centaines de Scud échangés entre l’Iran et l’Irak pendant la guerre entre ces deux pays n’ont modifié en rien la marche des événements militaires ou politiques ; • les Scud-C et les FROG (fusées d’artillerie non guidées portant 400 kg à 70 km) ont une charge faible et une mauvaise précision, ils n’ont donc qu’une efficacité limitée contre les cibles ponctuelles ; • l’Irak ne put tirer que 20 % de ses Scud pendant la guerre du Golfe en raison de la pression aérienne alliée ; • la fiabilité de ces missiles semble très médiocre : 10 % des Scud lancés par l’Iran contre l’Irak explosaient au décollage ; • les missiles antimissiles, Patriot ou Arrow sont aujourd’hui capables d’intercepter un Scud ou un missile de cette famille, comme l’a montré la deuxième guerre du Golfe en 2003. Ils sont déployés en Corée du Sud et en Israël. Mais, outre l’amélioration de la précision que peut apporter l’emploi de GPS capable de transformer les missiles de la famille Scud en PGM, l’utilisation de charges nucléaires chimiques ou biologiques, à la portée de plusieurs proliférants, donne en réalité aux développements balistiques récents une puissance inquiétante.

Les pays proliférants LES PRÉCURSEURS

L’Égypte est peut-être le premier pays à s’être lancé dans la course de la prolifération. Pour créer une force de missiles, le colonel Nasser avait fait appel à ma vieille connaissance, Wolfgang Pills, un des pères de la fusée Véronique, rescapé de Peenemünde et de Hammaguir. Mais Pills ne connaissait rien au guidage et ses fusées partaient dans tous les azimuts. Après l’échec de cet effort, l’Égypte importa des Scud-B soviétiques pendant les années 1970. Vers 1976 elle en livra à la Corée du Nord. En 1982 l’Argentine mit en chantier le missile à deux étages à combustible solide Condor, conçu pour porter à 900 km une charge de 450 kg, c’est-à-dire une capacité nucléaire. L’Égypte participa à son finan-

346

INTRODUCTION AU SIÈCLE DES MENACES

cement à partir de 1984 et l’Irak à partir de 1985, mais leur collaboration se tarit en 1989 et l’Argentine mit fin au projet en 1991. À ce moment, le Brésil avait confié à son Centre de technologie aérospatiale, la conversion de la fusée-sonde Sonda IV en un IRBM. L’équipe fut embauchée par l’Irak à la fin des années 1980 pour participer au développement du Al Abid. Le Al Abid, qui devait comporter trois étages, le premier constitué par un faisceau de cinq Scud, le deuxième par deux Scud et le troisième un nouveau moteur brésilien, ne fut jamais terminé. Le Brésil menait son propre programme national de missiles. Dans les années 1980, le consortium Avibras aidé par les Chinois, développa un missile dérivé du Scud. En parallèle, le consortium Orbitas mit au point un missile mobile à combustible solide, le MB/EE 150, qui fut essayé en Libye avec une portée de 650 km, sans que finalement la Libye ait acheté le système. En dépit de l’arrêt du programme brésilien de missiles balistiques, la collaboration du Brésil a continué avec la Chine pour la mise au point d’un tri-étage lanceur de satellite dont les essais n’ont abouti jusqu’ici (2003) qu’à des échecs. Les pressions des États-Unis, qui ont utilisé les sanctions prévues par le traité MTCR, ont conduit à l’arrêt de la prolifération balistique en Amérique du Sud. L’Argentine et le Brésil se sont inclinés devant leur puissant voisin, porte-parole de la communauté internationale. 17

L’IRAK

En juillet 1979, Saddam Hussein décida de s’engager dans un programme complet d’ADM, comportant bombes nucléaires et missiles, armes chimiques et biologiques, dans le but de remodeler la carte du Proche-Orient. Les pays fournisseurs de technologie acceptèrent la posture officielle de l’Irak, signataire du NTP ; tout le monde savait pourtant que les inspections de l’IAEA, annoncées à l’avance, se réduisaient à une farce. Si Saddam ne s’était pas mépris sur les intentions américaines le 25 juillet 1990 lors de son entrevue avec April Glaspie, la pitoyable ambassadrice des États-Unis qui aurait pu l’arrêter d’une phrase, il n’aurait pas envahi le Koweït et ainsi détruit à lui seul sa bombe atomique. La malheureuse dame doit avoir le nez de Cléopâtre : que le lecteur imagine l’ampleur formidable de la crise qui aurait éclaté en août 1992 à l’explosion d’un engin nucléaire possédé par un tyran 17. Actes de la journée d’études du 14 novembre 2002, L’Irak, enjeux et conséquences, Fondation pour la recherche stratégique, Paris.

LA MENACE

347

sanguinaire, envahisseur de ses voisins, décidé à éradiquer Israël, puissance elle-même nucléaire à qui les frappes préemptives ne font pas peur ! Dès sa première déclaration le 18 janvier 1991, après le déclenchement des bombardements alliés sur l’Irak, le président Bush I a proclamé la destruction des ADM irakiens son objectif principal dans les hostilités qui s’ouvraient. Après la guerre du Golfe, la résolution 687 adoptée par le Conseil de sécurité le 3 avril 1991 a forcé l’Irak à détruire ses ADM. L’IAEA a été désignée pour faire appliquer la résolution dans le domaine nucléaire, et une « Commission spéciale » (Unscom) nommée pour diriger les destructions dans les domaines balistique, chimique et biologique. Des inspections, menées malgré l’extrême mauvaise volonté des Irakiens, ont fait entrevoir l’ampleur de leur programme. Après plusieurs années d’inspections peu fructueuses, un fait nouveau a bouleversé la donne : le général Hussein Kamal, gendre de Saddam Hussein, qui était à la tête du Ministry of Industry and Military Industrialization (MIMI) chargé des programmes ADM, a fui en Jordanie en août 1995. Il a dévoilé beaucoup de secrets puis, rentré à Bagdad, a été mis à mort sur l’ordre de son beau-père. En octobre 1998, Saddam Hussein a expulsé les inspecteurs de l’Unscom, et un nuage impénétrable a recouvert les programmes ADM de l’Irak. Le programme nucléaire

Obtention d’uranium enrichi. Le pays proliférateur pour le programme irakien d’enrichissement a été le Brésil, qui, lorsqu’il était gouverné par une junte militaire, a fourni les calutrons (spectrographes de masse) et la fluorisation. Dans le cadre de leur programme PC3 dirigé par Jaffar Dia Jaffar, ingénieur formé au CERN (Centre européen de recherches nucléaires) à Genève, les Irakiens ont adopté dès 1980 le procédé de spectrographie de masse utilisé par les Américains dans le cadre du Manhattan Project pour produire l’uranium très enrichi de la bombe lancée sur Hiroshima. Sur le site d’Al Tuwaitha, à une vingtaine de kilomètres de Bagdad, les ingénieurs irakiens ont fait fonctionner leurs calutrons (spectrographes de masse) dits « alpha » chargés d’enrichir l’uranium dans une première étape jusqu’à environ 14 %. Un second étage d’enrichissement était confié à des calutrons dits « bêta » situés à Al Tarmiya et à Ash Sharkat. Les Irakiens ont fait beaucoup de RD sur le procédé de diffusion gazeuse utilisé dans le programme franco-iranien Eurodif. Les travaux auraient été arrêtés au plus tard en 1989, compte tenu de la priorité donnée à l’ultracentrifugation.

348

INTRODUCTION AU SIÈCLE DES MENACES

Le procédé d’ultracentrifugation, développé par une équipe distincte de celles du programme PC3, qui rendait compte directement à Hussein Kamal, n’a pu réussir que grâce à une aide allemande importante, à la fois pour la conception, les matériaux, les équipements et le savoir-faire. On sait qu’elle a mis au point un type de machine peu performante, mais cela n’a pas beaucoup d’importance pour un objectif de prolifération. Les centrifugeuses devaient servir à terminer l’enrichissement de l’uranium. Obtention de plutonium. Les Irakiens ont eu l’intention d’utiliser du plutonium pour leur bombe, et acheté dans ce but le réacteur soviétique IRT-500, bombardé par les Américains en 1991 et le réacteur français Osirak18. Les réacteurs nucléaires Osirak et IRT-500 situés à Al Tuwaitha, n’étaient plus en activité en 1991. La bombe nucléaire. Après la destruction d’Osirak, un groupe a été constitué pour évaluer la possibilité de le reconstruire avec l’option de le faire fonctionner avec de l’uranium légèrement enrichi ou même naturel. Le groupe a conclu à la trop grande difficulté de cette filière, et il a été décidé de construire les engins nucléaires explosifs à l’uranium très enrichi. Les travaux ont probablement commencé en 1987, ou 1988, avec la constitution du Groupe 4 dirigé par Saïd dans le cadre du PC3. Les inspections de l’Unscom qui ont eu lieu depuis l’automne 1995, après la défection de Hussein Kamal, ont révélé qu’un autre groupe, le Daffheer Group, avait également travaillé à la réalisation de l’édifice explosif chargé de comprimer la sphère d’uranium très enrichi. Les travaux du Groupe 4 et du Groupe Daffheer ont permis aux Irakiens de définir un engin explosif qui aurait pesé 1 200 kg. La bombe aurait compris un cœur fissile de 16 kg en uranium enrichi à 93 %. Sa puissance escomptée était de 20 kilotonnes. Les informations recueillies après la défection de Hussein Kamal nous ont appris que : • un programme « crash » avait été décidé en septembre 1990 pour disposer de l’uranium très enrichi destiné à un engin explosif ; • pour obtenir cette matière, de l’uranium très enrichi des réacteurs français et soviétiques (93 % et 80 % en U235) aurait été détourné ; • pour réenrichir l’uranium soviétique, une cascade de centrifugeuses aurait été construite à Al Rashdiya. Les centrifugeuses étaient assemblées à Al Furat ; 18. Voir p. 335.

LA MENACE

349

• les installations clés étaient Al Rashdiya pour la centrifugation et Al Ka Kaa pour la réalisation de l’implosoir ; • si les opérations d’extraction de l’uranium très enrichi et de réenrichissement avaient réussi, la matière fissile aurait été disponible fin 1991 ; • comme les missiliers ne disposaient pas d’une fusée capable d’emporter l’engin défini en 1990, Hussein Kamal avait donné pour instruction de réduire le poids de l’engin à environ 900 kg pour pouvoir utiliser la fusée Al Hussein ; • un essai « à froid » (sans uranium très enrichi et donc sans explosion nucléaire), à échelle un, était prévu pour une date antérieure à la fin de 1991 ; • la mise à feu d’un engin réel aurait eu lieu en 1992, et un système d’armes serait devenu opérationnel en 1995. Les Irakiens affirment que toute activité dans la mise au point de la bombe a cessé en janvier 1991. À ce moment, après un investissement de 12 à 15 milliards de dollars hors génie civil, le concept de l’engin était encore incertain. La matière fissile n’était pas prête : il leur manquait un ou deux ans pour disposer d’une quantité suffisante d’uranium très enrichi. Depuis 1991, ont-ils travaillé ? Des détecteurs de rayonnement gamma dont l’émission accompagne le processus d’enrichissement d’uranium et de plutonium ont été abondamment utilisés par l’Unscom sans jamais rien révéler. Une épaisse intoxication a été menée sur le sujet de la bombe irakienne par les services américains et britanniques. Hussein Kamal aurait révélé que le programme nucléaire avait vraiment été arrêté en 1991, et pourtant la propagande anglo-saxonne a continué à estimer le temps d’accession des Irakiens à l’arme nucléaire. Le gouvernement britannique donnait cinq ans, la CIA dix ans. Comme il est vraisemblable qu’Hussein Kamal a dit vrai, on peut se demander pourquoi Saddam Hussein n’a pas adopté une transparence semblable à celle de la République sud-africaine, lorsqu’elle a décidé d’abandonner son statut de puissance nucléaire. Il serait encore au pouvoir. En fait, la détermination du raïs restait intacte : les sept à dix mille physiciens et ingénieurs qui avaient été engagés dans le programme se tenaient prêts à le reprendre, dès que… La dispersion de matière radioactive. Les Irakiens ont travaillé sur des projets de « bombe sale ». L’IISS19 rappelle l’essai de 1987 19. International Institute for Strategic Studies, Londres.

350

INTRODUCTION AU SIÈCLE DES MENACES

exécuté avec du zirconium et totalement raté, mais suggère l’occurrence de nouvelles tentatives avec du césium 137 et du cobalt 60. La NDU20 parle de trois essais ratés et rappelle l’existence de 10 000 sources industrielles potentielles de matières radioactives. Le programme biologique

Déroulement du programme. Selon l’Unscom, le programme irakien aurait commencé vers 1973, mais c’est en 1985 qu’il prit son essor avec l’arrivée de la biologiste Rihab Rachid Taha au Centre d’Al Muthanna, sis à 70 km au nord-ouest de Bagdad. La mission de celle que la presse a appelée Docteur Microbe ou Lady Anthrax était de « militariser » les agents pathogènes en cinq ans. On sait qu’il ne suffit pas de les produire : il faut leur donner une forme « efficace », mettre au point les équipements pour les répandre, et tester le tout. En 1987, ces travaux ont été transférés dans un lieu désertique plus discret, à Al Hakam, sis à une heure de route au sudouest de Bagdad. Les laboratoires étaient dissimulés, couverts par ce qu’on a appelé l’« usine de nourriture pour poulets », la chicken farm. On y aurait produit de la single cell protein, supplément pour nourriture animale, ce que les inspecteurs de l’Unscom n’ont pas cru, vu l’organisation de la prétendue « usine ». À la fin des années 1980, les premiers tests en plein air y auraient eu lieu. Le programme a pris une grande ampleur grâce aux livraisons d’entreprises occidentales qui ont fourni cultures et équipements. Par exemple21, en 1985, une souche d’un agent pathogène du blé a été achetée aux États-Unis auprès d’une banque de germes internationalement connue, l’American Type Culture Center (ATCC). En 1986, l’Irak a commandé auprès du même organisme vingt-quatre agents pathogènes différents, dont ceux du botulisme, de la gangrène et de la maladie du charbon, commande qui a été honorée22. Plus tard, l’Institut Pasteur a fourni à l’Irak « à peu près le même genre d’agents que l’ATCC ». D’autres commandes, celles d’agents de culture, ont été faites en Angleterre (entreprise Oxoid à Bedford) ou en Suisse (Fluka Chemie AG à Bouch). Pendant la seule année 1988 (et un peu en 1989), l’Irak a ainsi pu se procurer jusqu’à trente-neuf tonnes de milieu de culture bactériologique, ainsi que des fermenteurs de haute technologie, des 20. National Defense University, Washington. 21. Dominique Leglu, op. cit., p. 111-112. 22. Anthony Cordesman, Iraq’s Past and Future Biological Weapons Capabilities, Washington, Center for Studies of International Strategy, février 1998.

LA MENACE

351

machines adéquates pour produire des poudres sèches d’agents pathogènes, etc. En 1996, le centre d’Al Hakam a été détruit sous la direction de l’inspecteur britannique Terry Taylor. Les fermenteurs ont été écrasés, puis recouverts de ciment, et les bâtiments dynamités. D’autres recherches avaient été menées à Daura, rebaptisé Al Manal, dans une installation destinée à la production de vaccin contre la fièvre aphteuse (fournie par l’Institut Mérieux et détournée de ses fins), également détruite lors des inspections de l’Unscom. Bien que 49 missions d’inspection aient été menées dans le seul domaine de la biologie, de fortes incertitudes demeurent. En 1997, le pays disposait d’au moins 79 installations civiles qui auraient pu servir de couverture à de nouvelles recherches dans le domaine. Une usine de vaccins peut permettre certains détournements d’agents pathogènes, voire une banale brasserie avec des fermenteurs. Par ailleurs, à partir de toutes petites quantités de germes, en particulier des bactéries, il est possible de produire rapidement de grandes quantités à condition de disposer des milieux de culture nécessaires. Les produits. Le bacille du charbon inhalé provoque une grave maladie des poumons, car il s’attaque directement aux cellules macrophages et les anéantit par ses toxines. Sous forme de spores, un seul gramme de spores séchées peut contenir cent voire mille milliards de bacilles, ce qui en théorie pourrait tuer dix voire cent millions de personnes… Il est établi qu’environ 8 000 spores (8 millionièmes de gramme) tuent une personne en moins d’une semaine, en l’absence de soin par antibiotiques. Le bacille du charbon, le grand classique des armes biologiques, a été produit en quantité aussi bien aux États-Unis qu’en Soviétie, essentiellement pour ses qualités : spores résistantes, maladie non contagieuse donc mieux « maîtrisable », disponibilité d’un vaccin qui permet d’immuniser les troupes qui l’emploient, etc. La toxine botulinique, venue de la bactérie Clostridium botulinum, est le plus puissant poison connu. Pour tuer un homme, 70 milliardièmes de gramme suffisent, la mort survient en un à trois jours. Cependant, il faut noter que cette toxine est sensible au soleil, à l’air ou à la chaleur. Sa fragilité rend son usage difficile. L’aflatoxine est un produit qui ne semble avoir d’usage militaire pas tellement contre les humains que contre les cultures. En grandes quantités cependant, elle peut causer des intoxications aiguës, voire la mort. La très abondante production irakienne a intrigué les spécialistes.

352

INTRODUCTION AU SIÈCLE DES MENACES

Estimations. Une semaine après la désertion d’Hussein Kamal et avant même qu’il ne dévoilât ce qu’il savait, les Irakiens ont fait des « révélations » aux inspecteurs. Si on s’en tient à leurs déclarations, avant la fin de la guerre du Golfe l’Irak avait produit : • 8 500 litres de bacille du charbon ; • 19 000 litres de toxine botulinique ; • 2 200 litres d’aflatoxine. En juin 1996, le transfuge a fourni le premier document complet sur le programme, puis un second en septembre 1997. Les membres de l’Unscom en ont déduit que, de décembre 1990 à janvier 1991, les Irakiens avaient rempli de trois agents différents cent cinquante-sept bombes R-400, vingt-cinq têtes de missile, des réservoirs d’épandage sur des Mirage F-1 et des Mig-21 ainsi que des rampes de pulvérisation sur hélicoptères. Toutes ces armes auraient été détruites en 1991, selon les affirmations officielles irakiennes. La crise a éclaté en 1998, quand l’Irak a empêché l’accès d’inspecteurs américains sur son sol. L’Unscom a répliqué en « révélant » que l’Irak avait produit de la botuline, du bacille du charbon et du gaz VX. Ensuite, la tension n’a cessé de monter. En novembre 1998, Bill Clinton annonça que les États-Unis étaient prêts à des frappes aériennes et maritimes. Et le 16 décembre, après information au Conseil de sécurité par le directeur de l’Unscom, Richard Butler, que l’Irak ne coopère toujours pas, l’opération Desert Fox est déclenchée : en soixante-dix heures, quatre cents missiles de croisière sont lancés par les forces américaines et britanniques, entre autres pour démolir des bâtiments ou équipements qui auraient fait partie du programme biologique. Rien ne prouve l’efficacité de cette opération : on estime que 95 % des destructions d’installations ont été obtenues par inspection et 5 % par bombardement. Le programme chimique

Les agents chimiques le plus souvent rencontrés chez les pays proliférants figurent dans la catégorie des toxiques létaux, c’est-àdire mortels, où l’on distingue : • Les vésicants, parmi lesquels les ypérites (à l’azote ou surtout au soufre), très répandus, faciles à fabriquer et à stocker. Agissant sous phase vapeur ou liquide ils peuvent être inhalés ou pénétrer la peau pour provoquer la suffocation. • Les neurotoxiques organophosphorés, formes exacerbées d’herbicides qui bloquent les terminaisons nerveuses par inhibition de la cholinestérase. Les agents G (tabun, sarin, soman), très

LA MENACE

353

volatils et peu persistants, agissent par voie respiratoire. Les agents V, parmi lesquels le phosphonothiolate VX, peu volatils mais persistants sous forme liquide, sont classés parmi les plus dangereux : 1 mg suffit à tuer un homme. Sous l’étiquette VR-55, ce dernier a été développé aux États-Unis et surtout en Soviétie, qui en aurait produit 15 000 tonnes. L’atropine et le valium sont des antidotes. En 1983, la guerre avec l’Iran tourna mal pour l’Irak agresseur, rejeté du territoire qu’il avait envahi, et envahi à son tour. Les États-Unis, toujours terrifiés par l’expansionnisme chiite, volèrent au secours de Saddam. La National Security Decision Directive n° 114 garantit à l’Irak des prêts de plusieurs milliards de dollars. Donald Rumsfeld, émissaire spécial du président Reagan, rencontra le raïs irakien à Bagdad le 20 décembre 1983, puis le ministre des Affaires étrangères Tarek Aziz quatre mois plus tard, afin d’établir la liste des fournitures que l’Amérique procurerait à son allié. Elle s’élargira jusqu’à des images satellitales du déploiement de troupes iraniennes, servant à la préparation tactique des batailles et au BDA. Rumsfeld avait reçu pour instructions écrites du secrétaire d’État George Shultz, d’affirmer à Saddam Hussein que la condamnation officielle américaine de l’emploi d’armes chimiques par l’Irak n’était qu’une position de principe, et que la priorité des États-Unis consistait à empêcher la victoire de l’Iran et améliorer leurs relations bilatérales (Rumsfeld dit qu’il ne s’en souvient pas…). L’emploi des gaz, en particulier l’ypérite, banni depuis la fin de la Première Guerre mondiale, était devenue l’une des armes employées quotidiennement par les armées irakiennes. Les produits toxiques, ou plutôt leur technologie, provenaient de plusieurs États occidentaux, en particulier de RFA et du Royaume-Uni. Les Iraniens prétendent avoir établi le dossier de trente mille de leurs soldats victimes de cette pratique. Des « pasdarans » furent soignés à Paris sans que leurs blessures aient entraîné l’indignation des pleureuses françaises, soucieuses de protéger l’Arabe Saddam, « leur ami ». Saddam Hussein redoubla l’emploi des gaz jusqu’à la fin de la guerre. Au début de 1988, des officiers américains purent constater la contamination du champ de bataille dans la péninsule de Fao, reprise aux Iraniens grâce au renseignement américain. Des boîtes vides d’atropine jonchaient le sol, dont le contenu avait manifestement été utilisé par les soldats irakiens afin de se protéger d’éventuels reflux des armes chimiques de leur côté de la ligne de front23. Les Kurdes aussi subirent des attaques aux gaz, dont la plus connue fut menée en 23. Scott Ritter, Guerre à l’Irak, Paris, Le Serpent à plumes, 2002, p. 35.

354

INTRODUCTION AU SIÈCLE DES MENACES

mars 1988 contre la ville de Halabja où périrent des centaines de civils, peut-être des milliers. Le Conseil de sécurité prit sept semaines, après que les médias eurent montré les cadavres au monde entier, pour condamner « l’emploi constant d’armes chimiques dans le conflit entre l’Iran et l’Irak » et demander « aux deux adversaires de s’empêcher d’employer des armes chimiques dans le futur ». L’Iran était ainsi présenté comme également coupable, par une campagne concertée de la diplomatie américaine qui aidait l’Irak en connaissance de cause24, tout en fournissant clandestinement des armes à l’Iran. Ainsi l’Amérique, après M. Chirac, après les Allemands et les Anglais, qui avaient fourni les installations productrices d’ypérite, a-t-elle encouragé les programmes irakiens d’ADM, puis fermé les yeux devant les crimes commis. Ensuite tous ont menti pour cacher leur turpitude. Outre l’ypérite, l’Irak a fabriqué du sarin, du tabun et du VX dans l’énorme usine spécialisée d’Al Muthanna, bombardée pendant la guerre du Golfe et démantelée par l’Unscom. Les Irakiens ont nié avoir produit du VX, mais les inspecteurs les ont confondus en retrouvant dans l’usine le laboratoire écrasé par la chute d’une vaste dalle de béton lors du bombardement, qui présentait la « photographie » de l’appareil de production en janvier 1991. L’Unscom25 a détruit plus de 40 000 munitions chimiques, près de 500 000 litres d’agents chimiques, 1,8 litre de produits précurseurs et sept types différents de vecteurs adaptés à des charges chimiques, et prétend avoir supprimé la capacité chimique des Irakiens. Cependant, avant leur départ de Bagdad à la fin de 1998, les inspecteurs de l’ONU ont expliqué que l’Irak avait « oublié » de déclarer 6 000 munitions chimiques dans le recensement de son armement et, sur la foi d’un document de son armée de l’air, qu’on était sans nouvelle de 15 000 têtes de roquettes et 550 obus d’artillerie susceptibles d’emporter de tels produits. Malgré les dénégations irakiennes, des têtes de Scud armées de containeurs à VX ont été découvertes à Muthanna. L’Irak est aussi soupçonné d’avoir produit une autre toxine, la ricine, dans une usine de fabrication de liquides pour freins sise à Fallajah, endommagée pendant l’opération Desert Fox en 1998 et à nouveau en février 2001 lors de frappes aériennes américaines. La ricine présente un grand intérêt pour Netwar en raison de la facilité de son obtention : les services anglais en ont 24. Patrick E. Tyler, « Reagan aided Iraq despite use of gas », 18 août 2001. 25. Scott Ritter, op. cit., p. 57.

New York Times,

355

LA MENACE

découvert en février 2003 à Londres dans une officine soupçonnée de terrorisme. D’après Scott Ritter, puisque la durée de vie du sarin et du tabun ne dépasse pas cinq ans, il restait peu de choses en 1998 de la capacité de l’Irak en armes chimiques. En 2003, on n’en sait rien. L’emploi des gaz de combat par l’Irak Date

Zone d’emploi

Type d’agent

Nombre de victimes

Cible population

Août 1983

Hajj Umran

Ypérite

moins de 100

Iraniens/ Kurdes

Oct.-nov. 1983

Panjwin

Ypérite

3 000

Iraniens/ Kurdes

Fév.-mars 1983

Majnoon Island

Ypérite

2 500

Iraniens

Mars 1984

Bassora

Tabun

50 à 100

Iraniens

Mars 1985

Hawizah Marsh

Ypérite/Tabun

3 000

Iraniens

Février 1986 Fao

Ypérite/Tabun

8 000 à 10 000

Iraniens

Décembre 1986

Umm ar Rasas

Ypérite

milliers

Iraniens

Avril 1987

Bassora

Ypérite/Tabun

5 000

Iraniens

Octobre 1987

Sumar Mehran

Ypérite/ Neuroleptique

3 000

Iraniens

Mars 1988

Halabjah

Ypérite/ Neuroleptique

centaines

Iraniens/ Kurdes

Les engins balistiques

L’Irak a acquis de la Soviétie 650 Scud-B et 36 véhicules de lancement ; il a lancé 350 missiles Scud et autres pendant la guerre avec l’Iran, puis 37 sur Israël, quelques-uns sur l’Arabie Saoudite pendant la guerre du Golfe et 9 pendant la seconde. En combinant la cannibalisation de Scud et la production indigène de quelques composants, les Irakiens ont construit plusieurs versions modifiées de l’engin d’origine : • le Al Hussein à propulsion liquide, de portée de 600 à 650 km, a été utilisé contre les villes iraniennes à partir de 1987 ;

356

INTRODUCTION AU SIÈCLE DES MENACES

• le Al Abbas, ou Al Hijarah, à propulsion liquide, de portée de 750 à 900 km, a été testé en 1988-1990. Les Irakiens avaient construit cinq sites fixes de lancement avec 28 rampes dans l’ouest du pays pour tirer leurs Scud sur Israël, et développé une force mobile en utilisant des camions lourds. Cette force était capable de se positionner et tirer en trente minutes, beaucoup moins que les quatre-vingt-dix nécessaires aux Soviétiques. Des charges chimiques avaient été développées pour les Al Hussein. Les deux types de missiles et leurs usines de fabrication ont en principe été détruits lors des inspections de l’Unscom, dont il n’est pas certain qu’elles aient jamais réussi à se former un tableau complet de la force balistique dont l’Irak disposait. Les inspections ont montré que les Irakiens disposaient encore d’une force redoutable après le cessez-le-feu de 1991. En effet, elles trouvèrent 62 Al Hussein intacts avec des pièces détachées de 88 autres, 6 rampes mobiles et 4 autres véhicules. Seules 14 des 28 rampes fixes avaient été détruites. Le C3 I allié, organisé sur la base d’une planification à vingt-quatre heures, ne pouvait réagir rapidement contre les véhicules mobiles. Des systèmes de télédétection comme le J-STARS ou les U-2 étaient occupés ailleurs, et de plus leurs liaisons n’étaient pas connectées au réseau de communication de la coalition. Même si à la fin des hostilités un système C3I improvisé reliait les forces spéciales au commandement de l’aviation tactique, on était bien loin encore des boucles OODA rapides qui ont été mises en œuvre en Afghanistan, dix ans plus tard. • Le SRBM appelé Al Samoud, à propulsion liquide, de portée 150 km, avait été autorisé par l’accord de cessez-le-feu de 1991. Il utilise le moteur du missile russe SA-2, dérivé du Scud, pour emporter une charge explosive de 300 kg. Il a été essayé 45 fois entre 1997 et 2002. Lors de ces essais, il a atteint la distance non autorisée par l’ONU de 183 km (parce que ne portant pas de charge utile, d’après les Irakiens). Un peu plus d’une centaine ont été produits jusqu’en 2003. Présenté à Bagdad lors d’un défilé militaire le 31 décembre 2000, il apparaît plutôt comme un objet médiatique sans vraie capacité militaire. Il n’en a pas moins été condamné à la destruction en février 2003 par les inspecteurs de l’ONU, ce qui a permis aux défenseurs des Irakiens de brandir une preuve de la bonne volonté de Saddam Hussein envers le Conseil de sécurité. À côté de cette famille d’engins, l’Irak aurait peut-être disposé d’autres moyens de tir à courte portée : • Le missile Abalil-100, à combustible solide, de portée 100 km, est resté en cours de développement.

LA MENACE

357

• Le drone tchèque L-29, qui sert de cible à la défense aérienne, a été déployé sur divers terrains d’aviation. La CIA a prétendu que les Irakiens l’avait modifié pour en faire un appareil d’épandage pour les armes chimiques ou biologiques. Aucune preuve n’a été apportée d’une transformation de ce type, dont l’éventualité fait sourire les services de renseignement israéliens. Conclusion

S’il est prouvé que l’Irak a conduit un immense programme tous azimuts d’ADM avant la première guerre du Golfe, aucune certitude n’existe sur la disponibilité de telles armes en 2003. Il est vraisemblable que les travaux avaient été interrompus depuis longtemps. La faiblesse des arguments présentés par le secrétaire d’État Collin Powel, le 5 février 2003 devant le Conseil de sécurité, comme l’incapacité des Américains à trouver la moindre trace d’armes nucléaires et même chimiques après la défaite irakienne de mars-avril 2003, laissent penser que le prétexte brandi par l’Administration Bush pour partir en guerre ne reposait sur rien : l’Irak avait été mis à genoux avant de combattre, par les bombardements et l’embargo. Scott Ritter, ancien officier de Marines, inspecteur de l’Unscom, affirme qu’à l’arrêt du programme en 1998, l’infrastructure et les équipements irakiens d’ADM avaient été détruits à 100 %26. La seconde guerre d’Irak représente une faillite de la communauté internationale à laquelle toutes les grandes puissances ont contribué27. Les États-Unis poursuivaient à la fois deux buts incompatibles, la destruction des ADM sous l’égide de l’ONU et le renversement de Saddam Hussein par leurs propres armes, et leur stratégie a été confuse. Reprenant les bombardements en 1998, ils ont fourni à l’Irak un prétexte idéal pour ne pas collaborer avec l’Unscom. Le Royaume-Uni les a suivis dans tous leurs méandres. La Russie a constamment soutenu l’Irak, comme la Chine. La France dans son obsession antiaméricaine et ses soucis commerciaux s’est alignée inconditionnellement sur la position irakienne. Or il aurait fallu une pression unanime du Conseil de sécurité pour obliger l’Irak à coopérer avec l’Unscom. L’IRAN

L’Iran a bénéficié de l’activité proliférante de la Corée du Nord, de la Chine et de la Russie, transformant sa capacité mili26. Voir réf. 23, publiée, rappelons-le, avant le déclenchement de la guerre. 27. G. Le Guelte, op. cit., p. 125.

358

INTRODUCTION AU SIÈCLE DES MENACES

taire grâce à des fournitures étrangères dans les domaines de la technologie, des essais et des systèmes d’armes, avec les conseils d’experts importés à prix d’or. Le programme d’armement nucléaire

L’intérêt iranien pour les ADM a précédé l’installation de la République islamique, car le Chah avait adopté un programme nucléaire bien avant la révolution. Quels que soient les dirigeants du pays dans l’avenir, il est plus que vraisemblable qu’ils poursuivront une politique d’acquisition de capacité ADM. Les motivations du gouvernement actuel sont : la dissuasion tous azimuts contre les attaques des pays voisins, mais aussi d’Israël et des États-Unis ; la volonté de domination dans la zone géographique, en particulier dans le golfe Persique, mais aussi dans la région de la Caspienne ; enfin le désir d’éliminer toute influence locale des États-Unis. Elles subsisteront. Officiellement l’Iran veut développer, durant la décennie en cours, un programme civil de réacteurs à eau légère dont la puissance dépasserait 6 000 MW. Le premier d’entre eux, sis à Bushehr, port au sud du pays, est aujourd’hui (2004) quasi terminé. Commencé par les ingénieurs allemands de Siemens, démoli par les Irakiens pendant la guerre, il est maintenant sous tutelle technique russe. Une première tranche doit fournir au réseau une puissance électrique de 1 000 MW à partir de 2005, mais il produira aussi du plutonium qui, après retraitement, acquerrait la qualité militaire. Le contrat russe s’élève à 800 millions de dollars ; Moscou construit quatre autres centrales à l’étranger, deux en Chine et deux en Inde. En principe, la Russie doit livrer la matière fissile qui lui sera retournée, ce qui n’est pas acquis. L’Iran dépend toujours de l’étranger, c’est-à-dire des Russes, pour la poursuite de son programme civil. La Chine, qui a fourni un petit réacteur de recherche et une unité de production de zirconium, a cessé depuis 1997, après achèvement de ces équipements, de participer au transfert de technologie nucléaire. Il a été suggéré28 que l’échec irakien à empêcher l’intervention américaine, malgré la possession d’armes chimiques et biologiques, a convaincu l’Iran que seule la capacité nucléaire pourrait lui épargner la défaite dans une confrontation avec les États-Unis. Le rapport de la première commission Rumsfeld (1998) estime que si l’Iran avait accumulé assez de matière fissile, il pour28. Michael Eisenstadt, « Living with a nuclear Iran » , Survival, automne 1999, vol. 41, n° 31, p. 124.

LA MENACE

359

rait posséder des armes nucléaires un à trois ans après avoir pris la décision de les développer. Le problème que l’Iran cherche à résoudre en priorité à l’heure actuelle est donc son approvisionnement en combustible, qu’il veut rendre complètement « indigène ». En février 2003, le président iranien Mohamed Khatami a annoncé la découverte de gisements de minerais uranifères et le début de l’extraction dans des terrains situés à 200 km de la ville de Yazd. En attendant sa mise en exploitation, l’Iran essaie de développer la production à la fois d’uranium enrichi et de plutonium, en se procurant de l’équipement, de la matière fissile et de l’expérience technique à l’étranger. Sous couvert de recherches civiles, une usine souterraine d’enrichissement, capable de produire du combustible qu’un passage ultérieur supplémentaire aux centrifugeuses rendrait de qualité militaire, est en voie d’achèvement (2003) à Natanz, à 320 km au sud de Téhéran. Le gouvernement iranien, après avoir refusé de laisser inspecter l’usine de Natanz, a organisé, le 21 janvier 2003, une visite pour le directeur de l’IAEA, qui a constaté sur le site l’existence d’un réseau de centrifugeuses. Des inspecteurs ont alors été autorisés à effectuer des prélèvements. Il a fallu attendre août 2003 pour que Téhéran avoue sa décision, prise en 1985, de procéder à un programme d’enrichissement d’uranium par centrifugation sans le notifier à l’IAEA. Auraient alors été achetés au Pakistan les plans de centrifugeuses de type P 129. Ces machines ont été copiées et de nombreux exemplaires en ont été montés, aussi bien à Natanz que sur les bases de l’armée, ce qui suppose l’implication de tout l’appareil d’État. En 1994, l’Iran a acheté au Pakistan les plans des machines P 2 plus puissantes, mais, incapables de fabriquer les rotors en acier, les Iraniens ont essayé de développer, à Kolahdouz dans la banlieue de Téhéran, une version indigène en fibre de carbone, qui est restée au stade artisanal. Ils n’en ont pas moins continué l’installation d’unités indigènes, puisqu’ils en ont encore assemblé cent vingt unités entre novembre 2003 et février 2004. L’IAEA se demande si l’Iran a pu acquérir par la filière pakistanaise, comme la Libye, des plans de tête nucléaire. Elle a découvert à Natanz des traces d’uranium enrichi, sur des centrifugeuses « indigènes », ce qui contredit la thèse iranienne d’une contamination préliminaire à l’étranger. Ni la présidence ni le ministre des Affaires étrangères n’auraient été informés de l’avance technique du pays dans le domaine nucléaire. Le président Khatami s’inquiéterait d’une « alliance de la folie » entre les extrémistes de Téhéran et de Washington. Malgré ces protestations, la similitude avec le pro29. Voir p. 369.

360

INTRODUCTION AU SIÈCLE DES MENACES

gramme nucléaire libyen fait soupçonner l’existence d’un volet nucléaire clandestin à usages militaires. Bien que signataire du NPT en 1970, l’Iran n’a déclaré qu’en 2003 la moitié de ses vingt-quatre installations nucléaires déjà construites ou en cours de projet sur une dizaine de sites différents ; Téhéran a aussi admis avoir séparé du plutonium, ce qui peut pousser l’Arabie Saoudite, voire la Turquie, à se doter de capacités similaires, tout en renforçant la détermination de ceux qui les possèdent déjà, Israël et Pakistan, au demeurant non signataires du NPT. Peut-être impressionné par l’agressivité américaine et la seconde guerre d’Irak, l’Iran a accepté de négocier avec les ministres des Affaires étrangères d’Allemagne, de France et du Royaume-Uni. Le 21 octobre 2003 à l’occasion d’une visite de ces derniers, Téhéran a un peu levé le voile sur ses activités nucléaires, annoncé l’arrêt de la fabrication d’uranium enrichi et rendu publique sa décision d’accepter le protocole additionnel au NPT, effectivement signé le 15 décembre. En contrepartie, les Européens ont garanti une assistance technique. Reste à voir si les ayatollahs conservateurs qui dirigent le pays parviendront à poursuivre les travaux dans le secret. Les omissions persistantes et les mensonges de Téhéran « préoccupent gravement » l’IAEA. Les programmes d’armement chimique et biologique

Commencé au début des années 1980 en réponse à l’emploi de gaz par l’Irak pendant la guerre, le programme d’armes chimiques de l’Iran compte parmi les plus importants des pays en voie de développement et a continué de croître et de se diversifier depuis la signature par Téhéran de la convention CWC en janvier 1993, non suivie de ratification. Les stocks comprennent plusieurs milliers de tonnes d’agents chimiques tels que l’ypérite, le phosgène et des produits cyanurés, dont la production atteint mille tonnes par an, alors qu’une capacité de fabrication de neuroleptiques est en cours d’établissement. L’Iran possède les moyens de dissémination y compris des obus de mortier, des fusées, des bombes larguées d’avion et peut-être des têtes de Scud. Il existe quelques indices d’une assistance chinoise pour la construction de l’infrastructure et la fourniture de matières premières pour la fabrication des produits. Le programme iranien d’armes biologiques a lui aussi débuté dans les années 1980, pendant la guerre avec l’Irak. Ayant cherché à acquérir au Canada et aux Pays-Bas des souches de champignons qui auraient permis la fabrication de toxines, l’Iran se serait intéressé aux mycotoxines, à la fièvre aphteuse, au bacille du charbon et à la toxine botulinique, avec l’aide de spécialistes

LA MENACE

361

ex-soviétiques. La production aurait commencé en 1996, et des stocks constitués, bien que le pays ait adhéré à la BWC. Les missiles balistiques

Pendant les hostilités entre l’Irak et l’Iran (1980-1988), l’Iran bombardé par les Scud-B de Saddam Hussein, en a acheté à la Corée du Nord et en tira 77 pendant la seconde « guerre des cités » de 1988 (250 tirs d’après d’autres sources). Ces missiles coréens désignés Shahab-1 avaient été en fait développés en Égypte, où ils avaient subi une rétro-ingénierie au début des années 1980. L’Égypte soutenait pourtant vigoureusement l’Irak du moins par son discours. À partir de 1991, l’Iran achète à la Corée du Nord près de 200 Scud-C baptisés Shahab-2, et s’engage dans la production de missiles balistiques, à l’aide d’installations industrielles construites par des ingénieurs chinois et nordcoréens. D’abord limitée à l’assemblage de composants livrés, elle aboutit en 1995 aux essais en vol de deux missiles dérivés du M-9, l’Iran 700 (500 kg à 700 km) et Tonder-68 (500 kg à 1 000 km), programmes arrêtés lorsque la Chine a cessé d’exporter des M-9 sous la pression américaine. L’Iran mène aujourd’hui un effort de développement inégalé au Proche-Orient dans le domaine des missiles balistiques. Tout d’abord, des centaines de missiles à courte portée (150 km avec charge de 190 kg) qui seraient des CSS-8 chinois, ont été déployés aux frontières, visant l’Irak et certaines cibles du golfe Persique. Le Hezbollah a importé d’Iran au Liban près de dix mille missiles dérivés de la Katyusha, le Fajr 3 de portée 50 km et le Fajr 4 de portée 70 km. Même si la précision en est très mauvaise, une salve de ces engins sur Israël ne manquerait pas de causer des dégâts. Au milieu des années 1990, l’Iran s’était tourné vers la Corée du Nord, possédait au moins une douzaine de Nodong et avait obtenu le soutien d’ingénieurs russes et chinois pour faire subir à cet engin la très importante rétro-ingénierie qui a donné naissance au missile iranien mobile Shahab-3, dont la portée atteint 1 100 km. Après deux échecs au lancement en juillet 1998 et le 15 juillet 2000, un essai réussi le 21 septembre 2000 a conduit au déploiement de ce MRBM qui peut frapper Israël, l’Arabie Saoudite et la Turquie avec une charge utile de 750 kg, capacité nucléaire. En juillet 2003, le président Khatami a annoncé que trois missiles opérationnels avaient été livrés aux forces armées. Le Shahab-4 était un projet de missile à trois étages dérivé du SS-4 soviétique, censé porter 1 000 kg à 2 000 km, que l’Iran prétendait développer comme lanceur de satellites. Il serait arrêté. Les

362

INTRODUCTION AU SIÈCLE DES MENACES

services de renseignement n’excluent pas l’achat ou le développement du Taepo Dong-2 qui donnerait une capacité ICBM à l’Iran. Les Iraniens gardent en fait ouvertes des options variées : la filière Scud qui les a conduits au Shahab-3 ; la filière russe venant des SS-4 ou SS-5 et qu’il faut réactualiser, la filière coréenne qui peut les amener au TP-1 pour le lancement de satellites ou TP-2 pour un ICBM. Enfin, il semble bien qu’ils développent une capacité de propulsion solide. Tout cela est contenu dans le vocable Shahab-5. La première Commission Rumsfeld avait conclu en 1998 : « L’Iran possède aujourd’hui la capacité technique et les ressources nécessaires à la démonstration d’un ICBM similaire à Taepo Dong-2, cinq ans après la prise de décision. » Un Taepo Dong-2 permettrait le bombardement nucléaire des États-Unis aussi bien que la mise en orbite de charges symboliques. Conclusion

Entouré d’ennemis, l’Iran, dont la population comptait 71 millions d’habitants en 2001, en comptera 95 millions en 2025 et 121 en 2050, avec un revenu aujourd’hui de 15 dollars par tête et par jour, poursuit un programme proliférant vigoureux qui l’amènera au statut de puissance nucléaire avant 2010. En février 1999, les États-Unis ont imposé des sanctions à dix institutions techniques russes pour avoir fourni à l’Iran des technologies liées aux ADM. En avril 2000, ils en ont infligé à la corporation nord-coréenne Changwong Simyong et à quatre institutions iraniennes pour activités proliférantes en technologie de missiles. L’Iran, non content de s’équiper, s’apprête à devenir un proliférateur secondaire. En 2000, le directeur de la CIA, George Tenet, a déclaré devant la Commission des Armées du Sénat américain : « L’existence de l’Iran en tant que fournisseur secondaire de technologie de missiles est la tendance qui m’inquiète le plus. » En particulier, le développement de missiles à propulsion solide représente une menace, car seuls de tels engins ont une véritable valeur militaire. Les États-Unis ont fait deux fois la guerre à l’Irak parce qu’ils voulaient l’empêcher de devenir une puissance nucléaire. Dans combien de temps l’Iran leur apparaîtra-t-il à son tour comme une menace à éliminer ? Et que feront-ils alors ? LA CORÉE DU NORD

:

LES ARMES NUCLÉAIRES

Nous avons déjà présenté le programme de missiles balistiques poursuivi par la RPDC considérée comme un proliférateur30, 30. Voir p. 341.

LA MENACE

363

et nous nous bornerons donc ici à discuter son aspect proliférant dans le domaine nucléaire. Les prédictions sur l’évolution de ce pays se sont toutes révélées fausses. Sa cohésion s’est renforcée avec le temps, il s’est muni d’armes « indigènes », il a obtenu des avantages politiques par une stratégie à long terme. Dans le domaine des ADM, sa posture présente un mélange entre l’acceptation de certaines interdictions et leur transgression : d’une part, il s’est livré et se livre à une exportation de missiles extrêmement déstabilisante, mais non interdite ; d’autre part, il a signé le NPT, puis il a amorcé son retrait en 1993, puis il a suspendu son retrait pour se retirer à nouveau en 2001. Sous l’attitude souvent abrupte et imprévisible de dirigeants sûrs de leur pouvoir, on discerne un dessein poursuivi de longue date avec ténacité. Beaucoup d’acteurs ont participé à la prolifération nucléaire de la Corée du Nord : la Russie au début et la Chine récemment, qui livrerait à nouveau les produits chimiques nécessaires au retraitement du plutonium. Des pays du Proche-Orient ont fourni les moyens financiers, en échange de la contribution balistique des Coréens. Un accord avec le Pakistan, conclu avant 1996, lui aurait procuré des plans de bombe et des centrifugeuses. Aujourd’hui le pays possède de solides compétences scientifiques et techniques. Dans les années 1980, la RPDC souhaitait sortir de son isolement. Kim Il-Song, son dictateur à l’époque, croyait que son programme nucléaire lui donnait un atout dans la négociation, mais l’administration Bush I posait l’abandon de ce programme comme une condition préalable à la négociation. La suite a découlé de cette contradiction. Les États-Unis ont empêché le Japon et la Corée du Sud de se rapprocher de la RPDC, et les Nord-Coréens en ont déduit qu’ils n’avaient pas d’autre choix que de négocier directement avec les États-Unis, le décideur ultime. Comme tous les États à ambitions nucléaires, la Corée du Nord poursuit un programme civil et un programme militaire plus ou moins avoué. Elle a négocié au début des années 1990 un accord avec la Corée du Sud qui établissait les bases d’un système mutuel d’inspection destiné à empêcher l’enrichissement de l’uranium, sans aboutir à une signature. Elle a surtout conclu en 1994 avec les États-Unis l’accord dit Framework Agreement par lequel elle s’engageait à limiter et même, en fait, à arrêter, son effort nucléaire militaire, en échange de la livraison, d’une part de cinq cent mille tonnes de mazout par an, et d’autre part d’uranium destiné à ses centrales civiles. La Corée du Nord devait :

364

INTRODUCTION AU SIÈCLE DES MENACES

• au centre de Yongbyon, arrêter son petit réacteur expérimental de 5 MWt du type graphite-gaz, qui a divergé en 1987, capable de produire du plutonium et très proliférant, et ne pas continuer à développer sa capacité déjà très avancée d’extraire le plutonium ; • à Pyongyang, ne pas développer les équipements de laboratoire qui auraient permis l’extraction de plutonium ; • au centre de Taechon, arrêter la construction d’un réacteur de puissance de 200 MWt ; • au centre de Kumho, développer sous direction américaine deux réacteurs à uranium enrichi et eau légère de 1 000 MWe chacun, non proliférants, c’est-à-dire sans capacité de fabrication de matériau fissile. À l’abri de cet accord, la Corée du Nord a obtenu des avantages diplomatiques tels que la visite du président suédois de la CE, ou celle du Premier ministre japonais Koizumi en septembre 2002, avantages qui comptent beaucoup pour ce pays assoiffé de reconnaissance. L’arrivée au Congrès d’une majorité républicaine anti-Clinton à la fin de 1994 a bloqué la part américaine de l’accord, ralentissant entre autres la construction des deux réacteurs, dont le premier a pris dix ans de retard. L’accord Framework exigeait que la Corée du Nord dévoilât les résultats acquis sur le plutonium avant la mise en place des composants nucléaires des réacteurs, et complétât l’accord avec la Corée du Sud sur l’interdiction de l’enrichissement de l’uranium. Ni l’une ni l’autre de ces conditions ne furent remplies. Washington refusa de livrer les charges nucléaires et Pyongyang accuse les Américains de ne pas tenir leurs engagements. En mars 2001, le président Bush II a voulu se dégager de toute négociation avec la RPDC ; il a rompu ou réinterprété les accords passés par l’Administration Clinton avec elle et l’a rangée dans l’axe du mal avec insultes gratuites à l’égard du nouveau président Kim Jong-Il. Son seul objectif vis-à-vis de Pyongyang est d’obtenir l’arrêt de son programme nucléaire, qui serait imposé par une coalition composée de la Chine, de la Corée du Sud, du Japon et de la Russie réunis autour des États-Unis. Les deux États s’opposent donc sur le fond comme sur l’habillage diplomatique. Les États-Unis ont toujours soupçonné la Corée du Nord d’entretenir de noirs desseins. Or Pyongyang recherche avant tout une normalisation diplomatique pérennisant la coupure de la péninsule, accompagnée d’assurances de sécurité et d’une assistance économique. Le pays dépend de l’aide alimentaire internationale fournie par le World Food Program de l’ONU, dont la

LA MENACE

365

moitié du tonnage a été fournie en 2002 par les États-Unis. Il ne veut traiter qu’avec Washington, dans un cadre strictement bilatéral et en obtenir un pacte de non-agression. Pour atteindre cet objectif à long terme, il s’est engagé dans une étonnante politique de chantage nucléaire devant laquelle les États-Unis sont obligés de louvoyer, car les 37 000 hommes qu’ils maintiennent en Corée du Sud, pour la plupart au voisinage de la ligne de démarcation, jouent le rôle d’une « chèvre au piquet » devant les Nord-Coréens, dont la puissante artillerie pourrait tirer quatre cent mille obus dans la première heure, chargés au sarin et au charbon. L’agglomération de Séoul, qui compte vingt-trois millions d’habitants, est sous le feu de leurs canons. Pyongyang semble appliquer la boutade du général de Gaulle : « L’arme nucléaire, je l’utilise tous les jours. » Dès la mi-août 1998, les satellites américains avaient repéré de vastes chantiers souterrains à Kumchang et à Taechon, à une quarantaine de kilomètres de Yongbyon. En juin 2002, d’autres images satellitales dévoilèrent l’importation d’éléments destinés à des centrifugeuses, expédiés par le Pakistan à partir de Kahuta. Démentie par le Pakistan, la livraison de ces matériels voués à s’intégrer dans le programme d’enrichissement de l’uranium, se serait effectuée en échange de la cession par Pyongyang à Islamabad de technologies propres à la conception des missiles. D’après un rapport de la CIA remis au Congrès le 22 novembre 2002, Pyongyang serait capable de mettre au point quelques bombes au plutonium et se serait lancé parallèlement dans l’enrichissement de l’uranium qui n’aboutirait pas avant une durée de trois à cinq ans. Les Nord-Coréens ont le loisir de choisir une troisième option, la bombe sale, en incorporant des produits de fission du plutonium 239 ou de l’uranium 235 tels que le césium 137, le strontium 190 et le cobalt 60. Avant de signer le Framework Agreement, la Corée du Nord avait secrètement mis de côté huit mille barreaux de combustible irradié sorti du réacteur de Yongbyon, quantité suffisante pour produire plusieurs bombes. Il suffit, pour y parvenir, de séparer chimiquement le plutonium des autres éléments contenus dans le barreau. En juillet 2003, elle annonce la séparation terminée. La capacité de production du réacteur de Yongbyon à plein régime atteindrait une bombe par mois. Le bras de fer diplomatique se poursuit avec des péripéties variées. Après le premier tir du Taepo Dong en 1998, les États-Unis ont discrètement obtenu que le tir suivant fût repoussé d’un an, puis le moratoire a été étendu jusqu’à la fin du mandat de Kim Doe Jong, président de la Corée du Sud. Quelques heures avant la pres-

366

INTRODUCTION AU SIÈCLE DES MENACES

tation de serment de son successeur Roh Moo-Hyun, le 26 février 2003, les Nord-Coréens ont lancé sans succès un missile air-mer chinois Silkworm. Un second engin lancé le 11 mars 2003 a franchi une distance de 110 km dans la mer du Japon. Il est certain que la RPDC a violé le NPT sans se cacher, en enlevant les équipements mis en place par l’IAEA pour surveiller la centrale de Yongbyong et en portant les barres contenant du plutonium à l’usine de retraitement. Le 4 octobre 2002, Jim Kelly, assistant secrétaire d’État, a présenté aux Nord-Coréens la preuve qu’ils poursuivent clandestinement un programme parallèle d’enrichissement de l’uranium. Ses interlocuteurs ont riposté le 18 octobre suivant, non en niant, mais en confirmant l’existence depuis trois ans de leur effort secret pour mettre au point par centrifugation une bombe à uranium avec l’aide du Pakistan, puis ont fait allusion à un puissant développement d’armes chimiques et biologiques, enfin ont déclaré caduc le Framework Agreement. En février 2003, des images satellitales américaines ont montré que le travail avait repris, à Yongbyong, aussi bien sur le réacteur que sur l’usine de retraitement, estimée capable de produire assez de matière pour cinq bombes d’ici l’été. Dans quelques années, la Corée du Nord pourra fabriquer environ soixante bombes par an, et le matériau fissile est si compact qu’il pourrait être aisément vendu et envoyé clandestinement à l’Irak, à l’Iran, à la Libye, à la Syrie et… à Al-Qaida. La Corée du Nord est probablement en mesure de produire des quantités limitées d’armes biologiques. Selon les services de renseignement américains et russes, les agents pathogènes retenus seraient le bacille du charbon, du choléra, de la peste, de la variole31. Peut-être doit-on considérer la politique de Pyongyang comme une posture diplomatique extrême ; un des États les plus archaïques du monde parviendra-t-il à obtenir un compromis, qui arrêterait ses armements au stade actuel, en échange d’une énorme aide économique internationale, légitimant ainsi son acquisition illégale d’ADM ? Cependant, même si la crise se résolvait par une négociation réussie, la synergie entre la Corée du Nord et le Pakistan crée une situation lourde de dangers. LE COUPLE INDE-PAKISTAN

Une des ignominies du XXe siècle a été la duplicité de l’Angleterre qui, croyant sauvegarder une partie de son pouvoir, a orga31. D. Leglu, op. cit., p. 293.

367

LA MENACE

nisé l’accession des Indes à l’indépendance de façon à créer deux États ennemis, l’un à majorité hindouiste et l’autre à majorité mahométane. Les deux rivaux se disputent surtout le Cachemire pour lequel ils se sont fait la guerre en 1947-1948 et en 1965 ; une confrontation violente en 1990 et des escarmouches en 1999 entretiennent fanatisme et hostilité. Non seulement l’Inde et le Pakistan se sentent menacés l’un par l’autre, mais ils sont habités par de profonds complexes d’infériorité engendrés par l’ancienne domination britannique, dont les conséquences n’ont pas disparu. Un terreau fertile les prédisposait donc à s’engager sur la voie de la puissance nucléaire. Il ne faut pas oublier, parmi les facteurs perturbateurs, la crainte inspirée à l’Inde par l’expansionnisme chinois. Cependant les considérations de sécurité d’une part, de prestige de l’autre, n’auraient peut-être pas suffi à justifier une politique de prolifération s’il n’avait existé des hommes qui, ici comme ailleurs, et le général de Gaulle vient à l’esprit comme un exemple type, ont su incarner le mythe prométhéen de la science utilisé comme emblème et comme garant de la puissance nationale. Peter Lavoy32 a insisté sur l’importance des créateurs de mythes, « les individus qui exploitent les menaces à la sécurité d’un État ou les possibilités d’augmenter son prestige global afin de rendre plus irrésistibles les mythes de la sécurité nucléaire ou de l’influence nucléaire ». Ces personnalités exceptionnelles permettent de vaincre l’immobilisme de la pensée et de l’action qui règne habituellement dans toute classe dirigeante, et de galvaniser les leaders d’un pays par « une croyance invérifiable en la relation entre la politique d’armements nucléaires menée par un État et sa sécurité, son prestige et surtout sa puissance ». L’homme qui remplit ce rôle en Inde fut Homi Bhabha, que j’ai bien connu, physicien nucléaire, fondateur de l’Institut Tata de recherche fondamentale, assez charismatique pour influencer le Premier ministre Jawaharlal Nehru. La course nucléaire

Un exposé chronologique paraît la méthode la plus claire pour présenter des évolutions au fond assez simples. Évolution en Inde 1948

Création de l’Atomic Energy Commission pour l’exploitation du minerai d’uranium.

32. Peter Lavoy, Learning to live with the Bomb, Ithaca, Cornell University Press, 2000.

368 1956 1963

1964 1965

1968 1974

1976

1992 11-13 mai 1998

INTRODUCTION AU SIÈCLE DES MENACES

Accord avec le Canada pour la construction d’un réacteur à eau lourde de 40 MWt. Mise en service de deux centrales de 210 MWt à eau bouillante construite sous la direction de General Electric à Tarapur. Démarrage opérationnel de l’usine de reprocessing du plutonium à Trombay. Explosion de la première bombe atomique chinoise. L’AEC indienne propose au gouvernement d’entreprendre un programme d’explosions nucléaires souterraines. L’Inde refuse de signer le NPT. L’Inde procède à une « explosion nucléaire pacifique » de puissance 15 kilotonnes qui augmente fortement la popularité du Premier ministre Indira Gandhi. Le Canada arrête formellement sa coopération dans le domaine nucléaire ; la Soviétie prend le rôle de fournisseur d’eau lourde. L’usine de Mysore commence à produire de l’uranium enrichi par centrifugation. L’Inde procède à l’explosion de cinq bombes à Pokhran dans le désert de Thar et se déclare État nucléaire. Elle disposerait aujourd’hui (2003) de 30 à 35 têtes nucléaires.

Évolution au Pakistan 1er juin 1972

1975

1976 1977 1979

Le président du Pakistan Zulfikar Ali Bhutto décide secrètement d’entreprendre un programme d’armes nucléaires. Le Canada fournit le réacteur de la centrale de Karachi, l’eau lourde et l’usine de production d’eau lourde. Dès 1965, Bhutto avait déclaré que « le Pakistan mangerait de l’herbe si nécessaire pour répondre à une bombe indienne ». Démarrage du centre de recherches de Kahuta avec le retour au pays d’Abdul Kadeer Khan, qui dirigera pendant vingt-sept ans les développements d’armes nucléaires et aussi de missiles. Le Canada arrête la fourniture de combustible nucléaire. La RFA et le Royaume-Uni vendent des matériels clés pour l’enrichissement. Les États-Unis découvrent l’importation de très importants matériels pour l’enrichissement, et imposent des sanctions économiques au Pakistan.

369

LA MENACE

1981

1984 1985

28-30 mai 1998

Le président Reagan lève les sanctions et accorde une aide généreuse au Pakistan afin de soutenir son effort militaire en Afghanistan contre la Soviétie. Le Pakistan procède à des essais à froid de bombe nucléaire. L’amendement Pressler voté au Congrès impose des sanctions économiques au Pakistan à moins que la Maison Blanche ne certifie, chaque année, que le Pakistan n’a pas entamé de programme nucléaire militaire. Ces certificats seront accordés jusqu’au 6 octobre 1990, date à laquelle des sanctions seront rétablies : la guerre en Afghanistan semble terminée… Outré par l’absence complète de réactions internationales à l’explosion des bombes indiennes, le Premier ministre pakistanais Nawaz Sharif fait mettre à feu six bombes du modèle utilisé par les Chinois lors de leur essai de 1965, de puissance variable estimée les unes à 4-6 kilotonnes, les autres à 9-12 kilotonnes. Le Pakistan disposerait aujourd’hui (2003) de 25 à 50 bombes.

Le Pakistan, proliférateur nucléaire

L’enrichissement de l’uranium par centrifugation se fait avec des machines tournantes, dont le rotor, constitué d’aluminium dans les premiers modèles, dits P 1, est fabriqué en acier spécial dans les modèles plus récents, dit P 2, dont la vitesse est double de celle de P 1. Pour une chaîne de fabrication de bombes, il en faut un bon millier, groupé en « cascades ». Abdul Kadeer Khan, né à Bhopal en 1936, ingénieur métallurgiste formé en Allemagne, a travaillé à partir de 1972 chez Urenco, un consortium anglo-germano-néerlandais qui gérait à Armelo une usine d’enrichissement. Il en serait parti en 1975, en emportant matériel et documents, pour recevoir d’Ali Bhutto la direction de l’ERL (Engineering Research Laboratory), chargé de la mise au point de la bombe au sein de la Commission de l’énergie atomique du Pakistan (PAEC). Le laboratoire était sis à Kahuta, à une quarantaine de kilomètres d’Islamabad. Dès 1976, Abdul Kadeer Khan monta un réseau d’achat groupant une centaine d’entreprises principalement anglaises et allemandes, qui s’empressèrent de lui fournir des équipements pourtant classés comme « sensibles », de sorte qu’en 1980 il aurait déjà disposé de mille centrifugeuses. À son avènement en 1979, le Premier ministre Zia ul-Haq lui accorda tout ce qu’il voulait. Son laboratoire fut baptisé Khan Research Laboratory en 1981. La Chine aurait fourni des plans de

370

INTRODUCTION AU SIÈCLE DES MENACES

bombe en 1983. En 1984, le KRL et le PAEC en rivalité procédèrent chacun à un essai de bombe à froid. Vers 1988, Abdul Kadeer Khan transforme son réseau d’achat en réseau de vente et crée ce qui a été appelé en 2003, lorsqu’il a été découvert, le Wal Mart clandestin de la prolifération nucléaire, capable de fournir des matériels et même des matériaux fissiles, utilisables pour des armes, à des pays intéressés par leur achat illicite. Commandant à l’étranger deux fois plus d’équipements que n’en requérait le programme pakistanais, il revendait le surplus, machines, pièces détachées, plans et schémas de bombe. Nationaliste intransigeant, Abdul Khadeer Khan aurait été motivé par le désir de tromper les Occidentaux, l’affection pour les États musulmans et surtout, d’après le président Musharraf lui-même, l’appât du gain. Car Abdul Khadeer Khan, après avoir manié sans contrôle entre cinq et dix milliards de dollars en vingt-cinq ans, est devenu colossalement riche. Dès 1987, il se serait engagé envers l’Iran à fournir assez de centrifugeuses P 1 pour la fabrication d’une trentaine de bombes par an, mais n’aurait livré, à partir de 1989, que du matériel usagé et déjà contaminé. Ensuite vint l’installation de centrifugeuses en Corée du Nord, en échange de la technologie des missiles Nodong, et, enfin, en 1997, la Libye qui au début se serait contentée de P 1, a essayé d’obtenir des P 2 avec un objectif de dix bombes par an. Un ensemble similaire de centrifugeuses et de plans de bombe semble avoir été vendu pour 100 millions de dollars aux trois pays Iran, Corée du Nord et Libye. Le réseau Abdul Khadeer Khan est centré sur Dubaï, où le cinghalais Bukari Sayed Abou Tahiri, que le président Bush II a traité de directeur financier et principal blanchisseur, dirige la société écran SMB Computer. Tahiri admet avoir livré à l’Iran des pièces de centrifugeuses pour plusieurs millions de dollars. Le programme libyen, initié par un accord de 1997 entre Tahiri et le vice-Premier ministre libyen Mohamed Matak Mohamed, portait sur de la matière fissile et des centrifugeuses, impliquant des fournisseurs turcs, allemands, suisses et britanniques, même peut-être kazakh (pour l’uranium enrichi). Ainsi un avion pakistanais a-t-il apporté en Libye, en 2001, de l’hexafluorure d’uranium. Par l’intermédiaire de Tahiri, l’usine Scomi Precision Engineering (Scope), sise à Kuala Lumpur, a livré entre décembre 2002 et août 2003 pour 3,4 millions de dollars de composants d’intérêt nucléaire à Gulf Technical Industries, une autre société écran de Dubaï, liée à Peter Griffin, un Anglais associé à Abdul Khadeer Khan depuis 1980. Scope fait partie du groupe Scomi, dont Kamahuddin Abdullah, seul fils du Premier ministre de Malaisie Abdullah Ahmed Balawi, est le principal actionnaire. Pendant

LA MENACE

371

l’été de 2003, un chargement destiné à la Libye a été suivi par la CIA de Kuala Lumpur à Dubaï, puis saisi par les Égyptiens à son passage du canal de Suez sur requête des États-Unis. Il ne faut pas nourrir d’illusions : les informations contenues sur des CDROM sont aussi importantes que les caisses de matériel, et elles passent inaperçues. Après l’abandon de son programme ADM par Kadhafi à la fin de 2003, Abdul Khadeer Khan s’est livré à une confession publique le 4 février 2004. Présenté comme un héros national, le père de la bombe et des missiles pakistanais a été absous et complimenté dès le lendemain par le président Pervez Musharraf. Musharraf a prétendu qu’il suspectait son principal savant depuis trois ans, d’où sa mise à l’écart à la fin de 2000, en fait exigée par les Américains. Car cette histoire est en partie connue des services de renseignement depuis son début. On ne fera pas l’erreur de croire qu’une telle opération, qui exigeait l’emploi d’avions et de bateaux, ait pu se dérouler si longtemps sans l’aide du gouvernement pakistanais, et surtout de l’ISI, dont on reconnaît la patte à l’organisation de la filière de Dubaï. Cependant elle présente le caractère nouveau d’une prolifération subétatique, qui pourrait se répandre. Les missiles

Les missiles de l’Inde. Au début des années 1960, un homme charismatique, physicien spécialiste des rayons cosmiques, qui se trouvait être mon ami intime, Vikhram Sarabhaï, s’était persuadé que l’espace pourrait jouer un rôle majeur dans le développement de l’Inde, en lui permettant d’opérer des sauts qualitatifs qu’il appelait leap froging. Ensemble, nous avons travaillé à l’élaboration de projets ambitieux de satellites de télécommunication et d’éducation des villages par télévision, qui devaient se réaliser pendant les années 197033. C’est ainsi que j’ai été amené à participer à l’équipement du premier champ de tir indien à Thumba près de Trivandrum (aujourd’hui Centre Vikhram Sarabhaï), et à y tirer les premières fusées-sondes en 1963-1964. Le CNES reçut de nombreux ingénieurs indiens dans sa division Lanceurs au centre technique de Brétigny. Ils y apprirent la technologie du Diamant qui leur permit de mettre au point leur fusée SLV-3 dont la première mise en orbite prit place le 18 juillet 1980, à partir de leur base de Sriharikota sur les rives du golfe du Bengale. Les 33. Jacques Blamont, « Une nouvelle politique d’aide aux pauvres. Un programme de satellites pour l’éducation des masses et l’amélioration de la production agricole », Le Monde, 27 décembre 1967.

372

INTRODUCTION AU SIÈCLE DES MENACES

gros lanceurs civils indiens utilisent les moteurs français à propulsion liquide Viking développés pour Ariane. J’avais eu l’occasion de constater par moi-même lors de rencontres avec Mme Indira Gandhi, l’influence qu’exerçait sur elle Vikhram, aristocrate aimable, fils d’un grand industriel d’Ahmedabad qui avait subventionné le Mahatma. Il obtint en 1969 la création d’une agence spatiale, Indian Space Research Organization ou ISRO, organisée de façon très semblable au CNES, sa propre nomination à la tête de l’ISRO, puis à la tête de l’Atomic Energy Commission frappée par la mort de Bhabha dans un accident d’avion, enfin à la tête de la Commission for Electronics, la troisième agence d’objectif de l’Inde, ce qui faisait de lui le czar de tout le développement scientifique et technique du sous-continent, avant de mourir soudainement dans son lit en 1971. L’Inde, dirigée par des humanistes, ne semblait pas encore saisie par la frénésie de la prolifération, et c’est la raison pour laquelle nous avons pris plaisir à l’aider. Tout devait changer avec le succès du SLV-3 qui attisa les désirs des militaires indiens. Dès 1979 commença le développement d’un missile balistique, l’IRBM bi-étages dérivé du SLV-3 appelé Agni-1, dont le premier étage utilise des ergols solides et le second des liquides, capable d’emporter une charge utile de une tonne à la distance de 1 500 km. Le premier essai a eu lieu en 1989. Officiellement abandonné en 1995, le missile est considéré par l’Inde comme une démonstration technologique. Après un hiatus de cinq ans, un Agni-2, bi-étages à combustibles solides a été essayé le 11 avril 1999, démontrant une portée de 2 400 km. À cette occasion, le ministre de la Défense George Fernandes déclara, pensant peut-être à la Chine : « Nous avons atteint un point où personne ne peut plus nous menacer. » Les missiles Agni ne sont peut-être pas déployés aujourd’hui (2003). Là comme en Iran, le passage à la technologie solide trahit une escalade vers l’efficacité militaire. Pour la confrontation avec le Pakistan, l’Inde a développé, à partir de 1983, un système mobile tout à fait différent, un SRBM mono-étage à combustible liquide. L’Inde a ici réinventé le Scud ; bien qu’utilisant une technologie étrangère pour la propulsion et le guidage, l’engin, complètement indigène, est capable d’emporter une tonne à 150 km. Essayé avec succès en 1988, sa version pour l’armée de terre, dite Prithvi 1, a été déployée (20 à 25 engins) à Jalandhar à la frontière pakistanaise. Une version pour l’armée de l’air, le Prithvi 2, emporte 500 kg à 250 km. Une version marine en développement, appelée Dhanusch, atteindrait 350 km.

LA MENACE

373

D’après les déclarations de ses dirigeants, appuyées par ses réalisations, l’Inde veut briser le carcan du MTCR. Son action, comme celle des autres proliférateurs, contribue à l’affaiblissement croissant du système des traités contre-prolifération. Les missiles du Pakistan. En même temps que le CNES tirait à Thumba des fusées-sondes à deux étages, les Centaure, pour l’étude de la haute atmosphère, nous menions un programme similaire avec SUPARCO, l’agence spatiale du Pakistan, qui ne disposait de rien mais voulait beaucoup apprendre de nous. En mai 1967, lors de nos tirs de la base de Sunmiami, à environ 150 km au nord-ouest de Karachi dans le Baloutchistan, j’avais pu constater le fanatisme nationaliste de nos interlocuteurs. On ne parlait pas encore d’islamisme, mais leur ferveur inquiétait déjà. Ils nous le montrèrent en achetant dans notre dos la licence de la fusée Dragon, une extrapolation du Centaure mis au point par la Société Sud-Aviation sur contrat CNES, qui portait 100 kg à l’altitude de 350 km, et en montant une usine qui pouvait fabriquer quatre cents de ces engins ! Non guidé, le Dragon, développé pour la recherche, ne répondait à aucun besoin d’un pays dont la communauté scientifique était inexistante. On ne pouvait imaginer un autre emploi que le bombardement indiscriminé d’une vaste zone urbaine. L’anecdote restera pour moi une énigme, car elle conduisit à la rupture de nos relations, et j’ignore ce qu’il advint du programme, si ce n’est qu’un premier Dragon indigène, lancé le 28 avril 1972, atteignit l’altitude de 400 km. Mais il manquait un Sarabhaï au Pakistan. Vers 1990, le Pakistan était en bonne voie de maîtriser la technique de l’arme nucléaire, mais ne possédait rien en fait de missiles, alors que l’Inde développait à la fois vecteur et bombe. Après avoir essayé en janvier 1989 deux missiles indigènes, les Hatf-1 et Hatf-2, engins mono-étage à carburant solide, emportant 500 kg à respectivement 60 et 280 km, le Pakistan obtint de la Chine en 1991 des missiles M-9. Mais peu après la Chine s’engagea à appliquer le MTCR, et, lorsqu’au début de 1993 elle fut approchée par le Premier ministre pakistanais en visite à Beijing, elle renvoya les quémandeurs vers la Corée du Nord. Abdul Kadeer Khan fit en 1993 la première de ses treize visites à Pyongyang. Une complémentarité s’établit entre la capacité nucléaire du Pakistan et la capacité en missiles de la Corée du Nord. En 19971998 commença le programme d’enrichissement en uranium de Pyongyang et le 31 août 1998 eut lieu le fameux premier tir du Taepodong-1. Quasi simultanément prit place le premier tir pakistanais : le 6 avril 1998, le MRBM appelé Ghauri-1, fut lancé

374

INTRODUCTION AU SIÈCLE DES MENACES

à partir de Jhelun, à 100 km au sud-est d’Islamabad, et franchit 1 100 km jusqu’à Quetta avec une charge de l’ordre de 700 kg. Le fait qu’il ait été tiré au-dessus de zones habitées démontre qu’il avait été testé auparavant. L’engin n’était qu’un Nodong non modifié, peut-être fabriqué localement. Trois jours après le lancement indien d’Agni-2, un Ghauri-2 à deux étages fut tiré le 14 avril 1999 d’un véhicule mobile à Dhino, près de Jhelun et atteignit Jiwani près de la côte sud-ouest à une distance de 750 km avec une charge d’une tonne. Sa portée théorique est 1 500 km. Un Ghauri-3 en cours de développement, dont la portée serait de 2 500 km a été essayé le 15 août 2000. Rappelons que le sultan mahométan Muhammad Ghauri battit le prince hindou Prithvi Raj Chahan en l’an 1192… Le Pakistan n’en est pas resté là. Il avait reçu en 1992 trente ou plus SRBM chinois M-11 de portée 300 km dont il a dérivé son Tarmuk. Il a traité par rétro-ingénierie un autre SRBM chinois, le M-9 pour obtenir son Shaheen (Aigle) de portée 700 km avec une charge d’une demi-tonne, tiré de Sunmiami le 15 avril 1999. Il a présenté dans une zone militaire le 23 mars 2000 un Shaheen-2 de portée annoncée une tonne à 2 500 km. Constitué de deux étages à propulsion solide, prêt au tir au début de 2004, il représente une avancée décisive dans le domaine militaire et pourrait faire l’objet d’une prolifération significative. Il faut ajouter à cette capacité les avions F-16 achetés aux États-Unis, modifiés pour porter une charge nucléaire, déployés en deux escadrons sur la base de Sargodha, à 160 km au nordouest de Lahore, capables de porter 5,5 tonnes à 1 600 km, même si vingt-huit d’entre eux sont maintenus sous embargo dans l’Arizona. Le Pakistan est le candidat par excellence à la prolifération nucléaire : il redoute un voisin qui le menace avec des armes sophistiquées à base indigène ; il subit une crise économique majeure tout en attribuant une part incompressible de 40 % de son budget aux dépenses militaires, à un niveau supérieur à 5 % de son PIB ; depuis les années 1990, il est devenu, par son soutien aux talibans, ses essais nucléaires et son rôle obscur dans les attentats de 1996 contre les ambassades américaines à Nairobi et Dar es-Salam, un État-paria qui échange des liens avec d’autres États-parias, et son rapprochement diplomatique avec les ÉtatsUnis après le 11 septembre 2001 ne change rien à cette situation ; enfin il considère le savoir-faire nucléaire comme une chose qui se transfère : il a acquis sa capacité par espionnage aux Pays-Bas et par l’aide proliférante de la Chine.

LA MENACE

375

Aujourd’hui (2001), le Pakistan compte 145 millions d’habitants à 5 dollars par jour34. En 2025, ils seront 263 millions et 344 en 2050 à se partager des ressources non augmentées. L’inquiétude grandit quand on se souvient que Zulfikar Ali Bhutto a inventé l’idée de la bombe islamique. Des princes saoudiens se sont rendus au Centre de Kahuta qu’ils ont en grande partie payé ; Abdul Kadeer Khan a visité en 1986 le centre irakien d’Ash Sharkat, où les Irakiens avaient installé leurs calutrons bêta ; des liens ont été tissés avec Bagdad au début des années 1990 pour le transfert des filières nucléaires irakiennes. Entre les deux possibilités qui s’ouvrent à son évolution, soit prendre une place dans l’ordre régional et mondial comme un État ordinaire, soit donner la priorité aux considérations religieuses, le Pakistan, depuis les années 1970, s’oriente pas à pas vers la seconde. Déjà Bhutto cherchait à se faire accepter par le monde musulman dont il était éloigné, afin d’obtenir un soutien financier dans son combat pour le Cachemire. Depuis ce temps, déjà lointain, les forces islamistes sont montées en puissance au Pakistan en dépit du coup d’État de Pervez Musharraf, même si elles restent encore très minoritaires ; les élections de la fin 2002 leur ont donné le gouvernement des deux provinces frontalières avec l’Afghanistan, les Territoires de la frontière du Nord-Ouest et le Baloutchistan, gouvernées par une coalition de partis religieux. Après le 11 septembre 2001, Musharraf a créé un conseil qui garde la haute main sur le nucléaire, relocalisé les armes sur six sites secrets, réorganisé les unités chargées de leur surveillance et remplacé les militaires responsables jugés trop proches des talibans. Il n’en reste pas moins que l’issue d’un combat entre les militaires et les barbus demeure imprévisible. Le pourcentage des officiers islamistes dans l’armée s’élève à 30 % au moins. Musharraf a déjà échappé de justesse à trois attentats. Qu’arrivera-t-il si le énième réussit à l’éliminer, comme jadis Zia ul-Haq ? Au cours des vingt dernières années, certaines entités du gouvernement ont fait des propositions alléchantes de coopération à une douzaine de pays. Le Pakistan n’est pas susceptible d’assumer les responsabilités d’un État nucléaire, car il ne peut les faire respecter par les groupes hétérogènes qui se disputent la direction du pays. Si les États-Unis perdent le contrôle de l’Arabie Saoudite, une filière arabe de coopération avec la capacité nucléaire du Pakistan pourrait se constituer avec des conséquences incalculables pour le contrôle de la prolifération. Le Pakistan aujourd’hui ne rassemble pas l’Oumma, mais son alliance avec un pays arabe pourrait 34. The State of World Population, United Nations Population Fund.

376

INTRODUCTION AU SIÈCLE DES MENACES

déclencher un raz-de-marée. Une réticulation des pays proliférants, désormais proliférateurs, s’est construite entre la Chine, la Corée du Nord, l’Iran, le Pakistan et l’Arabie Saoudite qui échangent dans une coopération horizontale missiles, centrifugeuses, hexafluorure, pétrole et dollars, et s’autoalimente en ADM. Le système du NPT qui a plus ou moins contenu la prolifération pendant une vingtaine d’années fait aujourd’hui eau de toutes parts. L’évolution des relations entre l’Inde et le Pakistan se produit en dehors de la norme dans le règne du ni oui ni non. On ne peut envisager pour eux qu’un traité régional qui permettrait au NPT de subsister. Mais un coup peut-être mortel lui sera porté si la Corée du Nord s’en retire véritablement. Que feront alors le Japon et Taiwan qui sont des proliférants virtuels ? Et comment réagira l’Iran ? La menace iranienne justifiait le programme nucléaire irakien. La disparition de Saddam Hussein encouragerat-elle Téhéran à vouloir résister aux États-Unis et à la Russie ? Il pourrait paraître plus habile aux pays proliférants de se retirer des traités comme les États-Unis se sont retirés du traité ABM. Même le Brésil, qui a été un des promoteurs principaux du NPT, pourrait comme d’autres penser à obtenir le respect des États-Unis par le biais d’un programme nucléaire. Car la tendance peut-être la plus inquiétante est le rejet de l’universalisme et du juridisme dont Washington s’était fait le promoteur pendant la seconde moitié du e XX siècle. La prolifération ne serait-elle pas, aujourd’hui, nourrie par la réaction à l’hyperpuissance ? Elle s’accélère, et elle est dirigée contre les Occidentaux. Les nouvelles puissances nucléaires sont pauvres et seront forcées de restreindre les crédits destinés aux forces conventionnelles pour payer le développement de leurs ADM. Les répercussions militaires de ces choix pourraient les amener à recourir très tôt dans une crise à l’option nucléaire. Ce scénario-catastrophe s’applique en particulier au Pakistan. On aura noté l’absence de l’Europe dans cet immense problème. Nous avons vu35 que les États-Unis, quant à eux, ont organisé un programme de réduction de la menace (Cooperative Threat Reduction Program) destiné à diminuer les risques de la dispersion incontrôlée des armes soviétiques, auquel ils ont consacré 8 milliards de dollars alors que le reste du monde a dépensé 700 millions…

35. Voir p. 330.

LA MENACE

377

LA LIBYE

Après l’arrivée au pouvoir de Muammar al-Kadhafi le 2 septembre 1969, la Libye a adopté une attitude agressive vis-à-vis du monde occidental. Depuis sa nationalisation du pétrole en 1973, elle a encouragé le terrorisme partout où elle l’a pu. En 1974, elle a approché l’Inde après les explosions nucléaires de celle-ci, pour se procurer de l’aide au développement d’une bombe. Avec les États-Unis elle est entrée dans un conflit larvé qui s’est concrétisé par deux combats aéronavals dans le golfe de Syrte en 1986 et 1989, et surtout par le bombardement américain de Tripoli et Bengazi le 15 avril 1986. Elle a organisé les deux attentats aériens de Lockerbie en 1988 et du Ténéré en 198936. Si elle n’a pas été classée parmi les pays de « l’axe du mal » stigmatisés par le président Bush II après le 11 septembre 2001, elle figure en revanche sur la liste américaine des États soutenant le terrorisme. Elle n’était pas considérée comme un pays proliférateur jusqu’au 19 décembre 2003. À cette date, elle a levé le voile sur ses ADM, déclarant posséder 40 missiles soviétiques Frog-7 de portée 70 km et 80 Scud B de portée 300 km, d’origine nordcoréenne. Quelques Scud auraient été tirés en 1986 vers des îles italiennes et la rive ouest de la Crète, sans atteindre aucun objectif. Des négociations pour l’achat de Nodong n’auraient pas abouti. Bien qu’elle ait signé le NPT en 1970, la Libye s’est engagée à la fin des années 1990 dans un programme de mise au point de combustible nucléaire militaire, qui avait échappé aux services de renseignement occidentaux. Elle a acheté de l’uranium naturel qui devait être enrichi par des centrifugeuses pakistanaises, dont des modèles ont été exhibés sur le site de Tajoura à ses interlocuteurs anglo-saxons puis transportés en février 2004 aux ÉtatsUnis. Une dizaine de sites dévolus à l’activité nucléaire militaire ont été montrés. La Libye était encore assez loin d’une capacité en bombes, bien qu’elle ait acquis des plans pakistanais (pour 100 millions de dollars !). Ayant commandé dix mille centrifugeuses P-1, elle n’en avait encore reçu que quatre mille quand elle arrêta son programme. N’ayant ni signé, ni ratifié la CWC, la Libye avoue disposer de quelques dizaines de tonnes d’ypérite produites il y a une vingtaine d’années dans l’usine de Rabta installée par une société chimique allemande, et de précurseurs pour des gaz innervants. Dis36. Voir p. 412.

378

INTRODUCTION AU SIÈCLE DES MENACES

séminés par des bombes aéroportées de 250 kg, de tels produits auraient été utilisés contre les Tchadiens.

La préemption La crise irakienne de 2002-2003 et l’évolution récente chez les proliférateurs démontrent la démission du Conseil de sécurité et surtout de ses membres permanents. Les États qui revendiquent un rôle particulier dans les affaires du monde privilégient systématiquement leurs intérêts industriels et commerciaux au détriment de la sécurité collective. Devant leur incapacité à appliquer la politique de non-prolifération avec rigueur et énergie, la spirale de la prolifération paraît aujourd’hui trop large pour être enrayée par une action internationale. Seuls les États-Unis ont réfléchi au problème qu’elle pose et ils imaginent deux parades pour se défendre eux-mêmes : la première est la défense antimissiles, que nous avons analysée au chapitre précédent, et la seconde est la préemption, c’est-à-dire l’attaque avant que l’adversaire n’ait eu le temps de dégainer. On distingue alors la guerre préemptive, qu’on livrerait dans le cas où l’existence de preuves matérielles démontrerait l’imminence du danger et la nécessité d’agir, et la guerre préventive que seule déclenche la peur d’une menace stratégique. La doctrine de la préemption s’inscrit dans la lignée de la doctrine de Monroe formulée en 1823, et du corollaire de Theodore Roosevelt datant de 1904. La doctrine de Monroe énonçait le refus de l’intervention européenne dans l’hémisphère occidental et la volonté de préserver le droit des États-Unis d’intervenir et d’annexer des territoires. Le corollaire de Roosevelt précise que la défense des États-Unis passe par une intervention préemptive en cas de « méfait ou défaillance » des acteurs régionaux et extérieurs. L’interventionnisme régional, rendu célèbre sous le nom de gunboat policy, s’est affirmé comme la démonstration de la puissance normative des États-Unis avec le corollaire de Wilson et son critère de « bon gouvernement » qui associent les intérêts économiques privés, les oligarchies et les pouvoirs militaires à la prise de décision politique. Pendant la guerre froide, la paix était maintenue par la doctrine qui assurait aux puissances nucléaires la possibilité d’une seconde frappe. Le traité ABM et les accords SALT qui limitaient les dimensions des forces nucléaires stratégiques ont permis d’assurer la stabilité du monde. Dans le duel auquel se livraient les deux Supergrands, l’arme nucléaire a toujours été envisagée

LA MENACE

379

comme l’instrument d’une dissuasion qui ne devait jamais aboutir à de vrais tirs. Seul un Français, Georges Bidault (honte à lui), a pu avoir l’audace de demander au président Eisenhower une attaque nucléaire contre le Viêt-minh pour sauver la garnison de Dien-Bien-Phu en 1954. Jusqu’en 1990, l’équilibre des forces nucléaires ne permettait ni à la Soviétie ni aux États-Unis de frapper un tiers avec leurs ADM. Mais avec la chute de la Soviétie, l’attitude jusque-là impeccable des États-Unis a commencé à dévier : pendant la guerre du Golfe une lettre du président George Bush I a empêché l’Irak de recourir à des armes chimiques ou biologiques ; les Irakiens l’interprétèrent comme une menace d’employer l’arme nucléaire. En fait, la bataille entre Saddam Hussein et le reste du monde avait essentiellement pour enjeu, non le pétrole, non la liberté du Koweït, mais l’inquiétude créée par la politique vigoureuse de prolifération nucléaire poursuivie par l’Irak. Son exemple pouvait être imité par des États plus dangereux encore. Les Américains restèrent convaincus après l’armistice de 1991 qu’il serait nécessaire de crever cet abcès à un moment ou un autre. En 1992, les collaborateurs de Dick Cheney, alors secrétaire à la Défense, y compris Paul Wolfowitz et Zalmay Khalilzad, l’envoyé de l’Administration à Bagdad, préparèrent le document Defense Planning Guidance qui prônait l’usage de la force par les États pour prévenir la prolifération nucléaire, et recommandait l’adoption d’une posture permettant une action indépendante si un effort collectif ne pouvait être orchestré. Le papier fut enterré comme trop brutal alors que le président Bush I entrait en campagne électorale, mais le principe de la préemption fut remis au jour en 1996, dans un article37 des influents journalistes Kristol et Kagan qui ne passa pas inaperçu. Une lettre ouverte au président Clinton, signée en janvier 1998 par huit personnalités parmi lesquelles on trouvait Donald Rumsfeld, Paul Wolfowitz, Richard Armitage et Richard Perle, alors éloignés du pouvoir, affirmait que l’élimination de Saddam Hussein devait devenir le but de la politique étrangère américaine. Le président Clinton fit un pas vers l’action préventive prônée par les néoconservateurs. Après avoir déclaré, le 17 février 1998, dans un discours prononcé au Pentagone que « les États-Unis ne peuvent simplement pas permettre à Saddam Hussein d’acquérir des ADM », il autorisa les bombardements de l’Irak à la fin de 1998, lors du rejet des inspections par Bagdad. En 1998, a été créée la Defense Threat Reduction Agency, 37. William Kristol et Robert Kagan, « Toward a Neo-Reaganite Foreign Policy », Foreign Affairs, juillet-août 1996.

380

INTRODUCTION AU SIÈCLE DES MENACES

un organisme doté d’un budget de 1,1 milliard de dollars pour contrer la menace des ADM en finançant études et projets d’attaques contre des ennemis éventuels, y compris avec des armes nucléaires. Les États-Unis auraient pu s’en tenir là, mais l’attentat du 11 septembre 2001 les a traumatisés, et l’Administration Bush II tira de cette défaite la conclusion que tout lui est permis pour défendre le pays. Un rapport commandé au Pentagone, le Nuclear Posture Review, remis le 8 janvier 2002 à la Maison Blanche et publié en mars suivant, y compris sa partie « classifiée », par le Los Angeles Times et le New York Times, suggéra la possibilité d’une préemption nucléaire en réponse à des « circonstances immédiates, potentielles ou imprévues » témoignant de l’hostilité de certains États envers Washington, telle que la détention d’ADM. Le document qui n’était encore que l’œuvre de planificateurs, recommandait au président d’ordonner le développement de nouvelles armes nucléaires ; il estimait que les États-Unis devraient posséder des bombes miniaturisées capables de percer les bunkers souterrains où seraient cachés des ADM ; il envisageait un plan de quarante ans pour les développer et les acquérir ; il faudrait les essayer en dépit du traité d’interdiction. Et surtout l’étude citait plusieurs pays contre lesquels ces armes pourraient être employées : l’Irak, en cas d’attaque contre Israël, l’Iran, la Libye, la Corée du Nord, en cas d’attaque contre la Corée du Sud, enfin la Chine en cas d’agression contre Taiwan. Or ces cinq États ont signé le NPT ! Une telle doctrine représentait un revirement complet de la doctrine américaine, qui avait rejeté jusque-là l’appel au feu nucléaire en premier recours et, en tout cas, ne l’acceptait pas contre les États non nucléaires signataires du NPT. Elle détruisait le principe de la non-prolifération nucléaire : pourquoi rester signataire d’un traité qui en échange d’une renonciation à l’arme, ne vous garantit plus qu’elle ne sera pas utilisée contre vous ? Elle détruisait aussi le principe même de la dissuasion classique puisqu’elle banalisait l’emploi d’une arme conçue pour être absolue, en la rangeant dans la catégorie des moyens conventionnels. L’adoption de la doctrine de préemption marqua ainsi une inflexion radicale dans la ligne suivie depuis cinquante ans, et l’explication de ce tournant a été énoncée clairement par un haut personnage resté anonyme38 : « La nature de l’ennemi a changé, la nature de la menace a changé et donc la réponse doit changer. » 38. Thomas Ricks et Vernon Loeb, « U.S. Plan First Strike on Terror », International Herald Tribune, 11 juin 2002.

LA MENACE

381

En fait il s’agit bien de prendre en compte Netwar en frappant ses fournisseurs potentiels. Lors d’une réunion de l’OTAN à Bruxelles le 8 juin 2002, Donald Rumsfeld affirma : « L’alliance ne pourra plus attendre une preuve absolue avant d’agir contre des groupes terroristes ou des pays menaçants doués d’ADM. » Il est vrai qu’avec le début du siècle des facteurs nouveaux peuvent conduire à corriger la doctrine : l’augmentation du nombre des États proliférateurs actuels ou potentiels contre lesquels une doctrine de dissuasion reste à construire ; la formidable montée en puissance du terrorisme désormais organisé à l’échelle mondiale lui donne peut-être accès aux ADM développés par les rogue states, bien que jusqu’à présent les États proliférateurs aient gardé leurs moyens pour eux-mêmes ; et enfin l’impact de la loi de Moore sur la technologie permet d’envisager la mise au point d’une défense antibalistique efficace et donc réintroduit la notion de première frappe. Le New York Times39 a répondu à Donald Rumsfeld : « Nous ne sommes pas très à l’aise avec cette idée selon laquelle Bush s’accorderait à lui-même une sorte de carte blanche pour mener toutes les interventions militaires qu’il jugerait nécessaires, sans solliciter une quelconque approbation à l’extérieur. »

Si un pays s’apprêtait à développer une nouvelle arme nucléaire et envisageait des frappes préventives contre des puissances non nucléaires, Washington le considérerait à bon droit comme un dangereux rogue state, avait remarqué l’éditorial40 du même journal lors de la publication de la Nuclear Posture Review. Continuant sur la lancée de cette Review, le président Bush II a arbitré les différends entre le National Security Council et le nouveau Homeland Security Council, chargé de la sécurité intérieure. Finalement, sans tenir compte des critiques qui ont accueilli la Nuclear Posture Review, l’administration a rendu publique, le 20 septembre 2002, sa Stratégie nationale de sécurité, dans un document41 qui s’inscrit dans le droit fil des idées déjà connues de l’équipe Rumsfeld. Nous y lisons l’exposé sans fard d’un unilatéralisme militaire, que les péripéties rencontrées dans la conduite des coalitions depuis 1990 laissaient prévoir, d’autant plus qu’il appartient à une longue tradition illustrée entre autres par la guerre de 1898 menée contre l’Espagne pour l’écarter de Cuba et des Philippines. Franklin Roosevelt, orfèvre en la matière 39. International Herald Tribune, 24 juin 2002. 40. International Herald Tribune, 13 mars 2002. 41. The National Security Strategy of the United States of America, document de la Présidence, 20 septembre 2002.

382

INTRODUCTION AU SIÈCLE DES MENACES

puisque auteur d’un livre sur la conquête de l’Ouest, n’a-t-il pas déclaré à V. M. Molotov, envoyé par Staline à la Maison Blanche en mai 1942 : « Après la guerre, les États-Unis, la Russie, l’Angleterre et peut-être la Chine devraient faire la police du monde et imposer le désarmement par inspections… Si une puissance essayait de violer l’interdiction des armements, les puissances chargées de l’imposer devraient menacer les États capables de les mettre en quarantaine, et en cas d’échec, les bombarder. »

Voyons ce qu’écrit George Bush II : « Le plus grand danger qui menace notre pays se situe à la croisée du radicalisme et de la technologie. Nos ennemis ont déclaré sans ambiguïté qu’ils aspiraient à mettre en œuvre des armes de destruction massive et nous avons la preuve qu’ils s’y emploient avec détermination. Les États-Unis ne permettront pas que ces efforts aboutissent. Nous établirons des défenses contre les missiles balistiques et autres armes de longue portée. Nous coopérerons avec les autres nations pour empêcher nos ennemis de se doter de technologies dangereuses, pour contrôler et combattre leurs tentatives en ce sens. Et, parce que c’est une question de bon sens et d’autodéfense, l’Amérique interviendra avant même que la menace ne se concrétise. Nous ne pouvons pas, pour défendre l’Amérique et ses amis, nous contenter de vœux pieux. Nous devons être prêts à faire échec aux projets de nos ennemis, en utilisant au mieux nos services de renseignement et en usant de la plus grande circonspection. L’Histoire jugera sévèrement ceux qui ont senti venir le danger et qui n’ont rien fait. Au sein du monde nouveau dans lequel nous venons d’entrer, le seul chemin qui conduise à la paix et à la sécurité est celui de l’action […]. Depuis des siècles, les lois internationales reconnaissent qu’un pays peut légalement prendre des mesures défensives contre des forces armées qui représentent pour lui un danger immédiat, avant même qu’il n’ait effectivement subi la moindre attaque. Les législateurs, et en particulier les juristes internationaux, fondent en général la légitimité de la riposte sur l’existence d’une menace imminente […]. Nous devons adapter le concept de menace imminente aux capacités et aux objectifs de nos adversaires d’aujourd’hui. Les États voyous et les terroristes n’ont pas l’intention de se conformer, pour nous attaquer, aux méthodes classiques. Ils savent que de telles attaques seraient vouées à l’échec […]. Les États-Unis sont depuis longtemps favorables à une réaction anticipée lorsqu’il s’agit de répondre à une menace caractérisée visant la sécurité nationale. Plus grave est la menace, plus le risque de l’inaction est grand – et plus il est important de prendre des mesures préventives pour assurer notre défense, même si des doutes subsistent sur le moment et l’endroit de l’attaque ennemie. »

Il est à craindre que la doctrine Bush ne se durcisse et ne se nucléarise. En effet, dans un document ultérieur qui définit les conséquences pratiques de la doctrine du 20 septembre 2002, publié le 10 décembre 2002, la Maison Blanche affirme que les États-Unis répondraient à l’emploi d’ADM contre leurs troupes ou

LA MENACE

383

leurs alliés « avec une force écrasante (overwhelming) sans exclure aucune option ». Dans un appendice top-secret, la directive nomme l’Iran, la Libye, la Corée du Nord et la Syrie parmi les pays placés au centre des inquiétudes américaines. Un commentaire officieux signale que le texte n’implique pas l’emploi de la force militaire contre l’un d’entre eux, mais que le président est déterminé à arrêter le transfert de composants d’ADM à travers les frontières. Et dans le mot overwhelming, l’option nucléaire est incluse. La conversion inattendue à l’emploi banalisé de la bombe du seul pays qui se soit vraiment dévoué à la contre-prolifération envoie un signal très grave, en fait exprime une sorte de désespoir devant la croissance inexorable des dangers. Rejetant la politique traditionnelle de non-prolifération dont le développement du programme irakien démontre l’échec à ses yeux, l’Administration Bush II considère que la menace ne réside pas dans l’existence des armes nucléaires, mais dans leur acquisition par des « vilains méchants » (bad guys42). La ligne à suivre consiste à éliminer les bad guys par tous les moyens avant même qu’ils n’aient pu agir, tout en laissant leurs ADM aux gentils (good guys), c’est-à-dire à nous. For me but not for thee. Comme les good guys d’aujourd’hui deviendront demain les bad guys, il est à craindre que cette doctrine ne conduise à attaquer tout le monde. Dans le document sur la National Security Strategy, se trouvent énoncées les idées qui ont amené presque aussitôt les ÉtatsUnis à lancer une attaque préventive contre l’Irak le 20 mars 2003. Leur discours se bornait à invoquer la « menace imminente » que faisait peser sur eux Saddam Hussein lié à Al-Qaida, capable d’après le Premier ministre anglais Tony Blair, d’utiliser ses ADM dans les quarante-cinq minutes. Le monde entier savait pourtant qu’un fossé idéologique séparait la politique laïque de Bagdad et la Netwar islamiste qui avait agressé les Américains. Mais Saddam représentait l’archétype du bad guy. Out ! Les optimistes prétendront que l’invasion de l’Irak était destinée à inspirer de nouveau la crainte des États-Unis en adressant un message clair à ceux qui n’auraient pas entendu l’avertissement lancé par Washington au lendemain du 11 septembre 2001 : on ne s’attaque pas impunément à l’Amérique. Elle mord. Au-delà d’un désir de vengeance, au-delà de la posture, il faut voir dans cette opération une tentative pour établir une doctrine de dissuasion dans un domaine nouveau des affaires internationales, celui des 42. George Perkovich, « Bush’s Nuclear Revolution », avril 2003.

Foreign Affairs, mars-

384

INTRODUCTION AU SIÈCLE DES MENACES

rapports entre les États proliférateurs et les réseaux terroristes en expansion. Il s’agit de persuader les premiers de rompre tout contact avec les seconds : Iran, Corée du Nord, Pakistan et autres, ne franchissez pas cette ligne si vous voulez éviter le sort de Saddam Hussein ! La prolifération, d’un type original, qui procurerait des ADM à des enragés dont l’unique pensée est de détruire le monde, constitue aujourd’hui un sujet de préoccupation extrêmement grave, et l’on hésite à blâmer les États-Unis alors qu’ils essaient courageusement d’empêcher une évolution porteuse de conséquences incalculables. Et c’est un fait qu’après la chute de Bagdad la Corée du Nord a fait aux États-Unis des approches diplomatiques. Autre succès de la doctrine d’intimidation adoptée par le président Bush II : après des négociations secrètes avec les services britanniques, commencées au printemps 2003, qui élargirent soudain les discussions en cours sur la clôture de l’affaire de Lockerbie, la Libye a annoncé le 19 décembre 2003 qu’elle renonçait à ses ADM, ouvrait ses laboratoires et ses usines aux « inspections » de l’IAEA et s’engageait à signer le protocole additionnel du NPT et la CWC. Elle a en effet reçu immédiatement la visite du directeur de l’IAEA. Des liens anciens, même s’ils sont aujourd’hui distendus, du régime Kadhafi avec le terrorisme international, donnent de l’importance à un tel revirement. À son retour de Tripoli, Mohamed El-Baradei s’est avoué surpris par l’ampleur et la complexité du marché noir qui a fourni aux Libyens les matériaux et les plans d’armes nucléaires. « Quand vous voyez des produits conçus dans un pays, fabriqués dans deux ou trois autres, expédiés à un quatrième, redirigés par un cinquième, cela signifie qu’il existe un grand nombre d’officines de par le monde. Franchement la sophistication du processus a surpassé mon attente43. »

L’affaire libyenne a confirmé les inquiétudes sur la facilité d’acheter les éléments d’une bombe avec seulement de l’argent, et montre que ni les inspections ni le renseignement ne permettent d’apprécier le niveau d’un programme ADM.

Conclusion Un tournant a été pris. Si les États-Unis étaient restés fidèles à la ligne qu’ils ont suivie depuis cinquante ans, ils auraient ouvert des négociations 43. International Herald Tribune, 24-25 janvier 2004.

LA MENACE

385

musclées avec la Russie pour neutraliser les matières fissiles militaires retirées des arsenaux, améliorer la surveillance dans les installations nucléaires et arrêter les exportations sensibles, ils auraient animé une vigoureuse coalition pour obliger tous les pays à respecter leurs engagements internationaux, accroître les pouvoirs d’inspection de l’IAEA et d’autres agences de contrôle, développer la détection des activités clandestines et poursuivre vraiment le blanchiment de capitaux illicites ; ils auraient proposé une convention internationale qui imposerait une gestion contrôlée des sources radioactives. Enfin ils auraient soutenu l’instauration de l’État de droit dans les pays où règnent des régimes autoritaires et dans ceux où les structures étatiques ont été démantelées. Loin de telles idées, discréditées désormais par leur échec, l’Amérique se laisse aller à cette « infatuation » observée par Baudelaire, ou plutôt à cette démesure que les Grecs ont appelée hubris. Dans la logique adoptée par l’Administration Bush, la guerre apparaît comme un choix délibéré, le désarmement onusien hors sujet et l’appel à la bombe atomique une simple conséquence du raisonnement. En fait le pouvoir américain ne se contente pas de dissuasion, il a l’intention effectivement d’utiliser la force pour rester la puissance dominante. Le président Bush II ne l’a pas caché dans sa déclaration de juin 2002 : « L’Amérique détient et entend conserver des forces militaires allant au-delà des défis qu’elle peut rencontrer, rendant ainsi sans objet les déstabilisantes courses aux armements du passé, et limitant les rivalités au commerce et à d’autres domaines. »

Le pistolero Bush II a fait échouer une bonne demi-douzaine de conventions internationales, rebuffé l’Europe sur le protocole de Kyoto, rebuffé la Russie sur la défense antimissiles, rebuffé les pays en voie de développement sur les produits pharmaceutiques, rejeté la Cour internationale de justice, affaibli puis ignoré l’ONU, et enfin attaqué l’Irak contre l’avis de la plupart de ses amis. La guerre contre Saddam Hussein est l’enfant d’un groupe de néoconservateurs qui la considère comme un projet pilote. En août 2002, un officiel britannique proche de l’équipe Bush a confié à l’hebdomadaire américain Newsweek : « Tout le monde veut aller à Bagdad. Les vrais hommes veulent aller à Téhéran. » On peut se demander si les États-Unis ne tendent pas à devenir eux-mêmes un nuclear rogue state. Leur politique actuelle préfigure des confrontations avec la Corée du Nord ou l’Iran, et l’on peut prévoir que ces adversaires-là se révéleront mieux armés qu’un Irak affaibli par dix ans d’embargo et donc infiniment plus coriaces.

386

INTRODUCTION AU SIÈCLE DES MENACES

Les proliférateurs écoutent ce bruit de bottes et se persuadent chaque jour davantage qu’il leur faut accélérer le développement de leur arsenal nucléaire pour pouvoir résister à l’hyperpuissance. Le ministre indien de la Défense George Fernandes a déclaré : « Avant de défier les États-Unis, il faut acquérir des armes nucléaires. » Je ne vois pas comment nous éviterons la bombe islamique.

387

LA MENACE

DEUXIÈME PARTIE NETWAR La menace analysée dans la première partie de ce chapitre provient de l’acquisition par certains États des outils relativement peu coûteux de destruction massive que la science et la technique moderne mettent à la disposition des plus démunis d’entre eux s’ils le désirent. Nous étudierons maintenant une menace d’une autre nature, qui n’est pas moins grave et qui provient en fait de la même cause, c’est-à-dire la possibilité d’utiliser des moyens techniques et scientifiques aisément accessibles, non par des États, mais par des groupes structurés en réseaux et utilisant les NTIC afin de nuire à leurs ennemis.

Les troupes LE VIVIER

D’où viennent les membres de ces groupes ? Même si le passage à l’action violente ne naît pas que de la misère, comme le montrent les exemples du Pays basque espagnol, de l’Irlande du Nord et de la Vénétie, on peut considérer en première approximation que les pays où la population ne dispose que de 1 dollar par jour et par tête constituent des réservoirs inépuisables de desperados. La population à 1 dollar par jour s’est montrée au grand jour en Irak vers le milieu d’avril 2003 lorsqu’à la suite de l’invasion américaine, elle a jailli des trous à rats où elle survit pour piller : bâtiments administratifs, usines, écoles, universités, banques, bibliothèques, magasins ont été dévastés. Dans les hôpitaux, les voleurs se sont emparés des lits, des ordinateurs, des appareils chirurgicaux et des systèmes de réanimation mais aussi des seringues, des couvertures, des toilettes, des cadres des fenêtres. Après la disparition des pompes et des équipements électriques, les branchements sauvages sur les tuyaux d’eau alimentant les quartiers par les habitants des quartiers voisins ont entraîné une pénurie généralisée. « Les gens se jettent sur tout objet et ensuite brûlent tout, c’est partout pareil. » La destruction du musée national d’art et d’archéologie à Bagdad, comme l’incendie du ministère des Affaires coraniques avec sa riche collection de manuscrits illustrent la fièvre ravageuse du sous-prolétariat. Le complexe

388

INTRODUCTION AU SIÈCLE DES MENACES

nucléaire d’Al Tuwaitha a été dévalisé par des gens si pauvres qu’ils emportèrent les barils utilisés au stockage de matériaux radioactifs très riches en particules alpha pour y mettre de l’eau ou des aliments. Un des dirigeants du complexe, le Dr Ahmed alBahili a détecté dans un village voisin plus de vingt maisons où les émissions atteignaient 30 millirads (six cents fois plus que la dose autorisée) : « Quand les voleurs ont appris que leur butin était dangereux, ils l’ont sans doute jeté dans la rivière ou dans les ordures ; le vent s’est chargé de disperser les résidus44. » Facteur majeur de l’appauvrissement, la natalité galopante dresse les communautés les unes contre les autres : • l’augmentation de la population chiite au Liban par rapport au nombre de chrétiens a brisé l’ordre constitutionnel qui permettait le maintien d’une vie politique presque normale au début des années 1970, et précipité la guerre civile entre chrétiens et musulmans ; • les pics du soulèvement nationaliste cinghalais en 1970 et du soulèvement tamoul à la fin des années 1980 coïncident exactement avec les années où le nombre des jeunes de 15 à 24 ans a dépassé, dans chacune des communautés respectives, les 20 % de la population totale de son groupe respectif45 ; • la population du Kosovo se composait en 1961 de 67 % d’Albanais musulmans et 24 % de Serbes orthodoxes ; en 1991, de 90 % de musulmans et 10 % de Serbes. L’évolution a radicalisé la minorité chrétienne, et mené en réaction à l’insurrection de l’UCK ; • le taux de fécondité des femmes russes est de 1,5 enfant, alors qu’il est de 4,4 enfants pour les femmes des ex-républiques soviétiques musulmanes. La population de la Tchétchénie a augmenté de 26 % dans les années 1990. Deux milliards d’hommes sont prisonniers d’une condition qui leur laisse la violence comme seule arme, s’ils peuvent s’en saisir. Il est intéressant de transposer au cas des nations le diagnostic porté sur la société de l’Ancien Régime par Necker en 178146. 44. Le Monde, 8 mai 2003 45. Gary Fuller, « The Demographic Backdrop to Ethnic Conflict : A Geographic Overview » , in Central Intelligence Agency, The Challenge of Ethnic Conflict to National and International Order in the 1990’s, RTT95-10039, octobre 1995, Washington DC, p. 151-154. 46. Jacques Necker, Sur la législation et le commerce des grains, Œuvres complètes, t. 1, p. 333-334, publié par le comte de Stael-Holstein, Paris, Treuttel et Wurtz, 1820.

LA MENACE

389

« Presque toutes les institutions civiles ont été faites par les propriétaires […]. On dirait qu’un petit nombre d’hommes, après s’être partagé la Terre, ont fait des lois d’union et de garantie contre la multitude, comme ils auraient mis des abris dans les lois pour se défendre des bêtes sauvages. Après avoir établi des lois de propriété, de justice ou de liberté, on n’a presque rien fait encore pour la classe la plus nombreuse des citoyens. Que nous importent vos lois de propriété ? pourraient-ils dire : nous ne possédons rien. Vos lois de justice ? Nous n’avons rien à défendre. Vos lois de liberté ? Si nous ne travaillons pas demain, nous mourrons. »

Dans son livre controversé, qu’il faut lire avec attention, Samuel Huntington47 énonce son postulat de départ48 : « La culture, les identités culturelles qui, à un niveau grossier, sont des identités de civilisation, déterminent les structures de cohésion, de désintégration et de conflits dans le monde d’après la guerre froide. » Peut-être l’auteur généralise-t-il trop largement une constatation qui, elle, ne prête pas à polémique : avec la chute de la Soviétie, les conflits entre communautés ou ethnies sont devenus plus visibles et sans doute plus répandus qu’ils ne l’étaient auparavant49. Il n’y pas de doute qu’ils ont effectivement connu une recrudescence et qu’ils n’ont pas été répartis de manière uniforme sur la planète : la grande majorité a éclaté sur la frontière en forme de U qui sépare les musulmans des non-musulmans de l’Eurasie à l’Afrique. Balayant cette vaste zone, Huntington n’a pas tort de conclure50 que les rapports entre musulmans et peuples professant d’autres religions, qu’il s’agisse de catholiques, de protestants, d’orthodoxes, d’hindous, de Chinois, de bouddhistes ou de juifs, ont généralement été conflictuels et la plupart du temps violents à un moment ou à un autre, en particulier au cours des années 1990. Représentant un cinquième de la population mondiale, on retrouve les musulmans impliqués dans un plus grand nombre de guerres que les peuples d’autre obédience. La liste des théâtres où s’exerce la violence armée de plus ou moins forte intensité : Kosovo, Chypre, Caucase où Azéris, Tchétchènes et Ingouches sont aux prises avec leurs voisins, Afghanistan, Tadjikistan, Xingjiang, Cachemire, Assam, Bangladesh, Myanmar, Thaïlande, Malaisie, Indonésie, Philippines, montre que l’instabilité dépasse largement les régions arabes qui en forment l’épicentre : guerre Iran-Irak, occupation du Liban par la Syrie, agression de l’Irak contre le Koweït, soulèvement Oromo en Éthiopie, chaos 47. Samuel Huntington, Le Choc des civilisations, Paris, Odile Jacob, 1997. 48. Ibid., p. 16. 49. Ibid., p. 282. 50. Ibid., p. 284.

390

INTRODUCTION AU SIÈCLE DES MENACES

en Somalie, centaines de milliers de victimes au Soudan, innombrables conflits d’une côte à l’autre de l’Afrique entre Arabes et Noirs animistes ou chrétiens, de la Tanzanie au Tchad, assassinats de masse en Algérie, tous ces cataclysmes montrent que l’hostilité entre Israël et les Palestiniens n’est qu’un symptôme et non une cause. Les musulmans ont du mal à vivre en paix avec eux-mêmes et avec leurs voisins. Appelant taux de militarisation le nombre de soldats par millier d’habitants, et indice d’effort militaire le taux de militarisation rapporté au PIB, on constate que dans les années 1980 les pays musulmans avaient un taux de militarisation et un indice d’effort militaire nettement plus élevés que les autres pays, en gros le double des pays chrétiens : « Il est clair, écrit James Payne51, qu’il y a un lien entre l’Islam et le militarisme. » Militarisme comparé des pays musulmans et chrétiens Taux moyen de militarisation

Indice moyen d’effort militaire

11,8

17,7

Autres pays (n = 112)

7,1

12,3

Pays chrétiens (n = 57)

5,8

8,2

Autres pays (n = 80)

9,5

16,9

Pays musulmans (n = 25)

(Les pays chrétiens et musulmans sont ceux où plus de 80 % des habitants sont membres de la religion en question)

Les États musulmans manifestent également une forte propension à la violence lors des crises internationales : ils l’ont employée pour résoudre 76 crises sur un total de 142 où ils ont été impliqués entre 1928 et 1979. Dans 25 cas, la violence était le principal moyen employé pour régler la crise ; pour 51 des crises, des États musulmans ont eu recours à la violence ainsi qu’à d’autres moyens. Lorsqu’ils ont eu recours à la violence, les États musulmans ont utilisé une violence de forte intensité ; ils ont eu recours à une guerre proprement dite dans 41 % des cas où la violence était utilisée, et, dans 38 % d’autres cas, se sont engagés dans des hostilités assez graves52.

51. James L. Payne, Why Nations Arm, 1989, Oxford, Basil Blackwell, p. 125 et 138-139. 52. Samuel Huntington , op. cit., p. 286.

LA MENACE

391

Sans doute faut-il relier ces faits à l’incapacité démontrée par le monde islamique, à l’exception de la Turquie, à concevoir et à développer la forme démocratique d’État où les forces politiques jouent leur rôle de représentation des divers intérêts. L’ONG américaine Freedom House estime53, à partir de données obtenues en 2001 sur 192 pays, que 85 d’entre eux sont libres ; ils abritent 2,5 milliards d’êtres humains, soit 41 % des habitants de la Terre. Parmi les autres pays, 59 sont partiellement libres (1,46 milliard d’êtres humains soit 24 % du total) et 48 non libres (2,17 milliards soit 35 % du total). Cette dernière catégorie, où les droits personnels sont inexistants et les libertés bafouées, est passée de 40 % il y a dix ans à 35 % en 2001, mais l’expansion démographique a porté sa population de 2 milliards en 1990 à 2,2 milliards aujourd’hui. La Banque mondiale aboutit à la même constatation, à savoir que depuis six ans la démocratie stagne. Depuis l’effondrement de l’Empire ottoman et du système colonial européen, le monde musulman s’est fragmenté en petits États-nations incapables de progrès même quand ils étaient richement dotés de ressources gratuites, essentiellement le pétrole. Comme l’a noté le Premier ministre de Malaisie Mahathir Ben Mohammed : « Le monde musulman est désespérément faible et retardataire54. » « Le vaste espace de répression et de privation qu’est le monde arabe est en proie à une destructivité organisée par les machines de jouissance du pouvoir, qui dispensent depuis des décennies le brouillage, l’insignifiance, la fabulation et l’entrave à l’intelligence dans l’espace public. C’est l’abolition de la demande politique par des systèmes cruels qui conduit des subjectivités prédisposées à s’anéantir pour restituer en ultime acte de folie ce qui manque pour rester digne : la politique55. »

Un rapport de l’ONU sur les 27 membres de la Ligue arabe56 note une pauvreté persistante, bien que cette zone de 280 millions d’habitants se soit globalement enrichie. Si des progrès ont été enregistrés dans la mortalité infantile et dans le nombre des revenus inférieurs à 1 dollar par jour, on constate les faits suivants : • Au cours des vingt dernières années, le taux d’accroissement du revenu par tête a été le plus bas au monde, à l’exception de l’Afrique subsaharienne. Si le taux moyen annuel de croissance 53. Le Monde, 20 avril 2003. 54. Discours au Forum international sur l’islam, Kuala Lumpur, 19 juillet 2002, in International Herald Tribune, 30 juillet 2002. 55. Fethi Benslana, Le Monde, 10 novembre 2002. 56. Rapport arabe sur le développement humain dans les pays arabes, Rapport de l’ONU, 2002.

392

INTRODUCTION AU SIÈCLE DES MENACES

de 0,5 % se maintient, il faudra au citoyen arabe cent quarante ans pour doubler son revenu. • Un habitant sur cinq vit avec moins de 2 dollars par jour. • La productivité du travail baisse continuellement, ramenant le PIB par tête à la moitié de celui de la Corée du Sud, alors qu’en 1960 il lui était supérieur. • Les progrès de l’alphabétisation sont sensibles, mais il reste 65 millions d’adultes illettrés. Dix millions d’enfants n’ont pas accès à l’école. • La participation des femmes à la vie politique et économique reste la plus faible du monde en termes quantitatifs et, dans plusieurs pays, elles ne sont pas considérées comme des citoyens à part entière. Aujourd’hui, l’ensemble des pays de la Ligue arabe dispose d’un PIB total inférieur à celui de l’Espagne. Le forum de Davos57 a confirmé le diagnostic par son analyse de la croissance et des investissements directs étrangers (IDE) dans le monde arabe. Que ce soit en termes de stabilité macroéconomique, de santé des structures financières, d’ouverture à l’international, de bonne gouvernance, d’appétence pour la nouvelle économie et la technologie, de qualité de l’éducation et des infrastructures, de freins à la corruption et d’accumulation sur capital, pour ne citer que les principales rubriques, aucun État de la région, exception faite de l’Égypte et de la Jordanie, ne figure parmi les 75 premiers pays classés dans chacune de ces catégories. « Pourquoi la région a-t-elle continué à stagner durant les années 1990 ? » s’interrogent les auteurs du rapport, rappelant l’essor qu’elle a connu durant les années 1970 en raison du boom pétrolier, puis le ralentissement durant la décennie suivante, dans le sillage de la baisse des prix du brut. La question, restée sans réponse, est d’autant plus légitime qu’au cours des dernières années le taux d’investissement dans la région a été fort, tandis que les chiffres de la croissance ont été parmi les plus bas dans le classement mondial. Alors que le monde arabe avait reçu en moyenne environ 2,6 % du total des IDE entre 1975 et 1980, puis seulement 0,7 % entre 1990 et 1998, ce pourcentage, déjà très bas, est tombé à 0,4 % en 2000. Les pays arabes ont reçu 4,9 milliards de dollars d’IDE au cours des cinq dernières années pour atteindre un total cumulé de 85,3 milliards de dollars durant les vingt dernières années. 57. Rapport sur « la compétitivité du monde arabe », publié par le Forum économique mondial, avril 2003 .

LA MENACE

393

Le journaliste irakien Khalid Kishtaini, éditorialiste au quotidien panarabe Asharq al-Awsat édité à Londres, écrit en août 200358 : « Après cinquante ans de tentatives pour moderniser le monde arabe, quel est le bilan ? La femme arabe est désormais plus soumise à l’arriération et à l’esclavage que dans les années 1940. La société civile et ses institutions sont moins libres dans leurs pratiques. La vie parlementaire, la démocratie, la liberté de la presse sont partout moins respectées et moins appliquées. La justice est moins indépendante, les livres qu’on publiait naguère sont interdits ou voient leur diffusion limitée ; la pensée libre représente un danger et risque de vous faire perdre votre conjoint après avoir été traité d’apostat. L’institut des beaux-arts utilisait des modèles nus dans les cours de peinture, c’est maintenant interdit. Pourquoi une telle régression ? Laissez-moi dire en toute franchise que la raison en est que nous nous sommes libérés de la tutelle occidentale et que nous sommes retournés à nos racines sous-développées. » L’IDÉOLOGIE ISLAMISTE

La synthèse à des degrés divers de certains facteurs, militarisme, mauvaise gouvernance, régime oppresseur, stagnation ou régression économique, croissance démographique incontrôlée caractérise chacun des États-nations à majorité musulmane, et certains sont tentés d’identifier la religion et la tradition comme responsables de la situation actuelle. En fait une recherche de causes aussi générales n’aide guère à la compréhension de l’évolution en cours. Il paraît plus intéressant d’insister sur la résultante psychosociale desdits facteurs, c’est-à-dire la frustration universelle des populations qui les conduit au surgissement d’un bouc émissaire et à l’adoption d’un mode d’action. Le bouc émissaire apparaît pendant et aussitôt après la Seconde Guerre mondiale avec le programme conçu dès 1928 par l’Égyptien Hassan al-Banna (1906-1949), le fondateur des Frères musulmans, qui appelait à exclure toute forme d’occidentalisation dans l’enseignement. Il réclamait le rattachement des écoles primaires aux mosquées, rejetait l’adoption des institutions européennes dans le champ politique, interdisait la création des partis et souhaitait que les fonctionnaires fussent de formation religieuse. Il prédisait59 la fin de l’hégémonie occidentale. 58. Cité par Courrier international, 4 septembre 2003. 59. Hassan al-Banna , Nahwa-an-Nur (Vers la lumière), texte envoyé en 1946 à différents chefs d’États islamiques, in Abdelwahab Meddeb, La Maladie de l’Islam, Paris, Seuil, 2002, p 115.

394

INTRODUCTION AU SIÈCLE DES MENACES

« Voici donc l’Occident : après avoir semé l’injustice, l’asservissement et la tyrannie, il est perplexe et gigote dans ses contradictions ; il suffit qu’une puissante main orientale se tende, à l’ombre de l’étendard de Dieu sur lequel flottera le Coran, un étendard dressé par l’armée de la foi, puissante et solide ; et le monde sous la bannière de l’islam retrouvera calme et paix. »

Dans ce discours simpliste qui constitue la matrice de l’antioccidentalisme, le lecteur trouve un échantillon des diatribes qu’accueillent avidement les semi-lettrés habités par le ressentiment, mais aussi, et surtout, les masses analphabètes à 1 dollar par jour. On vit dans le dernier quart du XXe siècle l’expansion soudaine de groupes politiques ne jurant que par le Coran et recrutant leurs militants dans la population moderne des villes, malgré la résistance brutale des États. Comme l’a écrit Abdelwahab Meddeb60, l’islam reste inconsolé de sa destitution. Vivant dans le mythe destructeur d’une ancienne splendeur toute fantasmée, les foules s’imaginent que leurs maux sont dus aux autres, aux colonisateurs, aux Européens, aux Juifs, aux Américains, mais pas à elles-mêmes. Il est habituel d’entendre les reporters, les médias affirmer chaque jour à chaque occasion, que les Arabes se sentent humiliés. Or cette humiliation porte essentiellement sur les défaites militaires que les États-nations arabes ont subies les unes après les autres. Elle ne porte jamais sur les défauts principaux des pays musulmans : ne devraient-ils pas être humiliés de gémir sous des dictatures, de vivre parmi l’immondice, de maintenir les femmes dans un assujettissement abject, de laisser à chacun un seul dollar par jour ? Il est bien rare de lire sous une plume arabe une critique lucide comme celle du poète syro-libanais Adonis61 : « Qu’a donc fait Saddam Hussein pendant trente ans avec les formidables richesses de l’Irak ? Qu’a-t-il offert à son peuple ? Le bonheur, une vie respectable et la liberté ? L’Irak n’aurait dû compter aucun chômeur, aucun analphabète, aucun miséreux. Pas plus que d’exilés irakiens (alors qu’ils sont actuellement plus de quatre millions, éparpillés dans le monde entier). N’aurait-il pas mieux valu que ce pays évoluât vers la constitution d’une société civile, fière de son pluralisme et de sa diversité humaine et culturelle, au point qu’elle constituerait en la matière un exemple pour le monde arabe ? N’aurait-il pas été préférable que l’Irak grouillât d’universités et de centres de recherche au point de soutenir la comparaison sur ce plan avec l’Europe et les États-Unis, comme c’est aujourd’hui le cas pour le Japon et la Corée du Sud ? Au lieu de tout cela, 60. Abdelwahab Meddeb, op. cit. 61. Adonis, Al Hayat (extraits), Londres, mars 2003, in Courrier international (1016), avril 2003, n° 649.

LA MENACE

395

Saddam Hussein a fait de l’Irak son jardin privé, sa propriété privée, sa garde privée (républicaine !), son armée privée et son “peuple” privé. Il a fait de l’Irak une prison pour ceux de ses concitoyens qui ne partagent pas son avis. Il a utilisé son pouvoir pour tuer qui il voulait, comme il voulait, au moment où il voulait, anéantissant ainsi les fondements de la loi et sapant les bases de la justice. »

Rien ne montre mieux l’incapacité du monde arabe à construire une démarche politique que le conflit entre Israël et les Palestiniens. À un esprit rationnel, le problème paraît simple : en 1948, un million de Palestiniens ont fui leur terre natale et ont été remplacés par neuf cent mille Juifs chassés de pays arabes62. Pendant le XXe siècle, de nombreux échanges de populations, quoique douloureux, ont été organisés avec succès : en 1922, après le traité de Lausanne, deux millions de Grecs et Turcs échangés en Macédoine ; entre 1945 et 1950, quelque quatorze millions d’Allemands, installés dans les territoires orientaux depuis des siècles ont laissé derrière eux leurs biens et des centaines de milliers de morts ; leurs compatriotes de l’Ouest63 les ont fraternellement aidés ; en 1962, la France a accueilli, bien mal il est vrai, mais sans drame, un million de pieds-noirs. Seul le cas palestinien, pas plus difficile a priori que les autres, d’autant plus que les capitaux et l’espace vide abondaient dans les pays « frères » producteurs de pétrole, a été envenimé volontairement par les gouvernements arabes, « humiliés » que leur agression de 1948 contre les colonies juives se fût soldée par une défaite, et désireux de créer un éternel abcès. À l’exception de la Jordanie et de l’Égypte, leur position n’a pas évolué depuis les trois Non de Khartoum énoncés par la conférence des rois et chefs d’État arabes le 1er septembre 1967 : non à la reconnaissance d’Israël, non à la négociation, non à la paix. L’affrontement s’est compliqué avec le temps jusqu’à devenir sans issue. L’absence de perspective historique et la nullité de la réflexion politique ont amené les musulmans à croire qu’un nouveau Saladin viendrait pour exterminer les Israéliens comme le héros chassa jadis les Croisés et résoudrait le problème avec son sabre. Au Proche-Orient, profondément compartimenté et souvent fracturé selon des frontières tribales, on n’a jamais constaté aucune mesure de solidarité arabe, telle que la liberté de circulation des personnes et des biens. Les ouvriers égyptiens expatriés en Libye, en Irak ou en Arabie Saoudite n’ont pas reçu de passeport, et ont été expulsés à un moment ou à un autre selon le bon 62. L’Expulsion des Juifs des pays arabes, ouvrage collectif, Paris, Interpress, 2003. 63. Der Grosse Atlas Weltgeschischte, Orbis Verlag .

396

INTRODUCTION AU SIÈCLE DES MENACES

plaisir des gouvernements. Les Iraniens n’ont rien fait pour intégrer les Afghans qui se bousculaient à leur frontière orientale. Les malheureux réfugiés palestiniens au Liban dans les camps de Tyr et de Sidon, n’ont pas le droit d’acheter une brique, dont ils pourraient consolider leurs bidonvilles. Le modèle de supracitoyenneté régionale que l’Europe met en œuvre n’émerge nulle part, alors que les activistes rêvent de Califat. « Ne sont pourtant des États-Nations, au sens moderne du terme, que l’Égypte, l’Iran, la Tunisie. Les autres sont des morceaux de nations, récemment étatisés64. » Le mode d’action est le recours à l’idéologie islamiste, qui consiste à vouloir imposer l’omnipotence du Coran par la terreur. La pauvreté seule ne mène pas au terrorisme. La révolte naît lorsque les gens pauvres ont tâté du développement. Les premiers cadres islamistes ont paru dans les années 1960, au milieu de familles qui, pour échapper au fatalisme de leur village, s’étaient urbanisées. Enrôlés dans les collèges techniques où ils ont reçu une formation occidentale, ils ont essayé d’organiser le développement par la planification. L’échec de ce socialisme arabe a conduit les foules à se jeter dans la religion. L’islamisme est la réponse à la faillite de la modernisation. Au cours des années 1970, des mouvements islamistes militants ont surgi dans la plupart des pays musulmans. Certes ils n’ont pu apparaître sans la crise du nationalisme arabe qui avait fait de l’affrontement contre Israël son seul facteur consensuel, et qui fut frappé par la défaite de 1967 et le Septembre noir de 1970. Mais surtout, l’évolution coïncide avec l’explosion démographique qui amène au même moment à l’âge adulte une génération extrêmement nombreuse, la première née avec l’indépendance qui ne possédait pas la mémoire des luttes anticoloniales. Décalée par rapport aux élites qui la gouvernaient, elle ne bénéficie pas de l’ascension sociale qu’avait permise l’indépendance, le départ des colons et le partage de leurs biens. En 1975, les moins de 24 ans représentent partout 60 % de la population. Ils arrivent en ville de leur bled et l’enseignement public de masse qu’ils reçoivent dans leur langue maternelle ne se traduit par aucun progrès social. Une intelligentsia musulmane hétérogène se recrute parmi les étudiants où Gilles Kepel65 distingue deux groupes, la jeunesse urbaine pauvre formée d’exclus et la bourgeoisie pieuse, bridée 64. Alexandre Adler, J’ai vu finir le monde ancien, Paris, Grasset, 2002, p. 235. 65. G. Kepel, Jihad, Paris, Gallimard, « Folio-Actuel », 2003, p. 114, a inspiré ces lignes.

LA MENACE

397

politiquement et économiquement par des régimes autoritaires, militaires ou monarchiques. Après la guerre de Kippour de 1973, l’augmentation des prix du pétrole permet au courant sunnite wahhabite66 issu de l’Arabie Saoudite de se répandre et d’acquérir une position de force dans l’expression internationale de l’islam, au détriment du nationalisme qui avait occupé la scène dans les années 1960. Ce courant favorise les associations et les oulémas inscrits dans son obédience et suscite des allégeances nombreuses par l’apport de flux financiers énormes. Les institutions wahhabites changent de dimension et se livrent au prosélytisme à grande échelle. Elles mettent en place un réseau de subsides et d’aides aux musulmans du monde. Elles pénètrent chez les expatriés qui s’installent dans les pays pétroliers à partir du Soudan, de l’Égypte, de la Palestine, du Liban, de la Syrie, de la Jordanie, du Pakistan, de l’Inde, de l’Indonésie, de la Polynésie… L’impact social et économique de ces migrations ne peut être surestimé. Entre autres, elles assurent la transformation des diplômés au chômage, qui reviennent dans leur pays d’origine beaucoup plus religieux qu’au départ. Le wahhabisme établit son emprise sur la communauté des Croyants. Pendant les années 1980 où se développent souterrainement dans les pays à majorité sunnite les conséquences des facteurs précédemment décrits (explosion démographique, exode rural, migrations internationales, scolarisation de masse et urbanisation incontrôlée), le devant de la scène est occupé par la révolution d’Iran qui injecte le dolorisme chiite dans l’esprit de nombreux jeunes gens, oisifs, chômeurs, laissés-pour-compte du siècle, désireux de donner un sens à leur vie : en février 1979, les religieux chiites détruisent l’État impie du Chah d’Iran et le remplacent par une république islamique aussi radicale qu’antioccidentale. Et voici que se répand, au sein des foules religieuses, l’idéologie du suicide. Un verset du Coran (III, 169) remémorant les batailles livrées par le Prophète à Badr et à Uhud contre les Koraïchites affirme que ceux qui ont péri sur le chemin de Dieu jouissent de la vie auprès de leur Seigneur, pourvus de biens matériels. Cette base scripturaire a été manipulée de tout temps pour construire la mythologie du martyre ou shahid. 66. La monarchie saoudienne tire son origine et son succès de l’alliance passée en 1745 entre l’émir Mohammad Ibn Saoud et le réformateur Mohammad Ibn al-Wahhab (1703-1792). L’islam wahhabite se caractérise par l’application rigoureuse des injonctions du Coran et un extrême conservatisme social et politique.

398

INTRODUCTION AU SIÈCLE DES MENACES

À Badr s’est livrée, en novembre 624, la « mère de toutes les batailles », entourée de légendes parmi lesquelles l’anecdote suivante fournit au fidèle une source inépuisable d’enthousiasme. Au milieu du combat le Prophète annonce : « Nul des nôtres, aujourd’hui, ne sera tué sans qu’Allah ne le fasse entrer au Paradis. » À ces paroles, le fidèle Omar Ibn al-Homâm se débarrasse de sa cotte de mailles et se jette dans la mêlée, y perd la vie et se retrouve dans les bras de soixante-dix vierges aux grands yeux noirs, là-haut. Un tel exemple a été souvent suivi. Le plus célèbre est celui de la secte ismaélienne des Assassins67, créée par Hassan-i Sabbah en 1090 pour détruire l’ordre sunnite en précipitant le retour de l’imam caché. De la montagne d’Alamut où il avait construit une forteresse inexpugnable autour d’une immense bibliothèque, le grand maître, puis ses successeurs, ont envoyé pendant deux cents ans des jeunes gens gavés de haschisch (d’où leur nom et celui de leur activité), poignarder divers princes et dignitaires. Le « Vieux de la Montagne », comme l’ont appelé les croisés, avait ainsi inventé l’usage d’une petite force disciplinée et dévouée, capable de frapper efficacement un ennemi très supérieur. Les combattants palestiniens ont repris leur nom aux agents ismaéliens du terrorisme politique : les uns comme les autres se nomment fedayin, ce que l’on peut traduire par « prêts à se sacrifier pour la cause ». Pas de doute que les illuminés prêts au suicide éprouvent le besoin de compenser les privations qu’ils subissent pendant leur séjour terrestre. Au XXe siècle, le colonialisme européen affaibli s’est présenté en adversaire facile à battre et la différence de religion entre les Européens et les populations a permis de transposer la lutte de libération nationale sur le plan religieux. Le combattant nationaliste algérien était appelé moujahid, c’est-àdire celui qui s’adonne à la Jihad fi sabil Allah, effort orienté dans la voie de Dieu, qui peut se cristalliser en « petit jihad » ou guerre sainte. Le modèle historique des Assassins, venu lui-même des Zélotes juifs ou sicaires (du mot sica qui signifie poignard) fanatiques adversaires des Romains, a trouvé une résonance particulière chez les gens à 1 dollar par jour à partir des années 1980. À ce moment, les Tigres tamouls qui n’ont rien de musulman, dirigés par Prebharkaran, ont entamé une lutte pour l’indépendance au Sri Lanka où leur ethnie ne représente que 10 % de la population. Pour compenser leur infériorité numérique, ils ont poussé leur idéologie à un tel degré d’endoctrinement que tous les militants arborent une capsule de cyanure autour du cou, à croquer plutôt que de se rendre. Les plus motivés se portent volontai67. Bernard Lewis, Les Assassins, Paris, Complexe, 2001.

399

LA MENACE

res pour des missions-suicides. Sur près de deux cents attentats, dont celui qui a coûté la vie au Premier ministre indien Rajiv Gandhi, les Tigres tamouls en ont manqué moins d’une dizaine ; ils inscrivent près de quinze cents victimes à leur tableau. Le suicide devient à la mode chez les gens à 1 dollar, quelle que soit leur idéologie. Pendant la guerre entre l’Iran et l’Irak (22 septembre 198018 juillet 1988) des milliers, peut-être des dizaines de milliers de jeunes Iraniens chiites peu entraînés acceptèrent avec joie de se mettre un linceul sur le dos pour traverser les champs de mines et profiter aussitôt des faveurs prodiguées par les houris du Prophète (à condition d’avoir conservé des testicules intacts). Nombre de ces Bassidje de 15 ans, disciples de l’imam Hussein assassiné à Kerbala en 684 par le calife sunnite Yazid, glorifiés par les ayatollahs, figurèrent sur les fresques murales ornées de rouge qui décorent désormais les murs des grandes villes iraniennes. L’ÉVOLUTION RÉCENTE

(1980-1995) ;

LE SALAFISME

L’impact de la révolution iranienne et l’invasion de l’Afghanistan par les Soviétiques ont précipité la création d’une centaine de mouvements islamistes au Proche-Orient, en Asie, en Afrique, dans le Caucase, dans les Balkans et en Europe occidentale À l’Ouest, la révolution islamique d’Iran porta les religieux au premier plan, d’une part en Palestine par la création du mouvement jihad islamique et le déclenchement de la première intifada à la fin de 1987, et d’autre part au Liban, où l’ayatollah Mohtashami, ambassadeur de la République islamique à Damas, créa le Hezbollah (« parti d’Allah ») à l’imitation du parti khomeyniste iranien. À l’Est, un vigoureux mouvement islamiste démarra au Pakistan en 1979, au moment où Khomeyni arrivait au pouvoir, mais avec une tonalité bien différente. Le général Zia ul-Haq ayant renversé Ali Bhutto en juillet 1977, fit de l’application de la « charia » la priorité de ses onze ans de dictature. Loin de toute tendance révolutionnaire, l’islamisation pakistanaise associe bourgeois et intellectuels pour maintenir au nom d’Allah les masses pauvres dans la nullité politique et renforcer l’ordre établi, loin de toute dérive à la Khomeyni. La population augmente entre 1970 et 1990 de soixante-cinq à cent vingt millions d’habitants et le Pakistan devient un poids lourd de l’Islam, alors qu’en 1980, les têtes pensantes du wahhabisme mondial s’installent à l’Université islamique internationale nouvellement créée à Islamabad. L’État parvient à contrôler le champ religieux en prélevant sur les comptes

400

INTRODUCTION AU SIÈCLE DES MENACES

bancaires 2,5 % des dépôts correspondant au zakat, aumône légale, privée, obligatoire puisqu’un des cinq devoirs de l’islam, chaque année au moment du Ramadan. Il s’en sert pour financer les écoles religieuses, les medressas dirigées par des oulémas qui assurent l’éducation, le gîte et le couvert aux jeunes gens pauvres. Le subside du zakat, l’explosion démographique, l’ouverture d’emplois de fonctionnaires aux élèves des oulémas engendrent une énorme croissance du nombre des medressas pendant les années 1980. L’abcès afghan renforce le régime de Zia ul-Haq, devenu soudain, derrière l’Iran, la base d’appui stratégique rêvée par les États-Unis et donc le quatrième bénéficiaire de l’aide étrangère votée par le Congrès. Par lui passe l’aide à la résistance afghane, estimée en 1982 à 600 millions de dollars venant des États-Unis, et autant des pays arabes du Golfe. Zia s’appuie sur le parti Jamaat-e Islami, qui est le redistributeur de l’aide financière arabe à la lutte antisoviétique ; 70 % des armes fournies par les Américains sont distribuées aux partis fondamentalistes. Les armes légères livrées à Karachi par la CIA disparaissent sur place, alors que transite par le même port mais dans l’autre sens l’héroïne distillée des pavots afghans. Les profits et les armes alimenteront des groupes incontrôlés qui s’en iront propager le jihad sur la planète. L’armée pakistanaise, et donc les services de renseignement militaire, c’est-à-dire le puissant et incontrôlé ISI (Directorate of Inter-Services Intelligence), ont toujours à la fois utilisé et soutenu les mouvements radicaux, dont l’action constitue un des éléments clés de leur politique régionale. À partir de 1980, quand des groupes activistes ont émergé des mouvements religieux traditionnels pour se lancer dans la lutte armée, l’ISI a supervisé leur croissance avec deux objectifs : peser sur la vie politique pakistanaise, en particulier s’opposer aux chiites, soupçonnés de vouloir suivre les ayatollahs iraniens, et contrôler les jihads au Cachemire et en Afghanistan en coiffant les nationalistes locaux par des internationalistes pakistanais. Le général Akhtar, directeur de l’ISI de 1979 à 1987, fut l’architecte du jihad afghan. Bientôt sous l’égide du prince Turki, ministre saoudien du Renseignement, de l’ISI et de la CIA, des volontaires arabes, d’abord correspondants des ONG islamiques, puis désireux de combattre les Satans soviétiques, se pressent au Pakistan. Les accueille Abdullah Azzam, un Palestinien né en 1941 près de Jenine, professeur de charia à l’Université de Jordanie, puis à Djedda où il a eu comme élève le riche Saoudien Oussama Ben Laden, né en 1957 à Ryad, ancien Frère musulman. En 1984 à

LA MENACE

401

Peshawar, Azzam y fonde le Makhtab-al-Khadamat (MAK), ou Bureau des services aux moujahidines, et la revue Al Jihad. Sa prédication s’adresse à des activistes attirés de partout dans le monde musulman, principalement arabes, au nombre de huit à vingt-cinq mille selon les estimations, venus de leur chef sans être encadrés par qui que ce soit. Pour lui, chaque musulman a le droit de participer par les armes au jihad sans requérir l’autorisation de personne, pas même du Commandeur des croyants si tant est qu’il en existe un. Le jihad restera une obligation individuelle après la victoire en Afghanistan jusqu’à ce que soit rédimée toute autre terre qui avait été musulmane, afin que l’islam y règne à nouveau : la Palestine, Boukhara, le Liban, le Tchad, l’Érythrée, la Somalie, les Philippines, la Birmanie, le Yémen du Sud, Tachkent, l’Andalousie. À partir de 1985, accompagné souvent du cheikh aveugle Omar Abd al-Raman, mufti des assassins de Sadate, Abdullah Azzam prêche avec les encouragements de la CIA et des diplomates saoudiens. Azzam et Oussama Ben Laden font du MAK un réseau de bureaux dans 35 pays, qui joue un rôle décisif dans la résistance antisoviétique et lui consacre 200 millions de dollars. En 1988, à la fin de la guerre en Afghanistan, ils créent la base de données Al-Qaida autour d’un fichier informatisé pour diriger les volontaires vers un nouveau projet idéologique. Le mot Al-Qaida signifie aussi base militaire, ou cour (autour du caïd). Comme les combattants de retour dans leur pays d’origine y étaient mal reçus, le MAK devenu Al-Qaida se transforme dans les années suivantes en un réseau de refuge pour les guérilleros, ouvrant des camps d’entraînement et créant des cellules dans au moins quatre-vingts pays. Azzam a conceptualisé68 Al-Qaida en 1988 : « Tout principe a besoin d’une avant-garde qui le porte plus loin et tout en s’introduisant dans la société, accepte de lourdes tâches et d’énormes sacrifices. Elle porte le drapeau au long d’un chemin difficile et sans fin jusqu’au moment où elle atteint concrètement sa destination, puisque Allah a voulu qu’elle y parvienne pour se rendre manifeste. Al-Qaida al-Sulbah constitue cette avant-garde pour la société… »

En fait, les volontaires arabes n’affronteront pas les Soviétiques, ils attendront leur retrait le 15 février 1989 pour littéralement couper en morceaux des athées afghans à Jalalabad. Des jihad tours amènent d’un peu partout quelques excités, de riches Saoudiens, des beurs sortis des banlieues françaises, des activistes 68. Abdullah Azzam, « Al Qaida al-Sulbah », Al Jihad, n° 41, avril 1988, p. 46. (Le titre signifie « base solide ».)

402

INTRODUCTION AU SIÈCLE DES MENACES

aguerris aussi dont la virtuosité sur ordinateur plaît aux services de renseignement américain et pakistanais. Désormais les dirigeants des mouvements islamistes les plus durs auront trois points en commun : ils auront fait leurs études dans les facultés d’Arabie Saoudite, reçu un financement saoudien public ou privé, et terminé leur formation comme cadres militaires en Afghanistan. Quant à Abdullah Azzam, ses protecteurs se retirent du jeu afghan une fois les Russes éliminés, et il est assassiné le 24 novembre 1989, peut-être par les soins de son ami Oussama. L’invasion du Koweït par l’Irak le 2 août 1990, et la disparition quasi simultanée de la Soviétie accélèrent la radicalisation. Beaucoup d’enragés rentrent chez eux pour fonder des mouvements extrémistes, comme en Algérie le Front islamique du salut, ou le Groupe islamique armé. De nombreux jihadistes arabes basés au Pakistan et en Afghanistan, lâchés par la CIA et Ryad, se déclarent ennemis du pouvoir saoudien, coupable d’avoir accueilli l’armada mécréante de l’ONU sur le sol sacré de l’Arabie, et en général de se comporter en fidèle allié des États-Unis. Cette brigade internationale échappe désormais à tout contrôle et se transforme en groupes d’islamistes professionnels, terrés dans les zones tribales pakistanaises pour y attirer des électrons libres venus de tous les pays. Dans ce vivier prend naissance une nouvelle idéologie sunnite, le salafisme jihadiste69, ainsi nommé par l’Égyptien Mustapha Kamel, dit Abou Hamza. Elle place au premier rang de ses préoccupations l’intégrité de l’Oumma. Ses adhérents suivent les textes dans leur sens littéral figé par l’ouléma du e XIV siècle Ibn Taïmiyya, le grand ancêtre des wahhabites. Pour eux un musulman intégré dans la civilisation occidentale est un musulman perdu pour l’Oumma. Ils donnent la priorité à la guerre contre l’ennemi de la foi, c’est-à-dire l’Amérique. La violence qu’ils prônent au nom de la religion se nourrit localement de la crise sociale du Penjab où les enfants de paysans pauvres ruinés par la croissance de la population s’accumulent dans la promiscuité des medressas pour entendre les maîtres prêcher le jihad contre les mécréants. En ce sens ils sont les héritiers de l’organisation secrète Tanzim al Jihad, qui organisa l’assassinat de Sadate en octobre 1981, et dont plusieurs militants se retrouvèrent à Peshawar en 1985. Chirurgien né le 19 juin 1951 au Caire, Ayman al Zawahiri incarne cette lignée et deviendra l’adjoint et l’inspirateur de Ben Laden, qui se fixe provisoirement en 1991 au Soudan où il attire des jihadistes pakistanais. 69. Le salafisme (de salaf, pieux ancêtre en arabe), école qui prit naissance à la fin du XIXe siècle s’oppose à l’innovation décriée comme interprétation humaine.

403

LA MENACE

La culture salafiste organise la communauté dans le respect du dogme, sans se soucier de l’État tenu pour impie ; elle nie la citoyenneté et la liberté qu’elle remplace par la vengeance et l’obéissance ; elle nourrit une masse qui alimentera Netwar dès qu’elle aura découvert Internet. En attendant, dans une configuration encore classique, plusieurs milliers de talibans (étudiants) afghans sortent des medressas en novembre 1994, surarmés par l’Arabie Saoudite et les services spéciaux de Benazir Bhutto, la fille d’Ali Bhutto devenue Premier ministre à son tour. Leurs commandos sont entraînés par des officiers de l’ISI, qui leur permettent de prendre Herat. Ils s’emparent de Kandahar, puis en septembre 1996 de Kaboul et y établissent un gouvernement où les jihadistes arabes imposent leur ligne grâce à leurs capitaux. L’Afghanistan se décrit70 alors comme « une communauté violente et indifférente à la politique, gonflée aux dimensions d’un pays sur lequel s’exercent la coercition morale à l’intérieur et le jihad à la frontière ». Dirigé par le mollah quasi illettré Mohammed Omar, l’émirat des talibans devient la capitale mondiale du jihad. Ben Laden, devenu personna non grata au Soudan, s’y installe. En 1996, une alliance se noue. Les talibans confient à Ben Laden le contrôle des militants non pakistanais. Ben Laden fédère les Arabes en unités combattantes organisées à Kaboul et Kunduz et, en même temps, entraîne des volontaires venus d’Occident, désireux d’y retourner pour y mener des actions terroristes. Cependant, ailleurs, le salafisme marque partout le pas.

Netwar : naissance et méthodes LE RÉSEAU

À la fin des années 1990, l’option de la violence semble avoir mené à un cul-de-sac : effondrement politique et économique au Soudan et en Afghanistan, faillite du régime iranien, ruine de l’Irak asphyxié par l’embargo, guerre civile interconfessionnelle au Pakistan, statu quo maintenu au Cachemire, en Algérie et en Égypte malgré les assassinats. L’idéologie islamiste se dilue dans l’économie de marché. Gilles Kepel71 a écrit que la violence a empêché la mobilisation simultanée des groupes sociaux divers nécessaire à la conquête du pouvoir. Les classes moyennes constataient l’insuccès de la mobilisation islamique et une analyse 70. Gilles Kepel, op. cit. 71. Ibid., p. 577.

404

INTRODUCTION AU SIÈCLE DES MENACES

superficielle pouvait faire croire à un ralliement du monde musulman à une vision politique apaisée. En fait, les tendances lourdes que nous avons décrites sont toujours présentes dans les populations qui désespèrent de leur présent et surtout de leur avenir, et dont les frustrations s’accumulent. Et quelque chose de nouveau pourrait transformer leur combat. Une autre génération de militants se met en place, différente des vétérans des années 1980. Les nouveaux venus ne sortent pas directement du Proche-Orient, et ne sont pas connus pour une politisation antérieure. Quelle que soit leur nationalité, ils ont été réislamisés en Occident, souvent au contact d’anciens « Afghans » de retour dans des mosquées radicales. Les enfants de la globalisation entrent dans la danse. Dès 2000, le gouvernement américain a pris conscience d’une évolution. « Une tendance du terrorisme est le passage de groupes bien organisés, localisés, soutenus par les moyens étatiques, vers des réseaux internationaux, lâchement structurés. Un tel réseau a essayé en vain d’introduire des explosifs à Seattle en décembre. Avec la diminution des crédits étatiques, ces groupes se sont tournés vers d’autres ressources telles que le mécénat privé, le narcotrafic, le crime et le commerce illégal72. »

La réticulation apparaît. « Des réseaux criminels internationaux ont tiré avantage des changements spectaculaires de la technologie, de la politique mondiale et de l’économie globale pour devenir plus sophistiqués et flexibles dans leurs opérations […]. Beaucoup plus que dans le passé les organisations criminelles s’organisent en réseaux mondiaux et coopèrent entre eux, partagent leur expertise et élargissent les dimensions de leurs activités73. »

Si les salafistes jihadistes vivent dans un fanatisme radical, leur préparation militaire les a introduits aux possibilités d’action que recèlent les nouvelles technologies, et ils comptent dans leurs rangs nombre d’ingénieurs, de médecins et d’informaticiens. En contraste avec les organisations terroristes des années 1960 et 1970, comme l’OLP et le FPLP, hiérarchisées et bureaucratiques, soutenues par des États, les nouveaux groupes tels que le Hamas, le Jihad islamique, le Hezbollah, le GIA ont adopté le système Netwar, c’est-à-dire l’aplatissement de l’organigramme, la décentralisation, la délégation de l’autorité décisionnelle et les liaisons horizontales entre individus et groupes dispersés. 72. Pattern of Global Terrorism : 1999. (Introduction). Publication du Département d’État 10 687, avril 2000. 73. International Crime Threat Assessment, chap. I. U.S. Goverment Interagency Working Group, décembre 2000.

LA MENACE

405

Il faut remonter à la fin de la campagne antisoviétique en Afghanistan pour découvrir le virage qui devait conduire à l’adoption de Netwar par une organisation islamiste, et qui coïncide avec la transformation du MAK en Al-Qaida. Après la guerre du Golfe, les États-Unis, contrairement à leurs engagements ont installé des forces à demeure en Arabie Saoudite et la continuité de cette présence ressentie comme une souillure de la Terre sainte, a conduit Oussama Ben Laden, ex-collaborateur de la CIA dans la guérilla contre les Soviétiques en Afghanistan, à utiliser son réseau pour mener Netwar contre les Américains. Dès le début, Al-Qaida a compris la nature non linéaire de l’espace de bataille, et la valeur de l’attaque par de petites unités séparées venues de directions multiples. Ben Laden et ses collaborateurs ont développé une doctrine voisine du swarming74, qui se traduit ici par des actions épisodiques, ponctuelles mais distribuées globalement dans le temps et l’espace. Des attaques à la bombe ont été menées successivement contre le parking souterrain du World Trade Center à New York le 26 février 1993, puis contre les ambassades américaines à Nairobi et Dar es-Salam le 7 août 1998, puis, le 12 octobre 2000, contre le destroyer lancemissiles USS-Cole dans le port d’Aden, pour culminer, le 11 septembre 2001, par la destruction du World Trade Center à New York. La campagne menée par les Américains en Afghanistan après cet attentat a marqué une défaite complète des jihadistes, qui s’imaginaient que l’Occident s’y enliserait, pendant qu’une vague de sympathie pour les combattants islamistes soulèverait le monde musulman. « Mais cette défaite des jihadistes ne signifie pas forcément un déclin du militantisme prônant la reconstruction de la Oumma : il va au contraire profiter à la tendance prédicative, à ceux qui pensent que tout appel à la lutte armée est prématuré tant que l’on n’a pas remobilisé et transformé la base sociale des communautés musulmanes […]. Le fait que la nébuleuse salafiste va ainsi probablement devenir plus prédicative que jihadiste ne signifie pas que les appels à la lutte armée vont s’estomper, mais que ceux-ci vont plutôt concerner des zones précises, où jihadisme et mouvement de libération nationale vont de pair (Palestine, Cachemire, Tchétchénie)75. »

La dimension mondiale des connexions dont disposent aujourd’hui les activistes les encouragera de plus en plus à s’engager partout contre Satan dans Netwar. Des liens ont été tissés 74. Voir définition p. 79. 75. Mariam Abou Zahab et Olivier Roy, Réseaux islamiques. La connexion afghano-pakistanaise, Paris, Autrement, 2002, p. 69.

406

INTRODUCTION AU SIÈCLE DES MENACES

avec divers correspondants en Somalie, Tchétchénie et Asie centrale et d’autres associations islamistes telles qu’Abu Sayyag aux Philippines. Voyons ce dernier exemple. Aux Philippines, 30 % des habitants sont musulmans, mais le pourcentage monte à 97 % dans l’archipel des Sulu où le PIB par tête est six fois inférieur à la moyenne nationale. Le groupe extrémiste Abu Sayyag (« Père de l’épée ») a été fondé dès 1980 par Abdulrazak Janjalani, qui après avoir étudié en Arabie Saoudite, a combattu en Afghanistan. Le groupe s’est fait connaître par de nombreuses actions sanglantes, dont une prise d’otages en marsavril 2000. L’Indonésie est le plus grand pays musulman au monde, puisque 87 % de ses 220 millions d’habitants adhèrent à l’islam. Le Hizbul-Tahrii (« parti de la libération ») y a débarqué de Jérusalem au début des années 1980. Implanté à l’université agricole de Bogor, presque toujours clandestin, il a émergé au grand jour après la chute de Suharto en 1998. Son objectif est d’unir les musulmans dans un super-État islamique. Très opposé à l’Occident, il compterait cent mille membres en Indonésie, surtout à Célèbes. S’il ne recourt pas encore à l’action violente, il crée un climat dans lequel prospèrent les extrémistes. L’agitateur Abou Baker Baachir, d’origine yéménite, né en 1938 à Java, a fondé en 1971 avec son ami Abdullah Sungkar, une école religieuse à Ngruki dans la banlieue de Solo (Java central). Son action, inspirée de la pensée d’Hassan al-Banna, se donne pour objectif l’adoption de la « charia » par l’Indonésie. Poursuivis et emprisonnés, Baachir et Sungkar s’enfuirent en Malaisie en 1985, laissant derrière eux des réseaux déjà structurés. Ils y rencontrèrent Riduan Isamuddin, alias Hambali, et grâce à des fonds saoudiens, organisèrent en Afghanistan la formation de leurs élèves les plus radicaux. En 1992, sur l’initiative de Hambali, fut créé le réseau de cellules Jemaah Islamiyah (JI ou communauté islamique), préfiguration d’un Califat régional. À la chute de Suharto, Sungkar et Baachir revinrent au pays où mourut Sungkar en 1999. Baachir prit la tête de JI. Le réseau s’étendit alors de l’Indonésie à l’Afghanistan en passant par la Malaisie. En 2000, son maître fonda le Conseil indonésien des moujahidines (MMI), un groupe radical de pression médiatique, qui compte aujourd’hui quelques milliers de sectateurs ; le MMI pourrait être la couverture légale d’un réseau terroriste, car un de ses dirigeants, Agus Dikwarna, chargé du recrutement, a été arrêté aux Philippines en 2002 alors qu’il transportait des explosifs. Le vieux trublion Baachir est soupçonné d’avoir fomenté dans neuf villes d’Indonésie, les attentats de Noël 2000 contre des églises chrétiennes, qui

LA MENACE

407

ont coûté la vie à 19 personnes. Si la JI est liée à Al-Qaida dont elle a reçu des fonds (Hambali, capturé le 21 août 2003, aurait assuré le contact), elle reste très indépendante. Organisée militairement en unités territoriales, elle est dirigée par des militants éduqués en 1985-1995 dans des camps d’Afghanistan tenus par des Arabes, puis à Mindanao chez le FMIL (Front moro-islamique de libération des Philippines). Sa cohésion ne repose pas seulement sur un ciment idéologique, mais sur des mariages multiples qui le font ressembler à une famille géante. Le vivier où se recrutent les soldats de la JI doit être cherché parmi les quatorze mille pensionnats coraniques appelés pesantren, qui accueillent les jeunes gens pauvres grâce au soutien de fondations charitables saoudiennes. Dans les cinq ans suivant la chute de Suharto, les Saoudiens, qui répandent le wahhabisme, ont beaucoup accru leur présence, espérant répéter le succès qu’ils avaient remporté lorsqu’ils ont radicalisé les populations pakistanaises et afghanes. Une poignée de pesantren contrôlés par JI servent de refuge aux militants, de couverture pour les transferts de fonds et parfois même à l’entraînement paramilitaire. Al-Qaida s’est distinguée des autres groupes islamistes par sa doctrine de violence extrême : « Les gouvernements islamiques n’ont jamais été et ne seront jamais établis par des solutions pacifiques et des conseils de coopération. Ils seront établis, comme ils l’ont toujours été, par la plume et par les fusils, par les mots et par les balles, par la langue et par les dents76. »

L’organisation a établi son contrôle idéologique, politique, financier et militaire sur une trentaine de groupes terroristes islamistes structurés à partir de 1990 par un Conseil consultatif, et a infiltré de nombreuses ONG musulmanes impliquées dans des projets éducatifs ou socio-économiques. La culture du martyre est au cœur de la psyché collective d’Al-Qaida, qui a institutionnalisé les techniques de l’attentat-suicide. Ses camps d’entraînement en Afghanistan auraient formé entre 10 000 et 110 000 recrues (chiffres très approximatifs !) entre 1989 et octobre 2001, mais l’organisation n’a recruté pour elle-même que 3 000 hommes dans cet immense vivier, selon des critères de sélection très sévères. 76. « Déclaration de jihad contre les tyrans », Manuel d’entraînement d’Al-Qaida, sdsl, Manchester, cité par Rohan Gunaratna, Al-Qaida, Paris, Autrement, 2002, p. 10.

408

INTRODUCTION AU SIÈCLE DES MENACES

Suivant un chemin parallèle à celui de JDAM dans Cyberwar, Netwar a trouvé dans le kamikaze son PGM. Al-Qaida fonctionne sans hiérarchie centralisée : c’est Internet ! Les bureaux régionaux sont les points nodaux du réseau horizontal hors d’Afghanistan et assurent la liaison avec les groupes associés et les cellules locales. Une base implantée en Bosnie, en Albanie, puis en Turquie a coordonné les opérations dans les Balkans ; son homologue en Géorgie s’occupe du Caucase ; les entreprises africaines sont gérées depuis le Yémen et la Somalie, tandis que la Malaisie et l’Indonésie supervisent l’Asie. Organisation transnationale, elle opère des États-Unis à travers la Russie asiatique jusqu’au Pacifique. Quelque jugement que l’on porte sur son idéologie salafiste : « Al-Qaida est une organisation essentiellement moderne, qui utilise la technologie dernier cri, téléphones-satellites, ordinateurs portables, sites web cryptés pour y dissimuler des messages, etc. […] L’usage sophistiqué que fait Al-Qaida des moyens de communication illustre son ampleur véritablement planétaire et la diversité de ses activités. En 1998, Ben Laden a compris que son téléphone-satellite avait été mis sur écoutes par les services secrets occidentaux ; Al-Qaida a donc conçu un système destiné à tromper ceux qui surveillaient ses communications. Le nouveau système a bientôt pu être déjoué : il consistait à transférer les appels internationaux vers des lieux sûrs au Pakistan pour leur donner l’aspect d’appels nationaux. L’analyse des factures de Ben Laden entre 1996 et 1998 a révélé que près d’un cinquième de ses appels (238 sur 1 100) étaient adressés à des téléphones fixes et portables en Grande-Bretagne. En deuxième position figure le Yémen, base régionale d’Al-Qaida pour le Moyen-Orient depuis mai 1996, avec 221 appels. Al-Qaida utilisait le numéro appelé au Yémen comme un central téléphonique pour détourner et recevoir des appels et des messages de toute la région et au-delà. À bien des égards, la Grande-Bretagne et le Yémen étaient les deux pivots de l’activité politique et militaire d’Al-Qaida hors d’Afghanistan à la fin des années 199077. »

Une des innovations d’Al-Qaida est l’adoption d’un mode de fonctionnement et de financement qui la situe non en marge mais au cœur de l’économie internationale. Petite multinationale aux filiales implantées dans de nombreux pays, elle utilise les nombreuses possibilités d’investissement, de montages, de transferts et d’anonymat qu’offrent les marchés financiers, comme une internationale du crime profite des circuits offerts par le monde à la libre entreprise. Active dans des secteurs comme le bâtiment, l’agriculture, les marchés de l’or, du diamant et de l’héroïne, Al-Qaida s’est permis d’encaisser des 77. Rohan Gunaratna, op. cit., p. 17.

LA MENACE

409

bonus, comme l’illustre la spéculation sur American Airlines, la veille du 11 septembre 2001. Un volume d’options de vente 64 fois supérieur à la moyenne journalière des trois semaines précédentes a été traité à cette date, donnant le droit de vendre l’action à 30 dollars. Lorsque le marché s’est rouvert le 17 septembre, l’action n’en valait plus que 18. Les profits correspondent à environ 1 million de dollars et un rendement de 380 % en une semaine. Même si ces données ne constituent qu’un faisceau de présomptions, elles suggèrent que l’opacité des transactions, leur dématérialisation, le recours aux paradis fiscaux permettent à Netwar de se financer en utilisant simplement la logique de l’économie de marché. Ainsi les grands ennemis de l’Occident s’insèrent-ils à l’intérieur de son système pour parvenir à une étonnante synthèse. « Les néofondamentalistes ont islamisé la globalisation en y voyant les prémices de la reconstitution d’une communauté musulmane universelle, à condition de détrôner la culture dominante, l’occidentalisme sous forme américaine. En fait, ils ne construisent qu’un miroir, un McDo hallal […]. La Oumma imaginaire des néofondamentalistes est celle du monde global où l’uniformisation des comportements se fait, soit sur le modèle dominant américain (anglais et McDo), soit sur la reconstruction d’un modèle dominé imaginaire (djellaba blanche, barbe… et anglais)78. » NETWAR ET LES ADM

Les ADM ont jusqu’à présent été produites par les États, et les rogue states qui pratiquent la prolifération horizontale pourraient être tentés d’en fournir à des réseaux qui sont leurs alliés dans leur lutte contre les États-Unis. Ils s’en sont bien gardés jusqu’à présent ; les vases ne communiquent pas. L’Irak, l’Iran, la Libye et les autres nations dotées d’armes chimiques et biologiques n’en ont jamais livré aux activistes, car ils redoutent les capacités américaines de renseignement et de soutien à la loi internationale. Ils ne se croient pas le pouvoir d’attaquer les États-Unis sans qu’il s’ensuive une rétorsion violente. La Libye a arrêté ses actions terroristes lorsqu’elle s’est vue dévoilée et condamnée pour l’affaire de Lockerbie ; l’Irak, après avoir comploté de faire assassiner le président Bush I en 1993 n’a pas récidivé, et l’on pouvait croire Saddam Hussein dissuadé ; Téhéran n’a pas insisté dans son soutien des dynamiteurs, quand Bill Clinton a fait savoir au gouvernement iranien qu’il connaissait 78. Olivier Roy, « Au pied de la lettre », Le Monde diplomatique, juillet-août 2002, p. 33.

410

INTRODUCTION AU SIÈCLE DES MENACES

son rôle dans la destruction des Khobar Towers à la base militaire saoudienne Roi Abdul Aziz le 25 juin 1996. La Syrie s’est bornée à un soutien classique au Hezbollah libanais. Une nette distinction apparaît entre les États, qui peuvent donc être dissuadés de recourir à un terrorisme classique, et le nouveau fanatisme religieux porteur de Netwar, qu’aucune dissuasion ne peut décourager, puisque sa stratégie consiste à créer une escalade où des ripostes de plus en plus larges et sanglantes se succéderaient de part et d’autre. Les gouvernements anglo-saxons ont nié cette diversité, lorsque le président Bush II a prétendu en octobre 2002 que l’Irak pourrait décider à tout moment de fournir des armes chimiques ou biologiques à un groupe ou à un individu terroriste pour attaquer les États-Unis sans en avoir l’air. Les relations supposées entre l’Irak et Al-Qaida ont servi à justifier l’attaque américaine lors de la seconde guerre du Golfe, présentée par la doctrine officielle comme une contre-attaque dans le flux de la « guerre contre le terrorisme », après l’attentat du 11 septembre 2001. En fait jusqu’à présent Netwar s’est contenté d’armes à impact local. Pour obtenir des effets mondiaux, elle devra porter l’offensive sur son champ de bataille naturel, la cybersphère et, imitant Cyberwar, frapper dans le domaine cognitif de l’adversaire plutôt que cibler ses capacités. Elle s’y apprête. NETWAR ET L’AVIATION

L’atteinte volontaire à la sécurité d’un aéronef possède une forte charge d’effroi. Si, lors d’une explosion à bord d’un transport terrestre ou d’un bateau, il paraît envisageable pour les passagers de tenter de fuir, comment s’extirper d’un avion quand on ne sait pas voler ? L’appareil se transforme en véritable couloir de la mort pour les victimes qui ne peuvent ni échapper aux flammes et aux gaz asphyxiants, ni se protéger contre l’inévitable crash. Les mouvements activistes radicaux exploitent cette angoisse. L’attentat entraîne un geyser médiatique ; le tapage engendré par un attentat aérien constitue la raison principale pour laquelle la cible aérienne représente un objectif de choix car, ainsi que le souligne le juge Jean-Louis Bruguière79, « un attentat dont on ne parle pas est un attentat raté ! ». 79. J.-L. Bruguière, Le Terrorisme à l’aube du XXIe siècle : tendances et perspectives. Conférence du 13 décembre 1999, issue du cycle « Analyse des menaces criminelles contemporaines », Paris, université Panthéon-Assas.

LA MENACE

411

Une agression perpétrée en vol offre un rapport qualité/prix exceptionnel. Le nombre des victimes dans chacun des principaux attentats aériens dépasse celui des actions armées les plus spectaculaires commises sur terre ou sur mer : l’attentat de Lockerbie80 a causé plus de morts (270) que celui des islamistes chiites libanais contre les marines américains à Beyrouth en octobre 1983 (253 morts). Si une attaque dirigée contre un des maillons du dispositif aérien mondial exige une mise en place délicate des instruments du sabotage, elle ne requiert pas de grands moyens en hommes, en matériel ou en financement. L’expérience des trente dernières années montre qu’un groupe d’ampleur moyenne peut frapper un adversaire avec un taux élevé de succès s’il dispose de relais humains bien placés et de la capacité d’obtenir des renseignements sûrs. Le déplacement des aéronefs sur un itinéraire connu à l’avance permet à l’agresseur de choisir pour cible l’endroit où le dispositif, pourtant globalement solide d’un bout à l’autre de la chaîne, présente une faiblesse. Ainsi, sur l’axe Europe-Tel-Aviv, l’aéroport d’Athènes, où les mesures de sécurité laissent à désirer, a été souvent utilisé pour le déclenchement d’opérations armées. Dès la fin des années 1980, l’expansion du tourisme de masse a conduit des millions de visiteurs à fréquenter des dizaines d’aérodromes encore moins surveillés que celui d’Athènes. En fait, aucun d’entre eux n’assure à cent pour cent l’arrestation préventive des trublions éventuels, comme on l’a vu à Boston et à Orly lors des attaques récentes d’Al-Qaida. L’imagination n’a pas manqué aux groupes activistes pour innover dans la nuisance. Outre leur créativité en matière de procédures opérationnelles, soulignons leur ingéniosité à mettre en œuvre des dispositifs élaborés pour contrer le perfectionnement des systèmes de surveillance, de contrôle des passagers et de manipulation des bagages. Par exemple, l’emploi de chronobarographes ou autre mécanismes de retard a complété les habiles présentations d’engins explosifs grâce à des camouflages de plus en plus soignés : dissimulation dans des valises à double fond, modelage sous pièces de vaisselles ou jouets. La réduction à la plus extrême simplicité s’est paradoxalement montrée la plus efficace avec l’emploi de cutters dans les attentats du 11 septembre 2001.

80. Voir p. 412.

412

INTRODUCTION AU SIÈCLE DES MENACES

Le placement d’explosifs à bord

Une telle méthode a été employée au début de l’aviation par des individus qui avaient souscrit une assurance sur la vie. Des groupes palestiniens ont utilisé des passagers innocents qui s’étaient chargés d’un bagage pour rendre service, voire des femmes heureuses de porter un cadeau de leur amant. Le gouvernement libyen s’est fait connaître par deux attentats réussis de ce type qui ont détruit, le premier, un Boeing 747 de la compagnie PanAm au-dessus de Lockerbie avec 270 morts le 21 décembre 1988, et le second, un DC-10-30 de la compagnie UTA le 19 septembre 1989 par une charge placée à bord à Brazzaville et explosant au-dessus du Ténéré avec 170 victimes. D’abord organisé par des services étatiques, l’attentat à la bombe fut adopté par Netwar au début des années 1990. Après la création d’un réseau logistique aux Philippines de 1988 à 1993, Al-Qaida tenta l’opération Bojinka81 en 1994 sous la direction du Pakistanais Abdul Mohamed Abdul Karim, alias Ramzi Ahmed Youssef, qui avait monté l’attentat à l’explosif du World Trade Center en février 1993. Le programme comprenait non seulement l’assassinat du pape Jean-Paul II et du président Clinton durant leur visite à Manille, celui du président Fidel Ramos ainsi que de nombreux personnages haut placés, mais aussi l’explosion de onze avions commerciaux américains alors qu’ils survoleraient cette partie du monde. En guise d’essai, Youssef prit un vol Manille-Tokyo de la compagnie Philippine Airways le 11 décembre 1994 et débarqua à Cebu en laissant à bord de l’avion un engin à base de nitroglycérine, qui explosa lors du vol subséquent, tuant un passager et en blessant onze. Le pilote réussit à poser l’avion à Okinawa. Les onze attentats prévus aussitôt après contre les compagnies United, Northwest et Delta se seraient succédé en quarante-huit heures, si le 6 janvier 1995, Youssef n’avait mis le feu à son appartement en mélangeant les explosifs, et le noyau de sa cellule fut arrêté. Bien que Ben Laden ait nié avoir rencontré Youssef, il fit son éloge en public et affirma qu’il était le meilleur agent d’Al-Qaida. Youssef a fait ses études d’ingénierie électrique à Oxford et au Glamorgan Institute en Angleterre. Son bras droit était le Pakistanais Abdul Hakim, à qui est due l’idée d’attaquer le WTC comme « l’un des centres économiques les plus célèbres du monde ». Pilote licencié aux États-Unis, il avait conçu le plan de lancer des avions sur des cibles américaines, comme le montre 81. Rohan Gunaratna, op. cit., p. 209-215, sur la vie de Youssef, condamné à deux cent quarante ans de prison aux États-Unis.

LA MENACE

413

son interrogatoire lors de son arrestation à Manille en janvier 1995. Le détournement

Très employée par des individus dans un but personnel, la méthode a été utilisée pour la première fois par un réseau en 1968, lorsque le FPLP a détourné simultanément trois avions de ligne pour les faire atterrir en Jordanie et les détruire. La conséquence en a été la crise de Septembre noir en 1970 et l’expulsion des organisations palestiniennes de Jordanie. Deux opérations de ce type sont devenues célèbres : — Le 22 juin 1976, un Airbus A-300 de la compagnie Air France reliant Tel-Aviv à Paris via Athènes est détourné après l’escale d’Athènes jusqu’à Entebbe, en Ouganda, par quatre membres du FPLP qui réclament la libération de 53 prisonniers politiques détenus dans différents pays. Dans une opération extraordinairement hardie, digne des Trois Mousquetaires (qui ne sont plus français au XXe siècle), un commando israélien aéroporté tue les terroristes et libère les otages malgré la complicité active des autorités ougandaises en faveur des pirates. L’année suivante, à Mogadiscio, avec le même style mais dans des conditions rendues moins acrobatiques par l’accord du gouvernement somalien, le service action GSG-9 allemand, encadré par des éléments du SAS britannique, parvient à libérer les passagers d’un vol Lufthansa retenus par un groupe de pirates similaire au précédent. — Le 24 décembre 1994, des islamistes du Groupe islamique armé (GIA) s’emparent d’un Airbus de la compagnie Air France pendant l’embarquement des passagers à l’aéroport d’Alger, pour soi-disant obtenir la libération de leurs chefs emprisonnés. L’avion décolle après l’assassinat de trois passagers et se pose à Marseille-Marignane. Lorsque les pirates exigent un ravitaillement complet en carburant pour se rendre à Paris, leur objectif véritable qui est une opération suicide de crash sur la capitale, se dévoile ; le Premier ministre français ordonne l’assaut ; les quatre pirates trouvent la mort sans autre victime parmi les passagers. La bombe volante

Le 11 septembre 2001, quatre avions américains sont simultanément détournés : un Boeing 767-200 de la compagnie American Airlines du vol Boston-Los Angeles ; un Boeing 767-200 de la compagnie United Airlines du vol Boston-Los Angeles ; un Boeing 757-200 de la compagnie American Airlines du vol Dulles-Los Angeles ; un Boeing 757-200 de la compagnie United Airlines du vol Newark-San Francisco. À bord de chacun des avions se trou-

414

INTRODUCTION AU SIÈCLE DES MENACES

vent cinq membres d’Al-Qaida (quatre seulement sur le dernier) armés de cutters, qui maîtrisent les équipages et précipitent les appareils respectivement, pour les trois premiers, sur la tour nord du World Trade Center à New York, la tour sud du même ensemble et le Pentagone. La cible du quatrième, qui s’écrase près de Pittsburg après un sursaut des passagers, n’a pas été identifiée ; peut-être s’agissait-il du Capitole à Washington. Un peu moins de trois mille personnes meurent dans l’opération. Les attentats ont été exécutés par quatre cellules distinctes dont chacune comprenait au moins un membre sachant piloter un avion. Trois des quatre pilotes avaient appartenu au même groupe étudiant islamiste radical de Hambourg dirigé par le Yéménite Ramzi Ben al-Shaiba. Pour préparer l’opération, AlQaida a utilisé l’Allemagne, les Émirats et la Malaisie comme plates-formes de pénétration aux États-Unis. Des bases indépendantes avaient été établies dans chaque pays, quelques membres seuls avaient le droit d’assurer les liaisons. Un certain degré de coordination aurait été confié à Mohamed Atta, fils d’un avocat égyptien. La sophistication de l’opération ne réside pas dans les moyens techniques employés, mais dans la transformation des Boeing ennemis en bombes volantes, le choix d’objectifs symboliques et l’organisation du réseau. L’attaque du 11 septembre a prouvé qu’Al-Qaida pouvait innover et que ses techniques d’opérations étaient constamment affinées à la lumière des opérations précédentes. Ainsi les quatre équipes se sont-elles tenues à l’écart de tout centre arabe ou musulman ; connaissant le danger que constituent les faux papiers et visas, les agents ont utilisé d’authentiques documents d’identité pour se rendre jusqu’au lieu visé ; la cellule allemande chargée de l’opération fit la demande de nouveaux passeports afin d’effacer toute trace de voyages antérieurs, au Pakistan et en Afghanistan. Au long de la phase préparatoire, la sécurité maximale fut de rigueur. Les cellules communiquaient avec l’Afghanistan par le biais de courriels cryptés et de messagers. Alors que seuls quatre pilotes étaient nécessaires pour l’opération, une demi-douzaine de membres d’Al-Qaida furent formés dans des écoles de pilotage aux États-Unis au cours des dixhuit mois précédant l’attaque82. Toutes les cellules s’étaient procuré des vidéos de simulation de vol pour chaque type de Boeing. Répéter chaque opération était un principe et tous les membres firent des vols d’entraînement. 82. Rohan Gunaratna, op. cit., p. 127.

LA MENACE

415

Les dix-neuf membres du commando qui s’est illustré le 11 septembre avaient tous fait des études supérieures, architecture, électronique ou informatique et venaient de familles fortunées ou aisées. Quinze d’entre eux étaient saoudiens. Bien que technophiles, ils se caractérisaient par un fanatisme religieux exprimé par Atta dans la préface à sa thèse : « Ma prière, mon sacrifice et ma vie sont entièrement pour Allah, le Seigneur des Mondes. » Ainsi ont-ils introduit dans le terrorisme aérien le comportement suicidaire du kamikaze. Une attitude salafiste de ce genre a été cultivée à Londres, devenue depuis l’arrivée en 1994 de Khalid Al-Fawwaz, un ami de Ben Laden, le pivot spirituel d’Al-Qaida en Occident. Al-Fawwaz dirigea les bureaux de l’Advice and Reformation Committee dotés des moyens de communication les plus modernes qui lui permettaient de parler directement avec Ben Laden. Des religieux islamistes radicaux installés en Grande-Bretagne forment le cœur du Londonistan. Leurs prêches ont envoyé des centaines d’étudiants européens en Afghanistan, en attendant l’Irak. Zacarias Moussaoui, peut-être le « vingtième » pirate du 11 septembre, et un Richard Reid allaient régulièrement à la mosquée de Brixton. Britannique converti à l’islam, Reid était revenu en Europe après une formation au camp de Khalden en Afghanistan pour accomplir des missions au service d’Al-Qaida en Malaisie, en Turquie, en Égypte, en Israël, aux Pays-Bas, en France et en Belgique. Le 22 décembre 2001, il s’embarqua sur un vol Paris-Miami de la compagnie American Airlines avec l’intention de faire sauter l’appareil avec de l’explosif dissimulé dans ses chaussures. L’équipage maîtrisa le kamikaze amateur avant qu’il ait eu le temps de passer à l’acte. Londres devait être bombardée le 11 septembre par Al-Qaida, qui avait prévu de détruire le Parlement en faisant s’y écraser un avion de la compagnie British Airways détourné de Heathrow. Le Tower Bridge devait aussi être attaqué, mais ce projet fut abandonné fin septembre. Trois équipes avaient été entraînées par AlQaida, et des cibles leur avaient été attribuées à Londres, en Inde et en Australie. Mohamed Afroz, pilote indien formé à Melbourne, en Angleterre et aux États-Unis dirigeait la cellule destinée à attaquer Londres, qui se réunit à Heathrow le 11 septembre à 17 heures pour détourner un vol Londres-Manchester, mais les autorités de l’aéroport y suspendirent toute activité en apprenant l’attentat de New York. Le détournement d’un vol de la compagnie British Airways partant de Londres à destination de Bombay fut aussi empêché. Deux Pakistanais qui se seraient entraînés avec Afroz à la Tyler International School of Aviation de Dallas en 1999, furent

416

INTRODUCTION AU SIÈCLE DES MENACES

impliqués ultérieurement, le 24 décembre 1999, dans le détournement jusqu’à Kandahar d’un Airbus d’Indian Airlines volant de Katmandou à New Delhi. Un passager fut tué d’un coup de couteau ; un accord conclu pour mettre fin au détournement permit la libération des otages, mais aussi celle de 35 terroristes y compris Omar Sheikh, arrêté en février 2002 à Karachi pour le meurtre du journaliste américain Daniel Pearl, et impliqué aussi dans des attaques-suicides contre l’Assemblée cachemirie à Srinagar en octobre 2001, contre le Parlement indien le mois suivant, et dans l’assassinat de six policiers qui gardaient l’US Information Center à Calcutta en janvier 2002. Le tir de missiles

Les Manpads (Man Portable Air Defense Systems), missiles antiaériens portables à dos d’homme, opérationnels dans leurs forces armées, ont été distribués par les Soviétiques et les Américains à divers groupes incontrôlés sans qu’on puisse garder la trace des engins inutilisés. Leur efficacité est grande : au cours du dernier quart de siècle, 95 % des aéronefs abattus par un tir venu du sol l’ont été par des Manpads. De tels engins, qui pèsent une quinzaine de kilos, peuvent frapper un avion volant à 4 500 mètres d’altitude, jusqu’à 6 kilomètres de distance : • Le SA-7 « Strela » soviétique porte une charge de 1 kg d’explosif et le SA-14, de même origine, une charge de 2 kg. Utilisant un autodirecteur fonctionnant dans le proche infrarouge, ils se guident vers les tuyères des moteurs. • Le Stinger américain, capable de porter une charge similaire à celle des engins soviétiques, utilise des détecteurs à l’antimoniure d’indium. Sensible à l’infrarouge il peut viser, outre les gaz chauds, certaines parties de la cellule. Le Stinger est devenu célèbre en Afghanistan. La CIA y livrait annuellement 250 affûts de tir et 1 000 à 1 200 missiles aux irréguliers ses alliés. En 1989, l’armée de terre américaine a comptabilisé environ 269 aéronefs soviétiques abattus pour 340 missiles tirés. Il resterait 300 à 600 engins dont on ne sait ce qu’ils sont devenus. Les talibans en auraient possédé entre 50 et 200 exemplaires ; 200 autres seraient restés stockés au Pakistan ; 15 missiles détournés par l’ISI pakistanais, auraient été utilisés contre l’aviation indienne au Cachemire ; des Stinger ont été tirés par les rebelles tchétchènes et les Tigres tamouls. Au total 27 mouvements de guérilla posséderaient divers types de Manpads, qui ne sont pas uniquement des Stinger, mais aussi des Blowpipes anglais, et surtout des SA-7, dont non seulement 50 000 exemplaires ont été

LA MENACE

417

produits, mais qui ont été copiés par les Chinois pour développer les HN-5, les Pakistanais pour l’Anza et les Égyptiens leur Ayn-asSakr. Des dizaines de milliers de missiles accumulés par l’armée irakienne avant sa défaite de 2003 sont répartis dans des caches, à la portée d’irréguliers. On place aux environs de 500 000 l’inventaire global de ces engins, fabriqués par au moins treize pays, dans les armées « légitimes », et l’on estime entre 5 000 et 150 000 ceux que possèdent des acteurs non étatiques. En janvier 2004, les États-Unis paient l’armée serbe pour détruire 1 200 Strela stockés dans une caserne aux environs de Belgrade. En 1975, les terroristes palestiniens ont tiré deux roquettes sur l’aéroport d’Orly dans la direction d’un avion de la compagnie El Al. Un avion yougoslave a été le seul touché et un policier français, de garde à bord, a été blessé. Depuis 1978, 35 attaques au missile ont été menées contre des avions de ligne, provoquant la perte de 24 appareils et environ 500 victimes83. Le 6 avril 1994, l’avion qui transportait le président de la République du Rwanda et la plupart des membres de son gouvernement a été abattu à l’atterrissage à Kigali en préparation d’un soulèvement insurrectionnel. L’événement a déclenché un génocide qui a fait des centaines de milliers de victimes. Une catastrophe a été évitée de justesse lors de l’attentat attribué à Al-Qaida, le 28 novembre 2002, contre un Boeing 767-300 de la compagnie israélienne Arkia décollant de Mombassa. Deux missiles SA-7 ont été tirés contre l’avion qui transportait 271 passagers et membres d’équipage sans toucher leur but. Le 2 décembre 2001, un missile identique avait été lancé également sans succès par un Soudanais contre un avion militaire américain près de la base aérienne Prince Sultan en Arabie Saoudite. Le 5 septembre 2003, quatre missiles ont manqué un avion militaire américain décollant de Bagdad. D’autres tentatives autour de cet aérodrome, gardées secrètes par les autorités américaines, empêchent sa réouverture (octobre 2003) ; depuis octobre, plusieurs missiles y ont eu du succès. Le 22 novembre, un engin a touché au décollage un Airbus A-300 volant pour la compagnie DHL, qui grâce à l’expertise de son équipage, a pu atterrir en dépit d’une aile à demi détruite. Si l’on peut espérer trouver des parades en plaçant à bord des avions un système d’autoprotection à brouilleur laser, ou plutôt des leurres thermiques éjectés comme sur les avions de combat, parades qui n’apporteront peut-être jamais une défense vraiment 83. Air et Cosmos, n° 1885, 11 avril 2003, p. 20.

418

INTRODUCTION AU SIÈCLE DES MENACES

hermétique, les missiles resteront une menace par leur ubiquité, leur rusticité et leur indétectabilité tant qu’ils n’ont pas été tirés. L’attaque système

Les missiles ne sont pas les seules menaces qui guettent les avions au moment où ils sont les plus vulnérables, c’est-à-dire au voisinage des aéroports. Lorsque les systèmes spatiaux de localisation, GPS ou Galileo, auront été adoptés pour la navigation aérienne, on peut s’attendre à des attaques par brouillage de leurs émissions, grâce à des équipements similaires aux produits déjà commercialisés par la société russe AviaKonversia84. Le futur GPS-3 sera cent fois plus difficile à brouiller : plus intense, le signal comprendra une composante militaire cryptée, dont l’US Air Force étudie la compatibilité avec la protection du système civil. Netwar trouvera là un terrain fertile pour l’ingéniosité de ses électroniciens. Il suffira, un jour, d’une faille… Pendant la seconde guerre du Golfe, les Irakiens ont tenté sans succès de brouiller les signaux GPS pour dérouter les Tomahawks ou les JDAM. Les Américains ont riposté en détruisant les brouilleurs avec des JDAM. Conclusion

Après la chute de la Soviétie, les attentats perpétrés contre l’aviation civile avaient présenté une décroissance : si entre 1982 et 1986 la Federal Aviation Administration (FAA) avait dénombré plus de 80 actes de terrorisme aérien, elle n’en enregistra que 41 entre 1994 et 1998. Cette diminution n’est pas significative. Il y a aujourd’hui autant de tentatives de terrorisme que par le passé. Le vecteur aérien est simplement moins atteint, grâce à l’extension du système sécuritaire mis en place dans les aéroports qui, maintenant plus performant et plus dissuasif, conduit les activistes à déployer plus d’imagination. Leur volonté d’employer à l’encontre de l’aviation civile de nouveaux modes opératoires, à la fois plus subversifs et peut-être moins détectables, reste inchangée, comme le montrent les attentats du World Trade Center et de Mombassa, car le caractère spectaculaire du terrorisme aérien gardera son attrait. On aura noté l’incapacité des autorités à prendre au sérieux les idées nouvelles engendrées au sein du chaudron où bouillonne Netwar. En sept ans, la communauté du renseignement américain a rédigé douze rapports laissant penser que des terroristes pourraient utiliser des avions comme armes. Dès 1995, les idées du 84. Voir chapitre VI, p. 250.

LA MENACE

419

pilote kamikaze Abdul Hakim, révélées à Manille et soulignées par l’essai manqué du GIA sur Paris, auraient dû attirer l’attention des instances de sécurité sur le danger de la bombe volante. Le 10 juillet 2001, la station du FBI à Phoenix (Arizona) alerta son quartier général à Washington sur le foisonnement soudain d’élèves-pilotes d’origine proche-orientale en stage aux États-Unis. Son courriel ne fut ni lu ni transmis. Et en août 2001, l’arrestation de Zacarias Moussaoui conduisit la station de Minneapolis à évoquer en toutes lettres, auprès de ses supérieurs, une attaque potentielle sur le WTC85 ! Aussi bien ses arguments que les informations relatives au suspect transmises par les enquêteurs de la DST furent rejetés par la direction du FBI, « sans intérêt puisque d’origine française ». L’administration fut incapable de trouver un moyen juridique pour fouiller les bagages et ouvrir l’ordinateur du présumé terroriste. Tout commentaire, surtout venant d’un Français, serait ici trop cruel. En fait, sur les bords du Potomac, on ne pouvait imaginer que quiconque oserait viser la toutepuissante Amérique. L’ATTAQUE OCÉANIQUE

Aujourd’hui 80 % du commerce mondial du fret pondéreux transite dans l’espace maritime, et les trois quarts de ces échanges empruntent cinq passages obligés : le canal de Suez (20 000 bateaux par an), le canal de Panama (10 000), les détroits de Malacca (35 à 50 000), Gibraltar et Ormuz. Par exemple, plus de dix millions de barils de pétrole franchissent chaque jour le détroit de Malacca, soit 13 % du ravitaillement mondial, alors que la passe la plus étroite de cette voie face à Singapour n’atteint pas 3 km de largeur. Dans les neuf premiers mois de 2003, la piraterie maritime a augmenté de 20 % de par le monde. Une attaque sur quatre a été perpétrée dans les eaux indonésiennes. Dans le détroit de Malacca, vingt-deux tentatives ont été signalées entre janvier et septembre 2003. Avec une marine de guerre quasi inexistante, Djakarta n’a ni les moyens ni la volonté de faire face au danger. Il suffit au pirate de monter à bord, de placer une arme sur la tempe du pilote afin de le forcer à enclencher le pilotage automatique dans une direction choisie, enfermer l’équipage et quitter le bateau soit avec la caisse, soit avec une partie de la cargaison. Les dégâts pourraient devenir incalculables si des terroristes 85. Rapport de la Commission d’enquête du Congrès des États-Unis sur les activités de l’ Intelligence Community avant et après les attaques terroristes du 11 septembre 2001 ; publié le 24 juillet 2003.

420

INTRODUCTION AU SIÈCLE DES MENACES

transformaient des superpétroliers, des transporteurs de gaz liquide ou des chimiquiers en bombes flottantes. Jusqu’à présent un seul supertanker, le français Limburg a été attaqué par des terroristes, le 6 octobre 2002 au voisinage d’Aden. La répétition d’actes de ce style, même de plus grande ampleur, n’aurait qu’une faible incidence sur le commerce maritime, mais il engendrerait de fortes conséquences sur les montants des assurances, outre une catastrophe écologique éventuelle. Un rapport de la Rand a critiqué le contrôle très laxiste des porte-containers dans les « pays à risques ». La 23e session de l’OMI (Organisation maritime internationale) s’est tenue à Londres du 19 novembre au 5 décembre 2003 pour faire le point sur l’installation à bord des systèmes de contrôle imposés par un accord conclu en 2002. Elle a constaté la résistance des armateurs qui chiffrent la facture à 1,3 milliard de dollars pour 2003, l’insuffisance des moyens nécessaires à l’homologation de l’amélioration de la sécurité à bord et le manque de contrôle de l’identité des marins. Comme l’a déclaré86 le chef de l’état-major de la Royal Navy, l’amiral Alan West : « La question n’est pas de savoir s’il y aura des actes de terrorisme maritime, mais quand. » Netwar n’y a pas encore pensé. LE BIOTERRORISME

L’emploi à l’aveugle d’armes biologiques contre une population n’est pas facile, même pour un État qui dispose des ressources nécessaires pour les fabriquer et des capacités organisationnelles pour les disséminer : la preuve en est donnée par le fait qu’aucun pays sauf le Japon ne s’y est encore essayé. Le danger pourrait prendre une nouvelle forme. « Depuis quelques années, la prolifération chimique et/ou biologique semble évoluer d’une réalité étatique vers une composante terroriste. L’attentat chimique de la secte Aoum, laquelle envisageait aussi une action biologique, et les événements récents aux États-Unis montrent que cette prolifération est à la portée de groupes organisés. Ils peuvent être soutenus scientifiquement et financièrement par des États, cela présente l’avantage pour ces derniers d’être moins décelables. Cette problématique nouvelle est la plus importante à envisager pour l’avenir, notamment pour le biologique87. » 86. Le Monde, 29 novembre 2003. 87. Michel-Jean Allary, « La prolifération des armes de destruction massive », Les Cahiers de Mars, n° 172, 1er trimestre 2002, p. 35.

LA MENACE

421

Les groupes activistes peuvent se procurer des armes, soit par des fuites en provenance de programmes étatiques, explicitement organisées d’en haut ou secrètement distillées d’en bas, soit par un développement interne grâce à leurs propres capacités scientifiques ou techniques. La maîtrise de la microbiologie n’exige pas une formation extrêmement poussée et les biotechnologies se répandent partout, que ce soit pour élaborer des vaccins, améliorer les souches de plantes cultivées ou d’animaux domestiques, ou affiner les techniques de diagnostic. Un grand local suffit pour une installation limitée à quelques fermenteurs ou équipements de petites dimensions. Point n’est besoin de connaissances supérieures à celles d’un laborantin pour fabriquer bactéries et virus. La difficulté réside dans la mise en œuvre des méthodes dites de « militarisation », qui rendent efficaces les germes pathogènes. Il faut savoir non seulement les préparer, mais les stocker de façon à leur conserver leur virulence et les projeter vers les victimes sous une forme adéquate. Si le bioterrorisme a été jusqu’à présent moins répandu que les attentats classiques, il est possible d’en citer déjà beaucoup d’exemples. Seth Carrus88, du Centre de recherches contre la prolifération de Washington, en a recensé cinquante et un cas dont vingt-quatre notables. Mentionnons, en 1970, un empoisonnement d’eau aux États-Unis par le groupe d’extrême gauche Weathermen ; en 1972, l’arrestation de membres de la secte Sun Rise Order, trouvés en possession de quarante kilos d’agents de la fièvre typhoïde ; en 1980, la découverte par la police française de cultures de toxine botulinique dans une cache de la Fraction Armée Rouge ; en 1984, la secte des Rajmeeshees asperge de salmonelles les salades servies dans la ville de Dalles (Oregon), envoyant quarante personnes à l’hôpital… Il a fallu cependant attendre 1994 pour constater un véritable assaut du bioterrorisme. La secte japonaise Aoum Shinri-Kyo (« Vérité suprême ») a été fondée en 1984 sous l’influence de mystiques indiens qui veulent réformer le monde sans verser le sang. Ayant recruté des milliers d’adeptes, dont certains sont éduqués et influents, elle est riche et elle a pu financer directement des scientifiques pour élaborer une panoplie d’armes biologiques et chimiques. Dans le domaine biologique, ses laboratoires ont travaillé sur le charbon, le choléra, la toxine botulinique, la fièvre Q. Des adeptes ont essayé en vain de récupérer du virus Ebola en Afrique. Ses attaques contre le public japonais ont toutes échoué : en avril 1990, dispersion de toxine botulinique près du Parlement ; en juin 1993, 88. Seth Carrus, Témoignage devant le Sénat américain, 4 mars 1998.

422

INTRODUCTION AU SIÈCLE DES MENACES

opération identique lors du mariage du fils de l’empereur puis, quelques jours plus tard, largage de spores de bacilles du charbon à partir d’un laboratoire situé au centre de Tokyo. La souche employée aurait manqué de virulence et, de plus, les substrats de germes pathogènes auraient bouché des vaporisateurs. N’est pas un tueur qui veut ; il faut tout de même un certain degré de professionnalisme. Dans le domaine chimique, la secte a connu plus de succès. Le 27 juin 1994 à Matsumoto, au nord-ouest de Tokyo, elle a répandu du sarin dans une banlieue résidentielle, faisant sept morts et envoyant deux cents personnes à l’hôpital. Et surtout, le 20 mars 1995, elle a déposé des sacs en plastique percés remplis de sarin, dans cinq rames du métro de Tokyo, à des kilomètres les unes des autres. Des centaines de passagers, jusqu’à quatre cents dans certaines stations, étouffent, s’évanouissent. L’attentat est responsable de douze morts et mille hospitalisations sur un total d’environ trois mille personnes touchées. Le seul cas documenté d’une attaque à l’arme biologique est l’affaire du charbon (anthrax en anglais) qui a visé, aux ÉtatsUnis, quelques personnes, choisies on ne sait sur quel critère, au début d’octobre 2001, c’est-à-dire aussitôt après les attentats du WTC. Cinq lettres contenant des spores mortelles de qualité « militaire », donc très pathogènes, certainement préparées dans un laboratoire spécialisé américain comme celui de Fort Detrick, ont été postées à Trenton (New Jersey). Cinq personnes, dont deux postiers, succombent. L’Amérique est saisie d’une incroyable panique. Le Capitole est évacué et les travaux parlementaires suspendus. Les plaisantins se déchaînent et envoient du sucre en poudre à leurs ennemis. Le directeur général de la Poste, John Potter s’étonne « que des terroristes utilisent le courrier américain comme moyen de faire le mal ». Voyons, tout ce qui est américain est si propre, si décent ! Dans cet attentat, rien n’implique le terrorisme, et encore moins Netwar. Un frustré, sans doute un solitaire, peut-être irrité contre les agences de biodéfense, est vraisemblablement l’auteur de l’opération, qui ne nous intéresse ici que par l’embrasement des médias qu’elle provoqua et par la riposte extrêmement coûteuse des services de police, de santé et de renseignement. La surmédiatisation de ce « biocrime » aura donné des idées aux ennemis de l’Occident qui préparent leurs spores. Il est aisé de concevoir des modes de dissémination plus efficaces que la Poste, ne serait-ce que les systèmes de climatisation, si universellement répandus et si peu surveillés. Des rumeurs ont attribué à Al-Qaida l’intention de se procurer ou de développer des armes biologiques. En 1999, lors du pro-

LA MENACE

423

cès en Égypte de cent sept présumés terroristes, des informations sujettes à caution ont circulé dans la presse selon lesquelles Ben Laden et Ayman Al-Zawahiri auraient acquis des agents biologiques et chimiques. Au cours de l’intervention américaine en Afghanistan, la recherche approfondie de laboratoires, de terrains d’essais, d’armes n’a donné aucun résultat concret. Des manuels de bioterrorisme, décrivant des méthodes de fabrication, auraient été découverts à Kaboul dans des locaux abandonnés d’Al-Qaida. Il faut se méfier de l’intoxication et des annonces sensationnelles : aucune méthode fiable ne permet de détecter des agents pathogènes, qui sont transportables en petites quantités faciles à dissimuler. Et l’administration américaine remporte la palme dans l’art de la propagande falsifiée, du mensonge et de la manipulation. Dans les quarante dernières années, de nombreuses accusations d’emploi de telles armes ont été échangées entre États, sans qu’il ait jamais été possible de les vérifier, par exemple entre Cuba et les États-Unis. La faible probabilité d’une attaque bioterroriste et son niveau élevé de destruction potentielle font de sa prévention un des défis les plus difficiles posés aux services de sécurité dans le monde entier. Aucun pays ne possède les moyens de se défendre si Netwar adopte cette méthode. La menace est floue, partout et nulle part. Comme l’a déclaré le président Clinton en 1998 : « Le bioterrorisme est la face sombre de la globalisation. » Il n’existe à présent que dans le monde virtuel ; nous donnerons à Netwar moins de dix ans pour passer à l’attaque. Peut-être se porterat-elle sur les moissons : les aviateurs d’Al-Qaida se sont intéressés à l’épandage par petits coucous de campagne, ou sur la morve des ruminants comme le tenta en 1915, à Washington, le médecin allemand Anton Dilger… Les paris sont ouverts. L’ARME CHIMIQUE

À part les tentatives de la secte Aoum, un seul cas en a été signalé jusqu’à maintenant89. Le 20 février 2002, la police italienne a arrêté quatre Marocains trouvés porteurs de 4 kg de cyanure et d’un plan décrivant les tuyaux d’alimentation en eau de l’ambassade américaine à Rome. Dans un laboratoire de Kaboul appartenant à Al-Qaida, des documents couverts de formules chimiques et des fioles contenant des liquides ont été découverts, montrant que Ben Laden avait pensé à l’arme chimique. Les troupes américaines ont 89. International Herald Tribune, 24 novembre 2001.

424

INTRODUCTION AU SIÈCLE DES MENACES

trouvé à Jalalabad de l’urée, du nitrate de sodium, de l’acide acétique ainsi que des dessins de bombe. Peu de chose. L’ATTAQUE DANS LE CYBERMONDE

La guerre de l’information ne se livre pas seulement entre les forces étatiques : armées, administrations, agences, services de police ou de renseignement. Entreprise dans le but d’obtenir la supériorité sur l’ennemi, elle constitue plus que l’arme principale, le cœur même de Netwar. La prise de contrôle de la politique par l’infiltration ou la saturation du réseau médiatique

La guérilla virtuelle. L’armée de libération nationale zapatiste (EZLN) est constituée de paysans insurgés qui, grâce à ses liens originaux avec des ONG, ont adopté le mode de Netwar pour combattre le gouvernement mexicain90. Au début des années 1990, la province de Chiapas, à la frontière sud du Mexique, voyait s’affronter les grands propriétaires fonciers, les caciques locaux et les « indigènes » pauvres dont la condition avait été aggravée par les réformes économiques du président Carlos Salinas (1988-1994). La rébellion de ces derniers aurait pris une tournure traditionnelle sandiniste-castriste sans l’arrivée à leur rescousse d’ONG américaines et canadiennes qui avaient développé, depuis 1980, des réseaux de connexion et de coordination. La plupart de leurs membres souhaitaient contribuer à l’établissement d’une forme de démocratie où les acteurs de la société civile seraient assez forts pour équilibrer les pouvoirs aussi bien de l’État que du marché. Cette nouvelle tendance idéologique, née de la révolution de l’information, donna sa cohérence au mouvement. Amnesty International et Americas Watch avaient publié un rapport respectivement en 1986 et en 1991 sur la violation des droits de l’homme au Chiapas ; en mai 1993 les organisations Minnesota Advocates for Human Rights et World Policy Institute dénoncèrent le comportement des forces gouvernementales, et le Service jésuite des réfugiés lança en août 1993 un « Appel urgent à la Communauté internationale ». Lorsque les guérilleros ouvrirent les hostilités le 1er janvier 1994, des représentants de ces ONG et d’autres envahirent Chiapas sous forme de swarm networks pendant que de nouvelles ONG mexicaines se créaient pour les aider à se coordonner et à 90. D. Ronfeldt et J. Arquila, op. cit., chapitre VI, Emergence and Influence of the Zapatista Social Netwar, p. 171-199.

LA MENACE

425

communiquer, en particulier la Coalition of Non-govermental Organization for Peace (CONPAZ) formée de 14 groupes présents avant janvier 1994. L’insurrection ne commença pas comme Netwar, mais plutôt selon un mode maoïste à la Guevara, et avec aussi peu de succès. Après quelques jours, les opérations militaires se réduisirent à des escarmouches, et bientôt des délégations d’ONG arrivèrent à Mexico et à San Cristobal de Las Casas pour établir des liens avec l’EZLN. Manifestations, défilés, caravanes de la paix furent organisés aussi bien au Mexique que devant les consulats mexicains aux États-Unis. Les ONG usaient et abusaient de téléconférences, de fax, de systèmes téléphoniques pour faire connaître leur présence aux autorités mexicaines et transformer l’insurrection en un événement international gonflé par CNN. À l’appel du souscommandant Marcos, le chef médiatisé des guérilleros, d’autres ONG se joignirent aux premières afin de submerger le gouvernement mexicain par un swarming généralisé des moyens de communications. « L’alliance des activistes venus de divers horizons créa une nouvelle forme organisationnelle, une multiplicité de groupes autonomes, une connexion de toutes sortes de combats qui avaient été jusque-là dispersés à travers le nord de l’Amérique91. » « Les nouvelles formes organisationnelles que nous voyons naître ne sont pas des substituts à d’anciennes formules, léninistes ou sociodémocratiques. Elles apportent quelque chose de différent : des exemples de solutions réalistes aux problèmes post-socialistes de l’organisation et du combat révolutionnaire92. »

Voilà Netwar, conduite dans les médias de toute nature. Les activistes disséminent leur propagande par Internet et par des systèmes de conférences comme Peacenet et le mexicain La Neta, né en 1993. À la fin de 1994, un nombre étonnant de pages web, de listes e-mail, d’archives « gopher » avait été créé sur Internet pour répandre les vues des différentes ONG et diriger ce qui serait appelé ultérieurement la désobéissance civile électronique. Le mouvement zapatiste acquit ainsi une présence internationale sur le Net hors de proportion avec son importance réelle sur le terrain, quasi nulle. Pour organiser Netwar, deux types d’ONG se révélèrent nécessaires : les unes, très visibles, portaient le discours (le contenu), à savoir les plaidoiries pour les droits, la paix, l’environnement ; les autres se spécialisaient dans l’élaboration du réseau et la 91. Harry Cleaver, The Chiapas Uprising, Padoue, RIFF-RAFF, février 1994. 92. Harry Cleaver, Indroduction à Zapatistas ! Documents of the New Mexican Revolution, Brooklyn, Autonomedia, 1994.

426

INTRODUCTION AU SIÈCLE DES MENACES

construction de l’infrastructure (le contenant), dans l’organisation des manifestations et divers événements dans l’éducation du public. Peu d’ONG s’étaient installées physiquement à Chiapas, mais toutes maintenaient une présence virtuelle au niveau des campagnes de pétitions, des multiples communications par fax et mail, et de la circulation des rapports sur Internet. Le réseau était informel, flexible, ad hoc ; les participants changeaient constamment ; la solidarité variait avec les événements et chacun n’en faisait qu’à sa tête. Le mouvement n’avait ni définition, ni frontière, ni organisation, ni direction. Son flou faisait sa force. Ainsi, en janvier 1994, le discours guerrier de l’EZLN était encore socialisé ; mais en février les facteurs ethniques furent mis en avant. Le swarming électronique transforma le contexte : en quelques jours une guérilla traditionnelle devint une Netwar sociale de l’âge de l’information. Après douze jours de combats en janvier 1994, le gouvernement arrêta sa contre-offensive en plein succès pour négocier à la cathédrale de San Cristobal. Un an plus tard, le président Ernesto Zedillo, successeur de Salinas (1994-2000), quatre jours après avoir rallumé les hostilités, accepta de nouvelles discussions à San Andrès Larrainz. Pour Ronfeldt et Arquila, ces hésitations s’expliquent par le fait que la guerre de l’information a submergé le gouvernement central. « Le succès des Zapatistes a été essentiellement dû à leur stratégie de communication, au point qu’ils peuvent être qualifiés de premier mouvement de guérilla informationnelle. Ils ont créé un événement médiatique pour diffuser leur message, tout en essayant désespérément de ne pas se laisser entraîner dans une guerre sanglante… La capacité des Zapatistes à communiquer avec le monde et avec la société mexicaine a projeté un faible groupe local d’insurgés au premier plan de la politique mondiale93. »

Le Chiapas fournit le prototype des futures Netwar sociales, car un mode d’action y a émergé, le swarming, qui engage des groupes divers, possédant chacun leur identité et leur compétence, structurés dans un tissu électronique nouveau, capables de connecter et d’inspirer les activistes à travers le monde entier. On peut imaginer que des émules d’Al-Qaida sauront marier le swarming et le goût du suicide La saturation des médias par le choc terroriste. L’attentat du 11 septembre 2001 a marqué une nouvelle étape dans l’utilisation de l’image par Netwar, en transformant le message télévisuel en 93. Manuel Castells, The Information Age : Economy, Society and Cultures, vol. II : The Power of Identity, Malden, Mass., Blackwell, 1997, p. 79.

LA MENACE

427

un véritable champ de bataille94. Les chaînes d’actualités américaines, arrivées sur place en quelques minutes, à Washington comme à New York, ont relayé le spectacle en direct à plus d’un milliard de spectateurs et créé un espace global pour la guerre qui commençait. Les auteurs de l’attaque maîtrisaient assez l’environnement médiatique pour frapper la seconde tour alors que les caméras étaient braquées sur le théâtre des opérations. L’efficacité de leur entreprise a tenu à la conjonction de trois facteurs : la destruction massive par les techniques civiles, la mobilisation de kamikazes et le fonctionnement des médias occidentaux. L’irruption dans la cybersphère a permis d’utiliser un choc mondial pour faire passer l’idée que l’adhésion aux croyances de la religion dispense de la possession d’armes sophistiquées, suffit pour obtenir des destructions massives et parvient à terrifier la nation la plus puissante du monde : le pouvoir religieux est supérieur à tout autre. Le prophète l’a dit : au martyr le paradis. Nous disons : au martyr le cyberparadis. Les gens à 1 dollar savent qu’ils possèdent une arme imparable : une religion qui fait accepter la mort, une religion au pouvoir supérieur à tout ce qu’offre la technologie occidentale, mais qui l’utilise. Au contraire des gouvernements arabes qui cherchent à engager leur pays dans un développement de type occidental, voici magnifiée par une image formidable une doctrine qui opère par mobilisation de très faibles ressources matérielles et de très fortes énergies spirituelles. Jamais on n’a vu une opération de marketing de cette ampleur. Le 7 octobre suivant, l’inspirateur Ben Laden entouré de trois dignitaires religieux, s’exprime sur les réseaux mondiaux pour assurer son emprise sur les médias. Le monde entier le verra et l’entendra. Il occupe désormais dans l’esprit des foules à 1 dollar la place de représentant universel de l’islam sur la planète. Grâce à son succès double, remporté dans le monde réel et colossalement amplifié dans la société de l’information, il a forcé les ÉtatsUnis à hisser Netwar, considérée jusque-là comme une nuisance gérable, perdue dans le bruit de fond du quotidien, au niveau le plus élevé du jeu stratégique international. La cybercriminalité « La cybercriminalité est l’ensemble des différents délits et infractions susceptibles d’être réalisés ou favorisés par l’usage des technologies Internet. Ainsi, la dimension réseau qu’introduit Internet dans le crime informatique autorise, via la commission à distance 94. Jean-Pierre Dudézert, « La guerre dans l’image », in Éric de la Maisonneuve et Jean Guellec, Un monde à repenser, Paris, Economica, 2001, p. 119.

428

INTRODUCTION AU SIÈCLE DES MENACES

d’un délit, une certaine ubiquité du criminel. Elle confère également à ce dernier le pouvoir de réaliser à grande échelle, et de manière automatisée, ses crimes. En effet, Internet rend accessibles à tout internaute des informations relatives aux technologies, mais aussi des outils d’exploitation de leurs failles. De ce fait, il favorise la diffusion de méthodes permettant la réalisation de crimes et de délits. De plus, il permet de capitaliser et d’embarquer dans des logiciels des savoir-faire criminels95. »

Profils des délinquants. Dès la naissance des réseaux, deux catégories de cyberdélinquants sont nées : les professionnels tels que concurrents de l’entreprise visée, mercenaires, truands et d’autre part les amateurs, tels que les hackers, jeunes gens motivés, en général, par le désir de l’exploit et souvent immatures d’où leur surnom de Kiddiots, les curieux, les frustrés, les psychopathes… et les militants. Si l’appât du gain pousse la plupart des pratiquants, beaucoup opèrent par besoin de reconnaissance visà-vis de leurs pairs et aussi par le souci d’affirmer leur supériorité sur les institutions qu’ils accusent de les opprimer dans la vie quotidienne. On s’approche ici de la mentalité du terroriste, et il n’est pas étonnant que se soient formées des dizaines, voire des centaines de clubs de pirates, comme par exemple le Chaos Computer Club qui a sévi à partir de 1986. Grâce aux talents de ses quelque quatre-vingts adhérents il a pénétré les systèmes informatiques non seulement d’industriels européens comme PhilipsFrance, SGS-Thomson, mais aux États-Unis la Nasa, le centre de recherches nucléaires de Los Alamos, le programme SDI… et bien d’autres, en découvrant les mots de passe et en contournant les écluses (firewalls) électroniques. À partir de Hambourg, le club utilisait des bases de rebond à Dallas et à Grenoble pour renvoyer certaines informations à Melbourne où un résidant du GRU96 se faisait un plaisir de les récupérer. Risques liés à Internet. Un risque est un événement pouvant causer des dégâts, dont l’occurrence est plus ou moins probable. La menace est la définition du processus de réalisation d’un risque. L’attaque est la concrétisation d’une menace97. Plusieurs types de menaces pèsent sur Internet. Outil de communication très accessible, mais aussi ensemble de technologies ouvertes, permettant d’accéder de loin à une infinité de ressources informatiques ou informationnelles, il s’ouvre à chacun donc à tous, et 95. Solange Ghernaouti-Hélie, Internet et Sécurité, Paris, PUF, « Que sais-je ? », 2002, p. 14. 96. Service de renseignement militaire soviétique. 97. Solange Ghernaouti-Hélie, op. cit., p. 27.

LA MENACE

429

l’usage abusif de ses outils et de son modèle de fonctionnement excite les appétits du monde entier. Pénétration. L’attaque la plus fréquente est l’usurpation d’identité qui permet d’accéder au nom de leur possesseur à des ressources auxquelles il a seul légitimement accès. Elle peut se faire par exemple par human engineering (ou social engineering), c’est-à-dire par manipulation d’une personne en se faisant passer pour quelqu’un d’autre. Une autre méthode utilise l’écoute passive par surveillance (sniffing) de données qui transitent sur un réseau pour connaître les mots de passe véhiculés en clair par les protocoles de communications. Un sniffer écoute et enregistre les données qui le traversent sans les modifier. Des logiciels fournissant ce service sont couramment utilisés à des fins de gestion de réseau. Enfin, d’autres pénétrations exploitent les propriétés intrinsèques des divers protocoles de communication de l’Internet. Déni de service. L’attaquant crée une sollicitation excessive des ressources. Le système visé, incapable de traiter l’afflux des demandes, devient indisponible : c’est le crash. • E-mail bomb : l’attaque submerge la boîte électronique d’un utilisateur par un grand nombre de messages. Ainsi le 10 février 2000, un Canadien de 15 ans répondant au pseudonyme de Mafia boy, a bloqué pendant plusieurs heures les services commerciaux Yahoo !, Amazon, e-Boy, Dell avec des logiciels qui les saturaient de requêtes informatiques. • Buffer overflow : l’attaque exploite les failles du système d’exploitation, par exemple l’insuffisance des capacités de certaines zones tampons. Les cibles sont les systèmes jouant un rôle important dans la réalisation des services (serveurs web, routeurs, serveurs de noms…). • Defacement : le pirate remplace la page d’accueil d’un site, soit par une autre dont le contenu (pornographie, politique) vise à détruire la réputation du site attaqué, soit par une fausse adresse qui dirige l’utilisateur vers un site différent, afin par exemple de lui soutirer son numéro de carte bancaire. Programmes d’attaque. — Un virus est un programme qui, une fois activé, peut se reproduire dans un ordinateur, soit pour altérer l’environnement logiciel, soit pour infecter d’autres programmes qui pourraient le transmettre à d’autres ordinateurs si on copie le programme infecté. Il peut être programmé pour nuire, par exemple en effaçant des données. À lui tout seul le virus Melissa, qui ne contenait pas d’action destructrice, a infecté plus de cent mille ordinateurs entre le 26 et le 29 mars 1999. Pre-

430

INTRODUCTION AU SIÈCLE DES MENACES

mier virus à se faire passer pour un message légitime, c’est-à-dire provenant d’un ami, il aurait coûté, seulement aux États-Unis, plus de 385 millions de dollars. • Un ver (worm) diffère d’un virus au sens qu’il ne se contente pas de contaminer divers fichiers et de dévorer s’il le veut tout ou partie des données stockées dans le disque dur, mais qu’il se propage spontanément d’un ordinateur à un autre à travers le réseau. Le 2 novembre 1988, Robert Morris Jr., étudiant de l’Université Harvard, lâche le premier ver sur Arpanet. Le ver se transmet de machine en machine grâce à une faille dans le système de messagerie électronique et sature les ordinateurs contaminés en se reproduisant. Très vite, l’ensemble des communications sur le réseau est fortement ralenti. Les administrateurs systèmes n’ont pas d’autre choix que de déconnecter leurs machines du réseau. Le lendemain, le ver peut être neutralisé et l’on constate que le réseau Arpanet, censé être utilisé pour les communications militaires en cas d’attaque nucléaire, a été « mis à genoux » par un étudiant ! Depuis l’an 2000, les virus ou vers Sircam, Anna Kournikova, Iloveyou, Melissa, Code Red, Bus Trans ont causé des dommages s’élevant à des dizaines de millions de dollars surtout chez les utilisateurs de la messagerie électronique la plus répandue, Outlook Express de Microsoft. Selon la firme de sécurité Message Labs, Internet pourrait devenir inutilisable à partir de 2008 : il y aurait alors un courriel infecté sur dix, contre 1 contre 300 en 2001, 1 sur 700 en 2000, 1 sur 1 400 en 1999… Le bureau d’études Computer Economics considère que Code Red est le virus le plus coûteux de l’histoire. Pour éradiquer ce ver, les entreprises et les internautes auraient payé 2 milliards de dollars, chiffre certes exagéré par les vendeurs de sécurité informatique, mais peut-être pas plus que d’un facteur dix. • Un cheval de Troie (Trojan Horse) est un programme piégé par un dispositif caché pour pénétrer, rapatrier des informations ou introduire des virus dans un système adverse. • Les nouveaux venus dans les années 2000 appelés spyware sont de petits programmes qui entrent sans permission en quelques secondes sur une connexion à large bande, cachés sur d’autres programmes, et qui envoient tout seuls à des sites lointains des informations sur les habitudes de l’hôte, telles que les adresses du carnet électronique, ou attirent des annonces publicitaires qui apparaissent sous forme de spam. La victime ne s’aperçoit pas de leur présence et ne peut s’en débarrasser. La prolifération des virus s’est accélérée en 2003. Le fabricant d’antivirus McAfee Security estime à 60 000 le nombre de ceux

LA MENACE

431

qui circulent, et de nombreux experts affirment qu’il s’en crée deux cents par mois. Après l’été 2003 émergent des virus qui se propagent en un temps très court. D’autre part, les créateurs privilégient les vers, c’est-à-dire les codes qui se diffusent sur le Net sans intervention humaine. Slammer, apparu au début de 2003, a infecté en une dizaine de minutes 90 % des machines vulnérables connectées. Entre autres méfaits, il a pénétré dans le réseau interne de la centrale nucléaire Davis-Besse dans l’Ohio et s’est logé dans un serveur Windows, ralentissant le réseau jusqu’à arrêter le système de présentation des paramètres de sécurité. Les vers Blaster et Welchia, apparus les 12 et 17 août 2003, se connectent en profitant des failles présentées par le système d’exploitation Windows. Blaster, moins rapide que Slammer a infecté en quelques heures plusieurs centaines de milliers de machines, principalement en Asie. Le code provoque des démarrages intempestifs de l’ordinateur hôte toutes les 60 secondes et l’empêche ainsi de se connecter à Internet pour télécharger des antivirus. Son objectif, non atteint, était de créer un déni de service sur l’un des sites de Microsoft en connectant tous les hôtes infectés en même temps le 16 août. Le parc des entreprises n’a été touché qu’à 15 %, mais les particuliers ont souffert. La cible principale visée par les auteurs de virus est Microsoft, fabricant des systèmes d’exploitation Windows, qui tente d’imposer l’emploi universel de ses systèmes et de ses logiciels. Microsoft poursuit une politique impérialiste parfois suspecte : en juin 2003, une faille est découverte dans les systèmes Windows. Microsoft propose rapidement un correctif, mais seulement pour les systèmes les plus récents. Voilà que Blaster arrive et infecte l’ensemble du parc non mis à jour : un grand nombre d’utilisateurs sont forcés de faire migrer à grands frais le système d’exploitation de leur machine, s’il n’est pas récent et donc protégé, pour disposer de la protection nécessaire… De plus, la présence de code parasite dans de nombreuses versions de logiciels (existence de jeux, tels qu’un simulateur de vol dans certaines versions du produit de traitement de texte Word) laisse l’utilisateur perplexe sur l’intégrité de ce qui lui est fourni. Un développeur pourrait dissimuler des virus dormants dans ses logiciels, sur l’incitation de hautes instances gouvernementales, pour paralyser le jour venu le fonctionnement de puissances inamicales. Ainsi un logiciel clandestin intitulé NSA-Key a-t-il été détecté dans des produits Microsoft ; coïncidence sémantique avec le nom de la National Security Agency d’après le fabricant. Les systèmes Windows centralisent tous les programmes d’un ordinateur y compris sa messagerie et leur emploi introduit donc une fragilité dans le

432

INTRODUCTION AU SIÈCLE DES MENACES

système à partir du moment où les efforts de tous les hackers se conjuguent pour profiter de ses failles. Ils en trouveront toujours une. Certains spécialistes pensent que 50 % des utilisateurs Windows sont infectés par des spywares. La parade pourrait consister à utiliser un système d’exploitation ouvert, comme Linux, dont la diversité, opposée à l’uniformité mondiale de Windows, permettrait de déjouer les attaques générales. L’Allemagne a adopté cette politique. Le Japon, la Corée du Sud et la Chine pensent à développer une solution de type Linux par leurs administrateurs. La France « réfléchit au problème », sans pouvoir remettre de l’ordre dans les doctrines divergentes de ses divers ministères, ni, surtout, vouloir payer le prix. Peu de statistiques sur la cybercriminalité sont disponibles, car un faible nombre d’affaires sont portées à la connaissance de la police, peut-être moins de 10 %, et surtout parce que les infractions se propagent au niveau mondial alors que les législations pénales sont nationales. Il est donc difficile de mettre en commun des statistiques traitant de délits dont la qualification varie d’un pays à l’autre. On peut cependant citer une étude publiée en 1992 par USA Research Inc., qui chiffre le nombre d’intrusions dans des systèmes informatiques aux États-Unis à 339 000 en 1989 et 684 000 en 1991. Si le rôle des hackers a été monté en épingle par la presse sous l’influence des sociétés qui vendent des antivirus, celui des États n’est pas nul. Pendant les années 1980 le KDS (le KGB bulgare) a fait développer dans les écoles auxquelles il avait fourni des contrefaçons de Macintosh ou de IBM-PC, un bon tiers des virus répandus dans le monde à partir de 1988, dont le plus connu était Dark Avenger98. Les services irakiens auraient acheté aux Bulgares le virus qui leur a permis une attaque spectaculaire de la banque du Koweït en 1990. Aujourd’hui une rumeur plus ou moins fondée affirme que la Chine est devenue le plus important laboratoire viral. On lui attribue la paternité de Code Red. Le cyberterrorisme

Toute l’activité économique repose au XXIe siècle sur l’emploi universel des technologies de l’information et des communications. L’incapacité même momentanée des moyens informatiques à satisfaire les besoins d’une entreprise ou d’une administration constitue un risque majeur. La vulnérabilité des infrastructures critiques nécessaires au bon fonctionnement de la société postindustrielle (énergie, eau, transports, télécommunications, banque 98. R. Faligot et P. Krop, DST-Police secrète, Paris, Flammarion, 1999.

LA MENACE

433

et finances, services médicaux, fonctions gouvernementales) est augmentée sans cesse par un recours accru aux technologies Internet, qui les rendent accessibles à partir du réseau des réseaux et les expose aux attaques, comme aux accidents et aux pannes. Donnons quelques exemples, qui ne sont pas liés à la malveillance : Panne du système d’appel longue distance d’AT&T à New York. Le 15 janvier 1990, à la suite d’une mise à jour du logiciel des commutateurs téléphoniques, le réseau longue distance d’AT&T ne fonctionne pas et, pendant neuf heures, 60 000 personnes sont privées de téléphone, 70 millions d’appels sont bloqués. Le problème parti d’un commutateur à Manhattan s’est répandu à travers le pays en moins de dix minutes. Panne de téléphone ; trois aéroports paralysés. Le 17 septembre 1991, un groupe de commutateurs téléphoniques de la région de New York est privé de courant et les batteries de secours ne s’enclenchent pas. Les deux personnes chargées de la surveillance étaient ce jour-là en train de suivre un cours sur les procédures en cas de panne ! En conséquence, les trois aéroports Kennedy, La Guardia et Newark sont fermés ; cinq cents autres subissent des retards. L’appareil de perception et de communication est devenu le centre de gravité de tout État comme de toute structure privée ou publique. Il est tentant pour les ennemis de l’État ou de ces structures de le contrôler, de le perturber ou de le détruire. La prise de contrôle des infrastructures critiques pourrait devenir un des objectifs du cyberterrorisme, c’est-à-dire de l’attaque de la société par des moyens informatiques perpétrée dans le but de répandre la terreur. Cette crainte amène la recrudescence des tests conduits sur les systèmes informatiques pour découvrir des modes éventuels de pénétration agressive dirigée vers des ordinateurs gérant ces infrastructures dites critiques. Dès 1994, le DoD a demandé à la Rand des simulations sur le cyberterrorisme. Entre janvier et juin 1995, six exercices ont impliqué des responsables de la sécurité nationale et des industriels du secteur des télécommunications. Une des situations était la suivante : « En février 2000, l’Iran tente de couper la production de pétrole de l’Arabie Saoudite afin de faire monter les prix. Washington envisage d’envoyer des troupes en Arabie pour mettre fin au conflit. Les Iraniens, se souvenant de l’échec de Saddam Hussein, décident de porter le combat sur le sol américain, en visant la grande force et aussi la plus grande faiblesse des USA, les systèmes d’information. Des centraux téléphoniques de bases militaires saturés d’appels provoqués par l’ennemi, deviennent inutilisables. Sans vision globale

434

INTRODUCTION AU SIÈCLE DES MENACES

des choses, il est alors impossible de se rendre compte qu’une attaque est en cours. Un train de matériel devant partir pour l’Arabie, vers un aérodrome militaire, déraille à cause d’une bombe logique introduite dans le système de contrôle du trafic ferroviaire. La Banque d’Angleterre signale qu’elle vient de découvrir une tentative de sabotage du système de transferts de fonds. CNN annonce que l’Iran a payé des experts en informatique russes et des programmeurs indiens pour détruire l’économie occidentale. À la suite de cette information, les cours des Bourses de New York et Londres s’effondrent. L’ordre de départ des soldats vers l’Arabie est donné, mais ce dernier s’effectue dans le chaos causé par les problèmes de communications dans les bases de déploiement. Une grande banque découvre que son ordinateur crédite et débite au hasard des milliers de dollars sur les comptes de ses clients. L’information s’ébruite. La panique se répand chez les épargnants qui veulent récupérer leur argent et gagne tout le pays. Plus tard, tout Washington est privé de téléphone (même les mobiles), il est alors très difficile pour le président de réunir ses conseillers. On signale aussi des programmes pirates de propagande sur les chaînes de télévision aux États-Unis et en Arabie. »

Depuis le 11 septembre 2001, les scénarios-catastrophes abondent ; les experts redoublent d’imagination. Ainsi a été évoquée, entre autres, la prise du contrôle d’un barrage par des terroristes qui ouvriraient les vannes et submergeraient les villes et territoires en aval. La presse s’est nourrie de l’exploit accompli en Arizona par un hacker de 12 ans (en réalité 27) qui aurait été près de s’emparer du barrage Roosevelt et provoquer un tel désastre en 1994. En janvier 2002, des soldats américains ont découvert en Afghanistan, dans un ordinateur portable d’Al-Qaida, un modèle de barrage américain confectionné à l’aide de logiciels d’ingénierie concernant la résistance des matériaux. Le FBI bombarde le gouvernement de rapports mentionnant la recherche d’informations sur les systèmes de contrôle des barrages, des centrales électriques, des commutateurs téléphoniques et de l’alimentation en eau. L’intoxication n’est pas à écarter, mais la menace mérite considération. De nombreuses études ont mis en évidence la vulnérabilité des trois milliers de systèmes SCADA (Supervising control and Data Acquisition) qui pilotent les grands réseaux techniques. Ces systèmes sont de plus en plus souvent connectés à Internet. Lors de tests d’intrusion, des équipes de pirates payés par le Département de l’Énergie sont toujours parvenues à en prendre le contrôle. Si les capacités d’Al-Qaida ont été provisoirement réduites par l’action vigoureuse des États-Unis en Afghanistan, il ne faut pas oublier que la prochaine génération de terroristes aura grandi

LA MENACE

435

dans un univers digital, et sera d’autant plus tentée d’agir dans le cybermonde qu’Internet prendra une place toujours plus grande dans la gestion de la société. Les réseaux informatiques critiques seront à la fois la cible et l’arme des réseaux activistes, qui eux aussi utiliseront de plus en plus le réseau des réseaux. Idéalement, les infrastructures ne devraient pas être accessibles librement à partir d’Internet ; idéalement, trop de barrières, informatiques ou autres, entravent les intrusions. Cependant la complexité des systèmes est telle qu’il est pratiquement impossible d’éliminer tous leurs points faibles. Les attaques du 11 septembre ont montré que l’imagination, le courage fanatique, les circuits financiers et surtout la réticulation postmoderne peuvent créer l’impensable. Il suffit d’une protection insuffisante quelque part… Sera-ce une centrale nucléaire dont les terroristes sauront s’emparer ? Les responsables de la sécurité hausseront les épaules : ils estiment qu’aujourd’hui les cyberterroristes n’ont pas la compétence qui leur permettrait d’infliger des dommages significatifs à la société. Les intrusions causent une gêne, souvent coûteuse, mais n’entraînent pas la fin du monde. Malgré cet optimisme, il est permis de penser que des réseaux à la Al-Qaida se reformeront, et qu’une attaque de grande conséquence ne pourra pas être évitée, dans un futur plus ou moins proche. La défense du cyberespace est-elle compatible avec les droits de l’homme ?

Les attentats du 11 septembre ont donné aux gouvernements un prétexte pour promulguer, dans l’indifférence générale, des lois et des règlements restreignant les libertés civiles. Le 26 octobre 2001, le président Bush II a adopté le Uniting and Strengthening America Patriot Act dont les dispositions s’attaquent plus au cybercrime qu’au cyberterrorisme, lui-même encore virtuel. Elles assimilent les attaques informatiques à des actes de terrorisme, et elles étendent aux criminels présumés la procédure accélérée pour les écoutes téléphoniques ou Internet. Un mandat national de perquisition très flou permet à la police de connaître les sites visités par l’internaute suspecté, ses téléchargements, son carnet d’adresses. Les interceptions informatiques peuvent être menées secrètement ; il suffit qu’un tribunal autorise les forces de répression à signaler leur action a posteriori. Les tribunaux américains sont habilités à juger un piratage qui s’est effectué à l’étranger, c’est-à-dire un crime commis entre étrangers à l’étranger, à condition que la communication ait transité par des câbles et des routeurs situés aux États-Unis. En Europe, des textes

436

INTRODUCTION AU SIÈCLE DES MENACES

restrictifs ont aussi été adoptés dans les deux mois qui ont suivi les attentats (en France le 31 octobre 2001). Ce n’est qu’un début. Les Américains veulent traquer les gêneurs, qui ne sont pas forcément des terroristes, et qui narguent la police en passant les frontières sur Internet. Depuis l’arrivée de Bill Clinton à la présidence en 1993, de gros budgets ont été consacrés au traitement des informations captées sur les réseaux de télécommunications. Les militaires prennent ces affaires très au sérieux. L’Air Force Information Warfare Center, installé à Kelly Air Force Base près de San Antonio (Texas), a pour une de ses missions principales la mesure automatique des incidents affectant la sécurité. L’équipe responsable chasse les intrusions illicites grâce à des sniffers chargés de surveiller les configurations, traiter les données et attribuer une note de danger potentiel à toute connexion informatique : chaque mois, sept millions de connexions sont classées à suivre, et deux milliards par an font l’objet de surveillance. Un commandement unifié interarmes de la guerre informationnelle fonctionne à Norfolk (Virginie). Le danger d’un Pearl Harbor informatique a été analysé en 1996 par la Commission on Critical Infrastructure Protection. Moins d’un mois après le 11 septembre 2001, un poste nouveau de conseiller spécial du président des États-Unis pour la sécurité dans le cyberespace a été confié à Richard Clarke pour définir une stratégie. Un premier document, The National Strategy to Secure Cyberspace, a été publié le 18 septembre 2002 ; ce n’est encore qu’un catalogue, qui passe en revue cinq catégories de mesures à prendre, de l’ordinateur personnel aux systèmes nationaux. Le FBI poursuit un combat acharné pour obtenir la traçabilité totale des communications à travers le monde aussi bien sur Internet que par téléphone. On voit se dessiner l’offensive des États contre les réseaux : le cybercrime est un prétexte qu’avancent les États pour asseoir leur pouvoir sur le Net. Nous trouverons en Chine un exemple de cette attitude. L’avenir du Net n’y est pas encore défini. En 2000, le président Clinton a remarqué : « La Chine essaie de faire taire Internet – bonne chance ! C’est comme tenter de clouer de la gelée sur un mur. » Dès 1994, date de la première connexion officielle, la Chine mène une politique d’ouverture à Internet, afin de soutenir son économie qui croît de 8 % par an depuis 1990. Au début de 2002, on peut estimer que 10 % de la population était connectée et le nombre d’utilisateurs a augmenté de 50 % dans la seule année 2001. Les dissidents ont voulu profiter de cette fenêtre et ils ont créé une lettre d’information, mais en janvier 2000, le gouverne-

LA MENACE

437

ment avait criminalisé l’utilisation du Net à des fins subversives, parmi lesquelles étaient mentionnés la promotion des cultes religieux ou le soutien à Taiwan. En même temps, la réglementation a interdit aux médias commerciaux la création de sites d’information indépendants. De juin à novembre 2001, des milliers de cybercafés ont été déconnectés pour n’avoir pas censuré les contenus avec assez de vigilance. La cyberdissidence n’est pas tolérée, et elle vous envoie instantanément en prison. Si Internet encourage chacun à parler, il ne sécurise pas les échanges, et sert ainsi la police. De même que la Chine utilise, dans l’espace réel, la communauté pour encadrer les individus, grâce aux cellules locales du parti et à l’école, son régime totalitaire se reproduit dans le virtuel grâce à la technologie : derrière chaque forum se tient un modérateur qui rejette ou approuve les messages avant leur publication et prend la décision de supprimer ceux qui lui déplaisent. Internet s’est pétrifié en structure de surveillance. La gelée est en voie d’être clouée sur le mur – pour un temps. Ne crois pas, lecteur, échapper à Big Brother. Les États-Unis, pionniers de la surveillance des réseaux, cherchent à étendre leur maîtrise de l’information sur d’autres continents, en forçant la main à leurs vassaux obéissants. Ils disposent d’une infrastructure déjà ancienne, le réseau UKUSA, établi en 1947 par un accord secret avec les Britanniques pour capter les communications internationales sous le prétexte d’assurer la sécurité des pays membres qui comptent outre les fondateurs, l’Australie, le Canada et la Nouvelle-Zélande. En collaboration avec le Government Communication Headquarters britannique, la National Security Agency (NSA) américaine gère les activités qui comportent l’interception des émissions radioélectriques sur tout le spectre, des communications par satellites telles que téléphonie cellulaire ou Internet, et des communications par câble. Le réseau comprend cent vingt satellites et stations terrestres d’écoute à travers le monde. Aucune communication, privée, commerciale ni diplomatique n’échappe à la surveillance. Après la chute de la Soviétie, le nombre des satellites s’est accru, ciblant les nations amies comme les adversaires, au mépris des traités. Les données informatisées sont analysées en priorité par la recherche de mots clés, puis les conversations téléphoniques analogiques. Le système, dit Echelon, n’a cessé de se développer, débordant du cadre de la sécurité nationale pour surveiller aussi bien les citoyens américains que les États alliés dont les négociations commerciales sont contrées grâce aux informations recueillies

438

INTRODUCTION AU SIÈCLE DES MENACES

par la NSA au profit des grandes sociétés américaines comme Raytheon ou Boeing. Danemark, Norvège, Turquie et Allemagne ont signé des accords confidentiels de coopération. Notons au passage l’élégance des Britanniques, qui espionnent leurs partenaires de l’Union européenne au bénéfice des États-Unis. Une telle coopération nourrit les relations spéciales qu’entretiennent dans le domaine du renseignement l’Amérique et le RoyaumeUni, incompatibles avec le concept d’Europe de la défense. Le FBI a placé chez tous les fournisseurs d’accès américains le système Carnivore, un logiciel capable de sniffer le trafic Internet et, depuis le 11 septembre 2001, développe Magic Lantern, un cheval de Troie permettant de surveiller l’activité des ordinateurs. Pour se protéger, les utilisateurs des réseaux de communications peuvent essayer le cryptage, devenu légal un peu partout à la fin des années 1990, malgré les efforts des services de sécurité et de police. La cryptographie à clé publique permet à deux personnes qui ne se connaissent pas d’échanger des messages chiffrés sans faire circuler leur mot de passe sur le réseau. Un tel concept équipe Windows, Netscape Navigator, Lotus Note. La plupart des intervenants utilisent Pretty Good Privacy (PGP) mis à la disposition du public par l’activiste américain Philip Zimmerman, mais la NSA ne cesse de lutter pour casser toutes les confidentialités par de nombreuses méthodes dont le secret est bien gardé. Zimmerman a été récupéré par le système, et PGP est plutôt passé de mode. Après les attentats du 11 septembre, les États se sont décidés à amplifier leurs écoutes. Ainsi en mai 2002, le Parlement européen a cessé de s’opposer à une directive de la Commission qui force les intermédiaires techniques à conserver les données de cryptage de leurs clients à la disposition de la police. La surveillance des communications se poursuivra et s’accroîtra. Les Américains y trouveront une aide à leur expansionnisme dans le cyberespace et à leurs intrusions sur le territoire juridictionnel des autres nations. Bien malin qui pourrait prédire l’issue du combat entre Goliath et David, entre les États et les réseaux, d’autant plus que, nous l’avons noté, toute innovation, si elle augmente le pouvoir des États, augmente relativement plus le pouvoir des réseaux. Netwar passera de plus en plus facilement à travers les mailles de plus en plus serrées tissées par les services de sécurité. Nous en avons vu un exemple, qui ne sera que le premier : l’Intelligence Community des États-Unis, qui recevait pourtant 30 milliards de dollars par an, n’a pas vu venir l’attentat du 11 septembre 2001. La CIA a été incapable d’analyser ses abondantes informations

439

LA MENACE

sur les pirates, le FBI n’a pas su traquer les membres d’Al-Qaida infiltrés aux États-Unis, et les écoutes de la NSA n’ont été ni transmises ni exploitées99. Les quelque quinze agences chargées de la sécurité ne savent pas se coordonner.

Perspectives La prolifération des ADM d’une part, la réticulation des irréconciliables d’autre part, créent une menace à l’ordre mondial qui n’est encore que virtuelle. S’incarnera-t-elle en une ou des catastrophes réelles ? Henri Bergson a écrit : « L’artiste crée du possible en même temps que du réel quand il exécute son œuvre100. » Nul doute que des « artistes » sauront créer du possible que nous estimons aujourd’hui impossible, avec au moins certains des ingrédients décrits dans ce chapitre. Les séquelles de l’explosion à prévoir ne se laissent pas calculer. En bon comptable, Oussama Ben Laden a estimé le rendement de l’action menée sous ses ordres le 11 septembre 2001. « De leur propre aveu, les Américains ont vu la part des pertes à Wall Street s’élever à 16 %. Ils disent que ce chiffre est un record qui ne s’était jamais produit depuis l’ouverture du marché, il y a plus de deux cent trente années. Le montant brut des échanges sur ce marché est de 4 trillions de dollars. Si nous multiplions 4 trillions par 16 % pour connaître l’ampleur de la perte, on obtient 640 milliards de pertes, par la grâce d’Allah. Cette somme correspond, par exemple, au budget du Soudan pour six cent quarante années. Elle a été perdue à cause d’une attaque qui, avec l’aide d’Allah, n’a duré qu’une heure. Le revenu quotidien de la nation américaine est de 20 milliards de dollars. Durant la première semaine, ils n’ont pas travaillé du tout à cause du choc psychologique de l’attaque ; aujourd’hui encore, certains ne travaillent pas à cause de l’attaque. Si on multiplie 20 milliards par une semaine, on arrive à 140 milliards de dollars, et c’est bien plus que cela. Si on ajoute cette somme aux 640 milliards, on arrive à combien ? Environ 800 milliards. Le coût des pertes en bâtiment ? Disons plus de 30 milliards de dollars. Et puis, ils ont licencié […] plus de cent soixante-dix mille employés des compagnies aériennes. Cela comprend les compagnies de fret, les lignes commerciales ; les études américaines disent que 70 % de la population américaine souffre encore de dépression et de traumatisme psychologique après les incidents des deux tours et l’attaque contre le ministère de la Défense et le Pentagone, avec la grâce d’Allah. Une compagnie hôtelière américaine bien connue, Intercontinental, a licencié vingt mille employés, avec la grâce d’Allah. Des répercussions d’une telle ampleur et d’une telle 99. Rapport de la Commission du Congrès sur l’ Intelligence Community, op. cit. 100. H. Bergson, Le Possible et le Réel, discours de réception du prix Nobel, 1930.

440

INTRODUCTION AU SIÈCLE DES MENACES

complexité échappent aux calculs ; la somme augmente, avec la grâce d’Allah. Le montant total atteint au minimum un trillion de dollars selon les estimations les plus basses, avec la grâce d’Allah, grâce au succès de ces attaques bénies. Nous implorons Allah d’accepter ces frères parmi les martyrs et de les accueillir aux plus hauts degrés du Paradis101. »

Même si les chiffres avancés par Ben Laden sont exagérés, il est certain que la catastrophe du WTC se compare favorablement à d’autres désastres d’ampleur nationale mentionnés dans le tableau ci-dessous. Date

Désastre

Coût (milliards de dollars)

Août 1992

Cyclone Andrews

30

Janvier 1994

Tremblement de terre Northridge

16,3

Septembre 1989

Cyclone Hugo

5,9

Septembre 1998

Cyclone George

3,2

Les conséquences financières n’en sont pas épuisées. Uri Dadush, économiste à la Banque mondiale a estimé102 que les dépenses de sécurité indispensables atteindront 0,25 point du PIB au niveau mondial, dans une situation qui ne se dégraderait pas : la sécurisation des échanges a forcément un coût macroéconomique. Depuis les attentats, on estime que le coût total des mesures de sécurité pourrait atteindre 1 à 3 % de la valeur des marchandises, alors que l’élasticité des échanges extérieurs aux coûts de transaction est de l’ordre de 2 à 3 %. Les dirigeants du forum de Coopération Asie-Pacifique ont clos leur sommet en octobre 2002 en déclarant que le terrorisme est la plus grave menace pour la croissance mondiale. Et il faut retenir que le FBI place103 le coût de la préparation des attentats du 11 septembre dans la fourchette 175 000 à 250 000 dollars ! Pour peu que les artistes cherchent à se surpasser, leur prochain chef-d’œuvre présentera une addition plus élevée encore. Une « bombe sale » lancée sur New York pourrait rendre inhabi101. Tayseer Allouni (correspondant d’Al-Jazira à Kaboul), « Entretien avec Oussama Ben Laden, 21 octobre 2001 », traduit de l’arabe par l’Institute for Islamic Studies and Research (www.alneda.com), in Rohan Gutnaratna, op. cit., p. 269. 102. Le Monde économique, 5 novembre 2002. 103. Rapport de la Commission d’enquête du Congrès, op. cit.

LA MENACE

441

table une partie de la ville mais surtout l’effet psychologique serait immense, et il a été calculé que le potentiel de production des États-Unis pourrait diminuer d’une quantité estimée à peutêtre 3 %. L’événement qui se rapproche le plus d’un tel scénario s’est produit en 1987 à Goiania au Brésil, où une source de césium 137 provenant d’une clinique démolie et abandonnée dans un terrain vague a été dispersée par des enfants, contaminant 1 249 victimes dont 4 sont mortes dans les quatre semaines suivantes. Au total 122 000 personnes ont dû être examinées et 5 000 m3 de déchets traités. Les dégâts réels sont sans commune mesure avec leur aura médiatique. En ne tenant compte que du nombre des gens touchés, des dommages matériels et des travaux de décontamination, les experts les plus sérieux104 estiment que les conséquences de l’explosion d’une bombe radiologique seraient « catastrophiques mais gérables ». Un scénario vraisemblable qui m’est exposé par un de mes amis, officier spécialiste du renseignement, repose sur la crédibilité très forte d’Al-Qaida. Oussama Ben Laden répandrait grâce aux chaînes CNN, Fox News, Al-Jazira et autres une cassette où il annoncerait que son organisation aurait maîtrisé la fabrication en quantité du virus de la variole et que dans une semaine les systèmes de climatisation de tous les gratte-ciel de New York seraient infectés. On peut gager que la panique coûterait plus d’un trillion de dollars à l’économie américaine… En août 1999, une épidémie d’encéphalite inquiète New York. Elle est bientôt attribuée à un virus inconnu aux ÉtatsUnis, le West Nile105. Le maire de la ville, affolé, fait répandre des pesticides antimoustiques en quantités énormes. Son origine est aujourd’hui attribuée à une migration naturelle d’Afrique ayant passé par Israël, puis par la Roumanie. On a beaucoup parlé d’attaque terroriste à son sujet ; il aurait suffi à Al-Qaida de confirmer ce bruit pour créer un coûteux imbroglio. Autre idée, plus simple encore : quinze mille sources radioactives employées par les médecins sont annuellement perdues dans le monde sans qu’on s’en inquiète. Imaginons que l’une d’entre elles soit installée, par un groupe d’activistes, dans une rame de chacune des quatorze lignes du métro parisien, et que l’annonce en soit orchestrée comme il faut. Bel exemple de Netwar, n’est-ce pas ? Les moyens de transport en commun dans les grandes villes occidentales offrent une cible idéale, même aux poseurs de bombes 104. National Council on Radiation Protection and Measurements, Report n° 138 on Management of Terrorist Events Involving Radiation Materials, Bethesda, NCRP Publication, novembre 2001. 105. Voir p. 472.

442

INTRODUCTION AU SIÈCLE DES MENACES

classiques. Pour peu qu’un attentat de forte amplitude soit perpétré en période d’élections nationales, les auteurs obtiendraient une amplification politique de leur action qui atteindrait le niveau d’une perturbation mondiale. Mais, direz-vous, Oussama Ben Laden a été réduit à l’impuissance lorsqu’il a perdu son fief afghan. Parcourons donc le monde. D’après la CIA, entre trente et cinquante mille combattants ont été formés en Afghanistan. En dépit de l’arrestation de plus de trois mille activistes islamistes dans le monde après le 11 septembre 2001, le réseau décentralisé et insaisissable, devenu de plus en plus difficile à neutraliser, conserve ses méthodes, comme l’ont montré les attentats aux voitures piégées commis le 12 mai 2003 à Ryad et le 17 mai suivant à Casablanca. Et une porte-parole de l’IAEA, Melissa Fleming, redoute que des matériaux radioactifs dérobés à Al-Tuwaitha, ne servent à fabriquer des « bombes sales106 ». Les pays occidentaux sont toujours sous le coup d’une fatwa (jugement religieux) lancée par Oussama Ben Laden, en février 1998, appelant aux actions armées contre les ressortissants occidentaux et notamment américains, où qu’ils se trouvent, au nom du « front islamique mondial de lutte contre les juifs et les croisés ». En Indonésie, l’attentat du 11 septembre contre le WTC a galvanisé les militants de la Jemah Islamiyah, ainsi que d’autres groupes autonomes à Célèbes et à Java Ouest. Le 12 octobre 2002, plusieurs bombes ont tué simultanément 219 personnes dans la discothèque de Kuta, le centre de la vie nocturne à Bali. Une explosion dans le lobby de l’hôtel Marriott à Djakarta, perpétrée le 5 août 2003 selon la même technique de kamikaze, a causé douze morts et cent cinquante blessés. L’enquête de Bali a montré que les réseaux de la JI, plus denses qu’on ne l’imaginait, s’étendent sur toute la région. Trois douzaines de suspects ont été arrêtés et deux condamnations à mort prononcées. Peut-être la JI n’est-elle qu’une nébuleuse aux racines multiples, car le cerveau de l’opération de Kuta, Imam Samudra, condamné à mort le 10 septembre 2003, prétend appartenir au groupe de Banten (Java Ouest), héritier d’un mouvement islamiste des années 1950. Bien qu’Abou Baker Baachir emprisonné se défende de toute participation à une action terroriste, la plupart des suspects ont reçu l’enseignement de Ngurki. L’action du gouvernement indonésien, qui a nié le risque jusqu’en 2002, suit une démarche très légaliste mal adaptée à la lutte contre les réseaux, et d’âpres luttes entre services nuisent à 106. Le Monde, 8 mai 2003.

LA MENACE

443

son efficacité. En juillet 2003, 60 % des personnes interrogées par le magazine Tempo ont déclaré ne nourrir aucune objection à l’introduction de la charia dans le pays. Il faut s’attendre à d’autres attaques de JI. La police connaît les noms de 350 Indonésiens qui ont suivi un entraînement aux armes en Afghanistan et chez le Front Moro Islamique des Philippines, mais la JI disposerait de quelque deux mille agents quasi indépendants. Sur les huit cents millions d’Africains, la moitié au moins sont musulmans. L’intégrisme progresse sous le triple effet du prosélytisme des réseaux religieux, des frustrations créées par la mondialisation et des instrumentations politiques : ainsi au Nigeria, on a vu la population se soulever en novembre 2002 contre un concours de beauté à l’occidentale. Oussama Ben Laden a été fêté comme un héros dans les quartiers populaires des métropoles africaines. D’innombrables nouveau-nés portent son nom. La fermentation qui s’opère dans les banlieues européennes parmi les jeunes maghrébins et subsahariens se propage sur le continent noir : les immigrés revenus au pays pour leurs vacances se transforment en propagandistes islamistes. Pakistan, Iran et pays de la Ligue arabe, Arabie Saoudite au bord de l’implosion, Égypte au bord de l’explosion, Tunisie et Maroc frappés encore bien modestement, Algérie en proie aux émirs : inutile d’insister, venons-en à… l’Europe. Les services de renseignement y estiment à quelques centaines par pays les affidés « dormants », qui parfois s’activent à créer des « passerelles » en convertissant de jeunes gogos. La mosquée de Crémone, dirigée par le Tunisien Mourad Trabelsi, enrôlait des prosélytes pour grossir les rangs du mouvement anti-iranien Ansar al Islam au Kurdistan irakien, et fournissait un appui logistique aux islamistes circulant en Europe. Lors de son arrestation le 1er avril 2003, l’imam attendait la livraison d’une « grosse bombe », peut-être sale d’après les enquêteurs. Il était en rapport avec Fajj Hassan, l’un des fidèles de Ben Laden. La mosquée Al Fourkaan d’Eindhoven, près de Rotterdam, recrute des combattants pour le jihad avec un financement de la fondation saoudienne Al Wakf al Islami. Deux activistes en provenant ont été tués au Cachemire. Les services de renseignement affirment que les Pays-Bas sont un centre de prosélytisme, mais le parquet ne disposant pas de lois antiterroristes spécifiques est désarmé : un premier procès en décembre 2002 s’est terminé par l’acquittement des quatre prévenus. Londres, le Londonistan, a longtemps été, surtout avant 2001, la plaque tournante idéologique et logistique des réseaux Ben Laden, grâce à la tradition anglaise d’hospitalité, de liberté et

444

INTRODUCTION AU SIÈCLE DES MENACES

d’asile. Parmi les chefs, ont été identifiés le prêcheur très influent Abou Katada al Filastini, désigné par le juge espagnol Balthazar Garzon comme le représentant d’Al-Qaida en Europe, et le recruteur Abou Mousab revenu d’Afghanistan comme Abou Katada. Une des mosquées les plus réputées y est celle de Finsbury Park, dirigée par Abou Hamza, que nous avons rencontré en Afghanistan théoricien du salafisme jihadique. Le Londonistan s’autofinance par le trafic de faux papiers et de cartes de crédit falsifiées. Les cartes sont fabriquées à partir de copies fournies par des serveurs ou des employés de stations-service. On y visionne des cassettes sur la Tchétchénie ou l’Afghanistan. Zacarias Moussaoui, Djamel Beghal, Kamel Daoudi, Ahmed Ressan, tous impliqués à des degrés divers dans le réseau, sont passés par Finsbury Park. De Bingöl en Turquie sont sortis des kamikazes nourris dans le sein du Hezbollah anatolien, qui regroupe quelque deux mille islamistes kurdes. Après s’être illustrés, au début des années 2000, par plus de cinq cents exécutions au nom de la « lutte contre le PKK », ces excités sont aujourd’hui chômeurs ou étudiants. Le 15 et le 20 novembre 2003, chaque fois deux attentats à la voiture piégée ont tué dans Istanbul 52 personnes et en ont blessé plus de 750. C’est dans le café Internet de Bingöl, que se réunissaient les conjurés âgés de 23 à 27 ans, une poignée de jeunes voyageurs recrutés par des réseaux transnationaux et vibrionnant hors de toute structure, typiques du jihad global cher à Ben Laden. Mille Turcs auraient combattu en Afghanistan, Bosnie et Tchétchénie au cours des dernières années, d’après les autorités d’Ankara. Là encore, nous n’avons mentionné que quelques exemples. Il ne se passe pas de semaine sans arrestation, un peu partout dans l’UE. Les services de sécurité sont confrontés non à une organisation mais à une multitude de petits entrepreneurs locaux de la violence, aux stratégies multiformes, souvent indirectes. Terminons par la France qui, dans les années 1990, a été relativement épargnée, puisque seuls trois réseaux islamistes y ont opéré, le groupe Kelkal, la bande de Roubaix et le réseau Beghal, ces derniers constitués de convertis à l’islam, et que les terroristes algériens n’ont pu s’y implanter. Le pays compte un peu moins de quatre millions de musulmans, dont trois millions de Maghrébins (1,7 million originaires d’Algérie). La proportion d’immigrés de 7,5 % dans la population totale est un chiffre faible comparé aux 9 % de l’Allemagne, 10 % des États-Unis et 17 % du Canada. Le nombre des arrivées d’étrangers, constant depuis vingt-cinq ans, ne dépasse pas cent mille par an. On pourrait donc espérer qu’une fracture ne s’établira pas entre les musulmans et les autres, si des

LA MENACE

445

manifestations de durcissement n’apparaissaient de plus en plus fréquentes. Dans les années 1960 le statut des travailleurs émigrés était régi clairement par un contrat de retour. À partir de 1974, la politique de « regroupement familial » a tenté une intégration socio-économique, dont l’échec est apparu à la troisième génération, ignorante de ses origines et de l’islam, en rébellion contre une famille à la pratique patriarcale démonétisée. Dans une première phase s’est répandue la petite délinquance quotidienne, suivie par l’extension du commerce de la drogue, puis, au milieu des années 1990, on a vu se développer un mouvement de réislamisation chez de nombreux jeunes. Aujourd’hui (2003), le risque de terrorisme quotidien est considéré comme très faible, mais il faut constater que, dans la population, le discours d’intégration a fait place à un discours de prédication religieuse utilisant les difficultés sociales attribuées au racisme. Depuis 1995-1996, les associations qui prétendent lutter pour l’assimilation veulent en réalité créer en sous-main une communauté différant de la société française. En 2003, dans les quelque mille quartiers à forte population d’origine maghrébine, 240 associations prétendument de « citoyenneté », soutenues par les autorités civiles aveugles, répandent la méfiance de l’occidentalisme. Le processus de réislamisation s’accentue : « Une large part de l’islam qui se développe en France puise son inspiration chez Hassan al-Banna107. […] Les ouvrages imprimés en Arabie Saoudite sont de plus en plus nombreux et se vendent très bien. Les ouvrages de base du wahhabisme, tels que le Tawhid d’Ibn Abdel Wahab et les livres d’Ibn Taïmiyya rencontrent un vif succès. Si l’on n’y prend garde, l’islam de France puisera bientôt ses références intellectuelles en Arabie Saoudite108. »

Un représentant saoudien propose, à la grande mosquée de Mantes, des bourses pour l’université de Médine, le chaudron de l’islamisme, et voit se présenter quatre-vingts volontaires109. Contrairement aux immigrés de jadis, qui souhaitaient se fondre dans la communauté d’accueil et y parvenaient, beaucoup de nouveaux Français d’aujourd’hui refusent d’abandonner les traditions et les coutumes archaïques de leur contrée d’origine, comme la discrimination de la femme, les mariages forcés, l’allergie à la laïcité de la loi civile. Dans les défilés d’opposition à l’agression américaine en Irak, on a pu voir beaucoup de pancartes « Ni Bush, ni Sharon », mais aucune contre Saddam Hussein, des tee-shirts à 107. Xavier Ternisien, La France des mosquées, Paris, Albin Michel, 2002, p. 262. 108. Ibid., p. 263. 109. Ibid., p. 180.

446

INTRODUCTION AU SIÈCLE DES MENACES

l’effigie de Ben Laden, des drapeaux du Hezbollah, des étoiles de David barrées de l’inscription SS. Le nombre des violences et des actes racistes a crû continuellement depuis dix ans jusqu’à son plus fort niveau en 2002 avec 313 actes racistes et 992 menaces, contre respectivement 35 et 280 en moyenne entre 1995 et 1999110. Les deux tiers sont dirigés contre des Français juifs. En même temps, les attentats symboliques, matériels et personnels contre l’islam de France se multiplient. Le port du foulard par les élèves musulmanes dans les écoles et les infirmières dans les maternités, l’augmentation de la pratique du ramadan, le refus de certaines femmes de se laisser examiner par des médecins hommes dans les hôpitaux, la radicalisation des discours dans les banlieues à forte communauté immigrée, le comportement souvent incivique des jeunes gens dans les établissements scolaires, ces symptômes indiquent-ils l’amorce d’une séparation communautariste dans un pays qui n’admettait jusqu’à présent que des citoyens, alors que la société se montre incapable de résoudre les problèmes de l’intégration, de la marginalisation, du chômage et de l’échec scolaire, et qu’elle souffre d’une participation indigente aux partis, aux associations et aux syndicats ? Dans une vingtaine d’années, quand la situation dans l’Afrique du Nord s’aggravera, la France pourrait voir naître en son sein les poux de Sylla, puisqu’il faudra bien que les ex-Maghrébins aident leurs cousins à lutter contre la soif et la faim111. En raison de la structure désormais hétérogène de sa population, devant la menace d’implosion, elle s’offrira comme le ventre mou de l’Europe. Comment résisterait-elle à la crise prévisible ? Sa gestion repousse toute rigueur. Depuis l’adoption de son premier budget déficitaire en 1975, les comptes de l’État sont en rouge, quelle que soit la couleur du gouvernement, la conjoncture ou la politique suivie, jusqu’à atteindre 4 % du PIB en 2003-2004. L’augmentation annuelle du budget est devenue un invariant dont la valeur oscille peu autour de 2,5 %. La caste politique au pouvoir se gargarise d’une couverture sociale qui repose sur des prélèvements obligatoires atteignant 46 % du PIB. Mais dans les faits : deux fois moins de crédits (par rapport au PIB) sont affectés aux déshérités qu’aux États-Unis, respectivement 2,8 % et 5 % du PIB ; trois fois plus de fonctionnaires (relativement) sont employés à la distribution de ces ressources : 350 000 en France et 526 000 aux États-Unis ; cinq fois plus de travailleurs sociaux (qui vivent de l’aide sociale) sont cen110. Rapport de la Commission consultative des Droits de l’homme, remis au Premier ministre le 27 mai 2003, La Documentation française. 111. Voir chapitre II, p. 71.

LA MENACE

447

sés soulager les défavorisés : 800 000 en France et 781 000 aux États-Unis. On en déduit que le coût de la bureaucratie employée à distribuer les aides représente en France 25 % des crédits distribués et 4 % aux États-Unis. Une telle dérive corporatiste permet-elle de réparer les « fractures » qui s’amorcent dans le tissu national ? Le pays, coincé entre la plage et la pompe à essence, n’est-il pas celui de l’UE où l’âge de la retraite est le plus bas, où le taux de chômage des jeunes est le plus fort, où le nombre annuel de jours de grève est le plus élevé, où la durée hebdomadaire légale du travail est la plus faible, où l’État emploie 25 % de la population active, où d’après un sondage de mai 2003, 77 % des gens de moins de 25 ans désirent devenir fonctionnaires ? N’a-t-il pas choisi la politique de jouissance contre la politique tout court ? Ses dirigeants ne s’illustrent-ils pas les uns après les autres par l’absence d’une pensée stratégique adaptée à la rapidité de l’évolution technique112 ?

112. Jacques Blamont, « L’espace enjeu majeur de la société de l’inforrmation », Le Monde, 10 octobre 2000.

Chapitre IX

ÉCRIT SUR LE MUR

Le roi Baltasar donna un festin à ses grands, au nombre de mille. Il ordonna d’apporter les vases d’or qui avaient été pillés du temple de Jérusalem. Le roi, ses épouses et ses concubines s’en servirent pour boire du vin et pour glorifier les dieux d’airain, de fer, de bois et de pierre. Alors les doigts d’une main d’homme apparurent et écrivirent, face aux candélabres, sur la chaux du mur. Le roi changea de couleur, son esprit fut frappé de crainte. Il cria qu’on amenât les augures, mais les sages ne purent déchiffrer l’inscription. Sur le conseil de la reine mère, Daniel, le chef des astrologues, fut introduit et dit : « Voici l’inscription qui a été tracée : MANÊ-TECÊLPHARÈS . Et telle en est l’explication : MANÊ : compté ; TECÊL : pesé ; PHARÈS : divisé. » Cette même nuit, Baltasar, le roi de Chaldée, fut mis à mort. Ancien Testament, Livre de Daniel, chapitre V.

Les armes de destruction massive ne constituent pas la seule menace que l’humanité fasse peser sur elle-même. En exerçant une hégémonie brutale, sans freins, sur tous les êtres vivants, et en s’appropriant les ressources de la planète pour les prodiguer au jour le jour, elle en crée deux autres, plus graves peut-être encore que la première. On les trouvera brièvement exposées dans ce chapitre. Sans doute l’ingéniosité de l’espèce devrait-elle lui permettre de parer sans trop de dommages à une sorte de danger ; c’est la conjonction des périls grandissant simultanément de toutes parts contre laquelle il lui sera difficile de se défendre.

450

INTRODUCTION AU SIÈCLE DES MENACES

PREMIÈRE PARTIE LE SIÈCLE DES ÉPIDÉMIES

L’équilibre dynamique de la biosphère Depuis que la vie a paru sur la Terre, il y a au moins 3,7 milliards d’années, sa permanence a exigé que restassent quasi constants les paramètres physiques du milieu où elle s’épanouit, c’està-dire la mince pellicule formée de la surface des continents, des océans et de l’atmosphère qu’on appelle biosphère. La composition chimique de l’atmosphère n’a subi qu’une transformation majeure, lorsqu’il y a six cent millions d’années, à l’azote primitif s’est ajoutée une proportion de 27 % d’oxygène, produit par la photosynthèse des êtres vivants. Son apparition a déclenché la naissance et le développement des formes macroscopiques qui constituent les règnes végétal et animal. Les périodes géologiques commencent alors. La température de surface est fixée par l’équilibre entre l’apport et la perte d’énergie, c’est-à-dire entre l’ensoleillement et le rayonnement. La distance de la Terre au Soleil impose à sa surface une température moyenne qui serait de – 20 °C en l’absence d’atmosphère. La présence des gaz polymoléculaires H2O et CO2 et celle des aérosols créent un effet de serre qui porte la température moyenne à + 15 °C, à l’intérieur d’une fourchette de – 100 °C à + 55 °C selon les lieux. En conséquence, à travers les latitudes et les saisons, la molécule H2O peut exister sous ses trois phases : glace, eau, vapeur. Comme la transition de l’une à l’autre des phases exige beaucoup d’énergie, le complexe océan-glaces-atmosphère possède une inertie qui favorise la stabilité autour de la présence d’eau liquide. Des facteurs externes produisent des variations relativement petites du système autour de son équilibre. Les paramètres orbitaux du globe, tels que l’inclinaison de l’axe des pôles, l’époque de l’année où la Terre passe au périhélie et l’excentricité de l’orbite, modifient périodiquement l’ensoleillement local, qui peut subir en conséquence des fluctuations au cours des siècles. Ces cycles, dits de Milankovic, créent des oscillations climatiques dont les plus connues sont les glaciations. Selon que les glaces sont plus ou moins fondues, et s’étendent à des latitudes plus ou moins basses, le niveau des mers se modifie

ÉCRIT SUR LE MUR

451

avec une amplitude qui peut atteindre plusieurs centaines de mètres de hauteur. Les mouvements des plaques tectoniques se manifestent par le volcanisme qui projette dans l’atmosphère des poussières empêchant la lumière solaire d’y pénétrer pendant des mois ou des années, d’où un refroidissement de l’atmosphère et du sol. La dérive des plaques a transformé en la configuration actuelle le continent qui rassemblait toutes les terres émergées au début des ères géologiques. Un accident comme l’impact d’une grosse météorite peut aussi projeter des débris dans la haute atmosphère, mais en beaucoup plus grande quantité que le volcanisme, et plonger la planète dans le noir, suffisamment longtemps pour empêcher les végétaux de se reproduire normalement et tuer ainsi les herbivores. Un astéroïde de 300 m de diamètre frappe la Terre sans effet majeur tous les soixante mille ans en moyenne. Jusqu’à présent, on a recensé 635 astéroïdes de diamètre supérieur à 1 km, dont l’orbite peut les amener au voisinage de la Terre, sur une population estimée de 1 000 à 2 000. Un seul a une chance de nous toucher avant longtemps, ou plutôt une chance sur 300, en l’an 2880. Si la vie peut devenir localement ou globalement impossible pour certaines espèces à la suite de ces événements qui bouleversent leur niche écologique, les fluctuations, soit climatiques, soit tectoniques des conditions régnant dans la biosphère ont une amplitude trop faible pour avoir jamais mis en danger les grands ensembles physico-chimiques. Alors que l’évolution des végétaux a été continue et régulière, les paléontologues savent aujourd’hui que le règne animal a été frappé par cinq crises majeures dites extinctions en masse, depuis l’explosion créatrice qui a marqué son émergence au début du Cambrien (première période de l’ère primaire), il y a environ 540 millions d’années. En une dizaine de millions d’années ont alors paru une bonne centaine d’embranchements dont il ne subsiste plus que trente. • Il y a 440 millions d’années, à la fin de l’Ordovicien, 85 % des espèces disparaissent en un à deux millions d’années. • Il y a 365 millions d’années, entre deux étages du Dévonien supérieur, 75 % des espèces marines s’éteignent. • Il y a 245 millions d’années, à la fin du Permien, se développe la crise la plus grave de toute l’histoire de la biosphère : 95 % des espèces marines disparaissent. Elles étaient jusque-là sédentaires. La flore continentale est aussi touchée, elle se réduit et la Terre se couvre de champignons. Dans la faune continentale, 30 % des ordres des insectes s’éteignent, et 70 % des familles de

452

INTRODUCTION AU SIÈCLE DES MENACES

vertébrés disparaissent. La conjonction de multiples facteurs globaux a dû causer cet événement exceptionnel : un réchauffement du climat, un fort volcanisme qui émit en moins d’un million d’années d’énormes coulées de lave, une baisse du niveau des mers qui connurent leur plus ample régression depuis le début de l’ère primaire. La conséquence sur les êtres vivants fut le développement et l’expansion des animaux marins mobiles. • Il y a 215 millions d’années, à la fin du Trias, une nouvelle crise entraîne la disparition de 75 % des espèces marines, la régression des récifs coralliens, le recul des mollusques et des amphibiens et la disparition de la plupart des reptiles quasi-mammifères herbivores, qui laissent la place au développement rapide des crocodiliens, des ptérosaures (reptiles volants) et des dinosaures. • Il y a 65 millions d’années, à la limite entre le Crétacé et le Tertiaire, 75 % des espèces animales disparaissent mais de façon sélective : 95 % des animaux de plus de 10 kg sont éliminés. Les extinctions les plus complètes frappent les ammonoïdes, les dinosaures, les ptérosaures et les mammifères marsupiaux, alors que l’évolution de la végétation ne présente pas de rupture catastrophique. Les arguments en faveur d’impacts météoritiques se sont multipliés depuis 1980, y compris la découverte d’un cratère fossile à Chixculub au Yucatan, attribué à la chute d’un corps d’une dizaine de kilomètres de diamètre. À la suite de la crise, les mammifères placentaires ont occupé le terrain laissé libre par la disparition des grands reptiles, se sont diversifiés et ont conquis la planète. Si les cinq crises ont présenté une forte amplitude, de nombreux événements de moindre importance, près d’une soixantaine, ont aussi détruit des espèces. Les paléontologues parlent alors d’extinction de fond, en y joignant les disparitions qui se produisent en dehors des crises. On estime la durée de vie d’une espèce à dix millions d’années chez les invertébrés et un à deux millions chez les mammifères. L’apparition de formes nouvelles compense la disparition de formes existantes. La découverte des extinctions en masse, faite pendant la seconde moitié du XXe siècle, a remis à l’honneur la « théorie des révolutions » de Cuvier et modifié l’idée que l’on se faisait de l’évolution de la vie. Alors qu’une extinction majeure se déroule en un million d’années ou moins, il en faut une bonne quinzaine pour que la diversité des espèces se rétablisse. Pendant la période intercrises, la sélection darwinienne joue un rôle majeur dans l’adaptation des organismes aux vicissitudes de leur existence et dans le succès relatif des uns par rapport aux autres. Mais au moment de la crise, c’est la chance qui détermine quelles espèces survivent et quelles autres disparaissent. L’histoire de la vie ne

453

ÉCRIT SUR LE MUR

possède aucun caractère de nécessité inéluctable et n’aboutit à Homo sapiens que par l’effet des circonstances. Pour appréhender la dynamique à court terme des communautés écologiques, c’est-à-dire à l’échelle de quelques centaines d’années, il est crucial de comprendre les fluctuations des espèces individuelles au sein de ces communautés. On a longtemps pensé que les populations en compétition les unes avec les autres pour accéder à des ressources qui ne sont jamais inépuisables, atteignent un état stationnaire régulier que seuls des facteurs externes tels que les changements climatiques peuvent modifier. Les recherches récentes ont montré qu’en l’absence de facteurs externes, les populations suivent un comportement chaotique et non régulier. En effet, leurs fluctuations sont dues à l’interaction d’un très grand nombre de paramètres et il résulte tant des observations que des modélisations, qu’à des périodes de stabilité peuvent succéder de façon erratique des augmentations ou des diminutions soudaines de populations. Les croissances explosives sont peut-être le propre de la dynamique des populations, toutes conditions physiques ou biologiques demeurant par ailleurs inchangées1. Les communautés stables peuvent alors tomber sous la domination d’une ou de quelques espèces en petit nombre.

La sixième extinction Pendant les deux derniers millions d’années, la Terre a subi des oscillations climatiques, entre des périodes de froid intense et des périodes interglaciaires chaudes. À cette époque, la diversité des espèces a atteint un sommet, mais un prédateur exceptionnellement doué, Homo sapiens sapiens, s’est attaqué à toutes, animales et végétales. A commencé, avec la fin de la dernière période glaciaire, une sixième extinction de la vie dans la biosphère2. La première victime de Sapiens a peut-être été son frère et sans doute compétiteur, l’homme de Neandertal, qui a disparu il y a environ trente mille ans. Caïn a commencé par tuer Abel. L’homme moderne a pénétré en Amérique du Nord il y a quinze mille ans, il n’en a mis que trois cent cinquante pour atteindre le golfe du Mexique. Avant la fin du premier millénaire 1. Alan Hastings et Kevin Higgins, « Persistance of Transients in Spatially Structured Ecological Models » , Science, 263, 1994, 1136. 2. Richard Leakey et Roger Lewin, The Sixth Extinction, Patterns of Life and the Future of Humankind, 1995, Doubleday Dell ; trad. française, La Sixième Extinction, Paris, Flammarion, 1997.

454

INTRODUCTION AU SIÈCLE DES MENACES

de sa présence, il occupait la pointe sud et le nombre de ses congénères sur le continent s’élevait à plusieurs millions. L’extinction des grandes espèces animales a été instantanée. Cinquante espèces ont aussitôt disparu du continent Nord, puis cinquantesept autres dans une période brève de mille ans, et un plus grand nombre encore dans le continent Sud. Ont prospéré les petits mammifères comme les rats et les souris. En Australie, des cinquante espèces de mégafaune qui existaient il y a soixante mille ans lorsque l’homme est arrivé, il n’en survivait plus que quatre après vingt mille ans. Pas un seul animal terrestre de taille supérieure à celle d’un homme n’a été épargné. Comme dans toutes les îles de la zone Pacifique, il s’y trouvait des oiseaux sans ailes de grandes dimensions, qui furent exterminés. En Nouvelle-Zélande, les Maoris, arrivés il y a mille ans, ont éliminé une grosse autruche appelée « moa ». Même coïncidence entre l’arrivée de notre semblable et la disparition de la mégafaune à Madagascar, à Hawaï, mais aussi en Europe et en Asie. Nous ne pouvons que souscrire aux trois conclusions d’Edward Wilson : • Le bon sauvage n’a jamais existé. • Éden, en réalité, était un abattoir. • Le paradis trouvé est le paradis perdu3. En revanche en Afrique, l’homme et les animaux ont évolué côte à côte pendant des millions d’années et se sont habitués les uns aux autres. Il n’y a pas eu d’arrivée brusque de prédateur, et la richesse spécifique a été partiellement conservée. Les humains mettent en danger les autres espèces de trois façons : l’exploitation directe, c’est-à-dire la chasse ou la pêche ; l’introduction, délibérée ou accidentelle, d’espèces étrangères dans un écosystème ; enfin la destruction et la fragmentation de l’habitat, en particulier celle de la forêt tropicale. Avec l’avènement de l’ère industrielle au XIXe siècle et le développement des moyens de transport, l’attaque de la biosphère par l’homme a connu une accélération inouïe. La sixième extinction se produit en deux cents années au lieu d’un million pour les précédentes. Ici encore, la vitesse foudroyante des évolutions est la marque de notre siècle.

3. Edward O. Wilson, The Future of Life, New York, Alfred A. Knopp, 2002, p. 102.

455

ÉCRIT SUR LE MUR

Nombre des espèces vivantes recensées en 19914 Virus Bactéries Protoctistes (protozoaires, algues unicellulaires…) Cryptogames (champignons, fougères…) Plantes Invertébrés Vertébrés

5 000 5 000 30 000 174 000 250 000 990 000 45 000

Selon le tableau ci-dessus, il existe aujourd’hui un million et demi d’espèces répertoriées. On évalue à plusieurs millions, peutêtre une dizaine, le nombre d’espèces encore inconnues. La plupart vivent dans la forêt tropicale où bactéries et insectes pullulent loin des zoologues. Les écologistes (les scientifiques et non les politiciens) essaient de calculer le taux actuel de disparition des espèces. Il est dominé par la décroissance de la forêt tropicale, qu’à partir d’images satellitales la FAO a estimée comprise entre 1 et 2 % par an. Bien que cette forêt ne couvre que 7 % de la surface terrestre, elle abrite cependant la moitié des espèces. Lorsqu’elle ne couvrira plus que 10 % de son extension originelle, ce qui devrait se produire vers le milieu du XXIe siècle, 50 % des espèces pourraient avoir disparu. Il est vrai que les projections sur la situation des espèces dans cent ans diffèrent selon les auteurs : un expert estime que 17 000 espèces disparaissent chaque année, chiffre porté à 100 000 par un autre. Adoptons une valeur basse de 25 000 par an. Puisque le « taux d’extinction de fond » se situe au niveau d’une extinction tous les quatre ans5, le taux actuel d’extinction est cent mille fois plus élevé que la tendance naturelle : nous sommes bien les témoins et les acteurs d’une sixième extinction. Le programme des Nations unies pour l’environnement (PNUE) affirme en 2001 que 25 % des espèces de mammifères (1 130 espèces) et 12 % des espèces d’oiseaux sont menacées. La littérature scientifique spécialisée fourmille d’exemples illustrant l’agression permanente de l’homme contre les autres espèces. Nous y renvoyons le lecteur, tout en notant que, malgré les discours sur la nouvelle marotte qu’est « le développement durable », la situation ne peut que s’aggraver. En effet, aujourd’hui, l’homme consomme 40 % de la production primaire de la Terre, c’est-à-dire de l’énergie totale récupérée par la photosynthèse, de laquelle il faut soustraire l’énergie consommée par 4. Rapport n° 33 de l’Académie des sciences, juin 1995, Lavoisier Tec-Doc, p. 24. 5. David M. Raup, in E. O. Wilson, op. cit., p. 307.

456

INTRODUCTION AU SIÈCLE DES MENACES

les plantes pour fonctionner : il accapare donc déjà près de la moitié de l’énergie permettant à toutes les espèces terrestres de survivre. Or la population mondiale passera de 6 à 10 milliards d’hommes d’ici le milieu du siècle. La surface nécessaire à chaque personne pour se procurer de la nourriture, de l’eau, du logement, de l’énergie, du transport et éliminer ses déchets est estimée à 1 hectare pour les pays en voie de développement, et 9,6 hectares pour les États-Unis, avec une moyenne aux environs de 2,5 pour la population mondiale6. Pour que la consommation de chaque personne soit égale à celle des habitants des États-Unis, avec la technologie d’aujourd’hui il faudrait la surface de quatre planètes comme la Terre. Même si le milliard de gens à 1 dollar par jour n’aspirent pas à vivre comme des Américains, ils exigent tout de même un minimum supérieur à ce dont ils disposent à ce moment, et ils s’allient donc au monde industriel pour piller la planète, comme firent les « bons sauvages » lorsqu’ils s’en donnaient à cœur joie dans leurs îles enchantées. En 1972, James E. Lovelock, puis Lynn Margulis ont introduit l’idée que la biosphère fonctionne comme une sorte de superorganisme entourant la planète. Les ensembles physico-chimiques constituent un système à l’état stationnaire, dénommé par eux Gaïa, où toute modification, venant ne serait-ce que d’une espèce, peut se propager pour produire un impact global : « La vie et son environnement sont si étroitement liés que l’évolution concerne Gaïa et non les organismes ou l’environnement pris séparément. » Ainsi les micro-organismes fonctionnant par photosynthèse ont-ils créé l’oxygène de l’atmosphère au Précambrien. Ainsi le phytoplancton joue-t-il un rôle majeur dans le contrôle du climat mondial. Ainsi le disulfure de méthyle rejeté par les algues est-il un facteur de régulation dans la formation des nuages. Mais jamais avant le XXIe siècle une espèce unique n’a su imposer sa loi cruelle à toutes les autres et son empire dévastateur sur l’ensemble de l’environnement planétaire, au point de représenter à elle seule la plus grande partie du protoplasme total. L’homme est devenu depuis cinquante mille ans une véritable anomalie par le développement pathologique de son cerveau. De même qu’à de nombreuses reprises, l’évolution a poussé des lignées à « l’extinction de fond » par le surdimensionnement d’un caractère, l’exacerbation que représente la raison humaine pourrait bien entraîner une correction de l’anomalie. « Le changement dynamique, et non la permanence, est le trait distinctif de la chose naturelle, 6. E. O. Wilson, op. cit., p. 23.

457

ÉCRIT SUR LE MUR

aussi bien sur les échelles de temps longues que courtes7. » Une contre-offensive de Gaïa se prépare contre Homo sapiens. Comme les grands animaux ont disparu, il faut chercher ses ennemis chez les cirons.

La contre-attaque Parmi les espèces de virus qu’on pense exister, seuls 4 % ont été caractérisées. Parmi les espèces bactériennes soupçonnées, cinq mille ont été caractérisées. L’immense majorité réside loin de l’homme, souvent chez une espèce hôte qui le tolère. Notre époque a connu l’irruption de maladies inconnues jusqu’à présent, comme celles causées par le hantavirus, ou les fièvres hémorragiques ; leur migration dans de nouvelles régions, comme l’a fait un choléra nouveau en Amérique latine ; leur dissémination par la technologie, comme ce fut le cas de la légionellose dans les circuits modernes de refroidissement de l’eau ; et enfin leur saut de l’animal à l’homme, dont l’exemple est donné par la vache folle. Des précédents sont connus dans l’histoire. La nouveauté réside dans le fort potentiel de mondialisation que possèdent certains de ces germes et donc certaines des maladies qu’ils occasionnent. L’humanité est rapidement devenue plus vulnérable à la dissémination, aussi bien des anciennes maladies que des nouvelles : les gens voyagent non seulement plus, mais plus vite et en plus d’endroits. Entre 1950 et 1990, le nombre de passagers d’un vol commercial international est passé de deux millions à deux cent quatre-vingts millions ; les vols domestiques aux États-Unis ont transporté 424 millions de personnes en 1990. Vers 2020, 1,5 milliard de touristes, soit le double du nombre actuel, parcourront la planète8. Grâce aux modifications des activités humaines pendant la seconde moitié du dernier siècle, les microbes ne sont plus confinés à des écosphères lointaines ou à des espèces réservoirs rarissimes : pour eux, la Terre est devenue le « village global » que Marshal McLuhan assignait aux hommes. Le déplacement rapide d’humains infectés est la règle, et les insectes porteurs de parasites ne se font pas faute de les accompagner.

7. R. Leakey et R. Lewin, op. cit., p. 271. 8. Source : Organisation mondiale du tourisme (OMT), Rapport 2003.

458

INTRODUCTION AU SIÈCLE DES MENACES

Nietzsche a écrit que le XXe siècle serait l’ère classique des guerres. En le paraphrasant, j’affirme que le XXIe siècle sera l’ère classique des épidémies9. L’homme moderne se défend contre les « microbes » (bactéries, virus, protozoaires) avec deux armes : le cordon sanitaire, inventé à la fin du XIXe siècle, et l’arsenal des médicaments et traitements, développé depuis le milieu du XXe. Nous venons de voir que le cordon sanitaire, devenu poreux devant l’aviation commerciale, a perdu de son efficacité. Qu’en est-il de la médication ? Le monde microbien, en évolution permanente, a pour caractéristique principale sa mutabilité. Les moyens qu’il emploie pour répandre ou absorber des gènes comprennent les plasmides, la conjugaison sexuelle, les transposons à l’intérieur d’un génome, les mutations à un site de la chaîne d’ADN. L’environnement de la biosphère est rempli de segments très mobiles d’ADN que des germes confrontés à une attaque médicamenteuse utilisent pour muter. On a vu, par exemple, les pneumocoques absorber de longues chaînes d’ADN et modifier la composition de leurs parois cellulaires au point qu’on peut parler de nouvelles espèces. L’ADN se déplace non seulement à travers les différentes espèces de bactéries, mais entre des familles d’organismes, entre bactéries et levures, entre plantes et bactéries, entre hôtes et parasites. Ainsi se construit la résistance des microbes aux médicaments, et elle apparaît habituellement chez les groupes humains démunis des points de vue social et économique. Les pauvres recourent partout à l’automédication, et se procurent des antibiotiques au marché noir ou sous le comptoir, sans consulter de médecins et certainement en l’absence des tests nécessaires pour identifier la sensibilité au traitement des souches qui les infectent. Une bonne partie de l’humanité, et en particulier les gens à 1 dollar, sont des boîtes de Pétri ambulantes où se trouvent réunies les conditions idéales aux mutations accélérées des germes, à leur sélection naturelle et à leur évolution. — Parmi les bactéries, les staphylocoques, exterminés à 100 % par la pénicilline en 1952, lui résistaient victorieusement au début des années 1980, où la méthyciline, dix fois plus chère que la pénicilline, les a tenus en échec. Aujourd’hui ils ne connaissent plus qu’un seul ennemi efficace, la vancomycine, un des antibiotiques les plus coûteux. L’information que les microbiologistes redou9. On lira avec intérêt le livre très documenté de Laurie Garrett, The Coming Plague, New York, Farrar, Straus & Giroux, 1994, republié par Penguin Books, 1995.

ÉCRIT SUR LE MUR

459

taient vient d’être publiée10 : un staphylocoque doré résistant à la vancomycine a été découvert au Michigan. On peut s’attendre à l’expansion des maladies nosocomiales si ce dernier rempart cède : en 1992, 920 000 Américains sur 23 millions d’opérés, qui avaient tous reçu un traitement préventif, ont développé une infection postopératoire. En 2002, environ 800 000 patients ont contracté une infection nosocomiale en France et environ 4 000 en sont morts. Combien seront-ils quand les antibiotiques seront devenus impuissants devant l’invasion permanente de nouveaux germes ? Une souche qui infecte désormais tous les hôpitaux du monde descend d’ancêtres apparus au Caire en 1961. — Les virus, grâce à leur taux de reproduction rapide et leur très haut degré de mutabilité, sont encore mieux adaptés que les bactéries à la lutte contre les médicaments. Alors que des douzaines d’antibiotiques ont été introduits depuis les années 1940 pour combattre bactéries et parasites, Homo sapiens ne dispose que d’un petit nombre d’antivirus comme l’acyclovir, la ribavirine, l’AZT (azidothymidine) qui se sont rapidement heurtés à la résistance. En 1981, l’apparition de l’acyclovir permit de soigner l’épidémie américaine d’herpès génital, mais, avec une petite modification de son ADN, le virus développa dès 1990 une résistance au médicament qui rendit le traitement d’autant plus difficile que le sida prit alors son essor, souvent chez les mêmes malades. — Les protozoaires. Le plasmodium falciparum, responsable du paludisme, qui était traité à la chloroquine, est devenu résistant dans les années 1960. Pendant la guerre du Vietnam, l’armée américaine a inventé la méfloquine, qui a rencontré beaucoup de succès, dans les années 1980, avant de se voir contrée à partir de 1990 par une nouvelle mutation, qui produisit un microbe muni d’une pompe cellulaire capable d’éjecter de son organisme toutes les drogues antimalariales. En 1990, plus de 80 % des cas de paludisme dans le monde furent observés en Afrique, et 95 % des décès ; aucune drogue n’y était plus efficace ; la résistance à la chloroquine était générale, et même à la quinidine et à la quinine, alors qu’une forme cérébrale souvent mortelle faisait son apparition. Un peu partout les autorités ont essayé de lutter contre le paludisme en s’attaquant aux moustiques dont la piqûre propage la maladie. Loin de régresser, le microbe a envahi un nouveau domaine, l’Asie. Dans la forêt asiatique, l’éradication des moustiques est de toute façon techniquement impossible. D’autres facteurs ont joué pour disséminer la maladie. Dans les années 1970 à 1990, la guerre, les persécutions ethniques ou religieuses, la 10. Bulletin hebdomadaire des CDC , 5 juillet 2002.

460

INTRODUCTION AU SIÈCLE DES MENACES

nécessité économique et les désastres naturels ont forcé des dizaines de millions de familles et d’individus à des migrations inattendues. Un bon demi-million de Cambodgiens se trouvaient à l’état de réfugiés vers 1980 ; le gouvernement indonésien a déporté, en 1990, près de sept millions de gens pour coloniser la forêt d’îles périphériques. Aucun ne possédait d’immunité vis-à-vis des parasites locaux. La guerre civile, l’insurrection des Khmers rouges, les campagnes du Vietnam ont créé des conditions favorables au développement des moustiques, alors que les populations « déplacées » augmentaient et s’enfonçaient dans les bois où prospèrent plus d’une douzaine d’espèces à falciparum. En l’absence de toute infrastructure médicale, l’emploi désordonné de médicaments fit naître la résistance. En 1983, on notait 96,7 % de traitements efficaces dans les régions frontières entre le Cambodge et la Thaïlande hantées par des mineurs enragés d’automédication ; en 1990, 21 % de succès seulement. En 1992, l’OMS (Organisation mondiale de la santé) a dû admettre qu’elle ne dispose pas de stratégie globale pour combattre le paludisme. Le plasmodium, lui, dispose d’une stratégie globale. Cinq cents millions de personnes par an contractent le paludisme, dont quatre cent cinquante en Afrique ; deux millions en meurent. La maladie ralentit la croissance de 1,3 % du PIB par an dans les pays subsahariens. Elle est endémique dans 101 pays ; 40 % de la population mondiale vit dans des zones impaludées. Lorsque les Marines américains ont débarqué au Liberia en août 2003, armés des meilleurs médicaments et de tenues antimoustiques, 50 d’entre eux sur 225 ont été hospitalisés pour une attaque de malaria ! Les mots prophétiques de Mark Lappé11, professeur à l’Université de Californie (Berkeley), écrits avant l’apparition du sida ou de la légionellose, confirment notre propos : « Malheureusement, nous avons joué un tour à la Nature en nous emparant de ces produits [naturels], et en les perfectionnant d’une façon qui a changé toute la configuration microbienne des pays en développement. Nous voyons maintenant proliférer des organismes qui n’avaient jamais existé. Nous les avons sélectionnés. Des organismes qui causaient probablement dans le passé un dixième de un pour cent des maladies, causent maintenant vingt, trente pour cent de celles que nous voyons. Par l’emploi des antibiotiques nous avons changé la face entière de la Terre. »

Depuis 1973, trente nouvelles maladies infectieuses ont fait leur apparition, tandis que revenaient en force de grandes endé11. M. Lappé, Germs That Won’t Die, New York, Anchor Books Doubleday, 1981.

461

ÉCRIT SUR LE MUR

mies traditionnelles qu’on avait cru pouvoir vaincre définitivement, le paludisme, la tuberculose, la fièvre jaune et le choléra. Le bacille de Koch infeste un tiers de la population mondiale ; il a tué trois millions de personnes en 1995. Devant l’augmentation de leurs ravages chez les gens à 1 dollar par jour, même si le danger semble contenu pour l’instant chez les gens à 50 dollars, devant la résistance croissante des germes, nous devrions écouter avec attention l’avertissement des épidémiologistes12 : « Nous sommes à la veille d’une crise mondiale en ce qui concerne les maladies infectieuses. Aucun pays n’est à l’abri. »

L’armée en marche DANS LES BOIS, EN ATTENTE

À la suite de la révolution sociale qui a convulsé la Bolivie en 1952, les habitants de la région de San Joaquin perdent soudain leurs employeurs et leurs sources traditionnelles de nourriture. Pressés de cultiver le maïs et d’autres céréales, ils essartent la jungle dense qui couvrait une vaste plaine au-dessus du lit de la rivière Machupo, perturbent sans le savoir l’habitat naturel de la souris des champs Calomys et lui fournissent une nouvelle et abondante alimentation. Les rongeurs pullulent et envahissent la ville de San Joaquin au début des années 1960 ; jour et nuit ils dévorent les grains dans les maisons et urinent partout. Cette urine est saturée d’un virus mortel, non pour les animaux, mais pour les hommes. Tous les chats de la région ont été exterminés par les quantités colossales de DDT répandues dans le cadre d’une campagne nationale contre le paludisme. Une maladie nouvelle décime la population, la fièvre hémorragique dite bolivienne, ou typho negro. La réintroduction des chats fait cesser l’épidémie. Une histoire similaire s’était déroulée en 1953, près de la rivière Junin en Argentine : une autre espèce de Calomys, chassée de son habitat de la pampa par l’emploi d’herbicides très à la mode après la Première Guerre mondiale, s’installa dans les nouveaux champs de maïs. Elle hébergeait le virus, dit de Junin, qui répandit la fièvre hémorragique argentine au grand dam des paysans. Vingt mille personnes ont été infectées depuis sa découverte en 1958 et elle s’est étendue à trois autres provinces. Dans les 12. Dr Jeffrey Sachs, Rapport établi par le Comité pour le développement international de l’Université Harvard, publié par l’OMS, 25 avril 2000.

462

INTRODUCTION AU SIÈCLE DES MENACES

récentes flambées de l’épidémie, on a recensé parmi les personnes affectées, 30 % de cas létaux. De la forêt africaine sont sortis plusieurs virus de fièvre hémorragique, le virus de Marburg porté par des singes en 1967, la fièvre de Lassa en 1969, la maladie d’Ebola en 1976. De tels germes tuent si vite leur hôte qu’ils n’ont pas réussi jusqu’ici à engendrer une pandémie. L’équilibre entre l’homme et l’agent pathogène n’a pas le temps de s’établir et la maladie suraiguë ne se transforme pas en une affection chronique. On en signale de temps en temps une bouffée sporadique, comme à Kikwit dans l’ex-Zaïre en 1995, où 245 personnes périrent de la maladie d’Ebola, puis dans les mines abandonnées de Durba où le même virus tua une centaine de chercheurs d’or en mai 1999, enfin à Gulu, ville d’Ouganda, où en octobre 2000, sur 191 infectées, 68 personnes périrent. HORS DU BOIS

Le sida13

L’existence d’une nouvelle maladie a été officiellement annoncée, le 5 juin 1981, par l’agence épidémiologique fédérale des États-Unis Centers for Disease Control (CDC) d’Atlanta (Georgie), dans son bulletin hebdomadaire Morbidity and Mortality Weekly Report (MMWR) qui révélait la présence d’une pneumonie à pneumocystis aggravée de déficience immunitaire chez cinq homosexuels de Californie14. Le 4 juillet suivant, le MMWR signalait l’existence du sarcome de Kaposi, maladie très rare audessous de 50 ans, chez vingt-six homosexuels à New York City et à San Francisco. Le sarcome de Kaposi et la pneumocystose étaient visiblement les expressions cliniques d’une seule affection, l’effondrement des systèmes immunitaires, qui, à cette date, frappait exclusivement des homosexuels. En novembre 1981, on recensait 180 malades ; 8 000 à la fin de 1984. La maladie se répandit vite. Les homosexuels américains l’avaient déjà introduite à Port-au-Prince, d’où elle leur revint en force avec les immigrés haïtiens et le sang acheté à des contaminés pour transfusions. La découverte de sa transmission par la transfusion sanguine chez les hémophiles démontra que l’agent pathogène était un virus, identifié dès 1983 par les chercheurs de l’Institut Pasteur à Paris, non sans de malhonnêtes contestations de leurs 13. Antony Fauci, « The Aids Epidemic », N. Engl. J. Med., vol. 341, n° 14, 30 septembre 1999, p. 1046. 14. Dr Michael S. Gottlieb, « Aids Past and Future », N. Engl. J. Med., vol. 344, n° 23, p. 1 788, 7 juin 2001.

ÉCRIT SUR LE MUR

463

compétiteurs new-yorkais et de l’Administration Reagan, que la communauté scientifique américaine unanime désavoua. Le sida est une épidémie double, due à deux rétrovirus parents, dénommés HIV-1 et 2 (Human Immunodeficiency Virus). Chez tous les êtres vivants, l’ADN détermine la production d’ARN et l’ARN à son tour celle des protéines. Beaucoup de virus ne contiennent pas d’ADN. Ils utilisent un enzyme spécifique, la transcriptase inverse, qui permet la synthèse d’une chaîne complémentaire d’ADN moulée sur la chaîne d’ARN viral. Après la pénétration dans la cellule infectée, l’enzyme fourni par le virus transcrit l’ARN viral en ADN, qui s’introduit alors dans le noyau. Un groupe de virus à ARN possède cet enzyme, celui des rétrovirus. Plus complexes que chez les autres rétrovirus, la machinerie génétique des HIV leur permet de s’adapter aux circonstances, de moduler leur cycle vital selon l’état fonctionnel de la cellule infectée et de muter facilement. Rien de pareil n’était connu chez les autres parasites intracellulaires. Le virus pénètre dans le noyau des cellules qu’il infecte, le plus souvent des lymphocytes, et s’y cache dans leurs chromosomes. Il ne s’exprime pas pendant un temps qui peut atteindre une dizaine d’années, mais il vit car il s’accroche à chaque division cellulaire, et ne s’active que lorsque son hôte est stimulé à l’occasion d’une autre infection. Il tue alors le lymphocyte ; l’hôte perd son pouvoir immunitaire et est envahi par des microbes qui causent des maladies dites opportunistes. Il en meurt. Le HIV-1 identifié aux États-Unis a débuté dans trois foyers : New York, la Californie et l’Afrique centrale ; le HIV-2, apparu en Afrique de l’Ouest, serait passé inaperçu si la virulence de la première souche n’avait alerté les médecins. L’apparition de leur ancêtre commun, le SIV (Simian IV), remonte sans doute à plusieurs siècles ; il n’était peut-être pas pathogène, et infectait vraisemblablement l’homme et les singes africains. L’infection par HIV-2 est endémique chez les singes africains, en particulier le mangabey enfumé qui est un de ses réservoirs naturels. Or dans les années 1950 le commerce des singes vivants et leur exportation vers les États-Unis et l’Europe pour les besoins de l’expérimentation médicale se sont intensifiés. La culture in vitro de leurs cellules rénales dans la préparation des vaccins s’est multipliée, alors que les interventions sanglantes qu’on leur infligeait rendaient plus probable l’infection humaine par un rétrovirus simien. Quant au HIV-1, il pourrait provenir d’une contamination interhumaine. Venu de son réservoir, le chimpanzé Pantroglodytes troglodytes qui est immunisé contre lui, le virus a sauté sur

464

INTRODUCTION AU SIÈCLE DES MENACES

l’homme, très vraisemblablement par contact d’une plaie avec le sang de l’animal quand celui-ci était découpé pour être mangé. Son expansion a commencé, quelque part entre 1910 et 1950, au sein de peuplades africaines isolées qui parvenaient à survivre même avec un taux de mortalité élevé. L’analyse, trente ans plus tard, d’un sérum recueilli chez un malade au Congo belge en 1959, a identifié des anticorps du sida. Récemment il aurait contaminé d’autres populations, plus sensibles parce qu’elles ne l’auraient pas rencontré auparavant. Ainsi le sida est-il une zoonose africaine âgée de plusieurs dizaines d’années, qui a trouvé un accueil dans une niche écologique, les homosexuels du Nouveau Monde15. Sans rejeter l’existence de réservoir animal, certains spécialistes pensent que le germe existait depuis longtemps chez l’homme et que la flambée de la pandémie doit être attribuée au changement des mœurs. « La pandémie s’est propagée parce que des changements radicaux du comportement humain ont rompu l’équilibre séculaire entre les germes et leurs hôtes16. » Dans le passé, une souche virulente n’avait aucune chance de se propager puisque le nombre de personnes exposées était très restreint. Un médecin de Guinée-Bissau a traité le sida de vieille maladie avec un nom nouveau : dans ce pays, comme dans d’autres en Afrique tropicale, on est toujours mort facilement de phtisie galopante ou de dysenterie. Tout a changé dans la seconde moitié du XXe siècle avec l’organisation de la promiscuité homosexuelle, le brassage des populations, les voyages, c’est-à-dire l’élargissement du choix des partenaires. Est devenu légendaire le nom de Gaetan Dugas, commissaire de bord pour Air Canada, atteint en 1980 d’un sarcome de Kaposi contagieux, qui a semé volontairement la mort le long de ses escales à raison de 250 relations annuelles, jusqu’à sa disparition en 1984. On dénombrait, en 1982, cent mille homosexuels à San Francisco dont chacun rencontrait plus de cent partenaires par an. À l’expansion du transport aérien, nous pouvons ajouter comme responsables de la pandémie dans les pays développés quelques facteurs liés à la technologie médicale : • L’essor de la chirurgie a augmenté les échanges de sang. Les banques de sang américaines ont été contaminées dès 1977, mais rien n’a été fait avant 1985 pour assainir les pratiques. En 1990, un tiers des hémophiles européens, la moitié des français et les trois quarts des américains étaient séropositifs. • Le succès même de la médecine, qui a permis de doubler la longévité moyenne en Occident, a ouvert la voie au sida. L’omni15. M. Gottlieb, op. cit. 16. Mirko D. Grmek, Histoire du sida, Paris, Payot, 1989, 1990, p. 317.

ÉCRIT SUR LE MUR

465

présence des maladies infectieuses réduit la survie des malades et diminue les occasions de dissémination du virus. Si leur occurrence baisse, les microbes qui ont subsisté réapparaissent avec une extrême virulence dans les maladies opportunistes. En 2002, il était officiellement estimé17 que huit mille personnes mouraient du sida chaque jour ; en 2001, trois millions en sont mortes et cinq millions ont été infectées, c’est-à-dire six cents à l’heure. Quarante deux millions vivent avec le virus, soit séropositives, soit malades. Parmi eux, dix huit millions sont des femmes et trois millions des enfants de moins de 15 ans. Une certaine confiance peut être accordée aux projections : en 1990 une étude de la CIA, The Global Aids Disaster, dont la responsable avait dû lutter trois ans pour obtenir l’autorisation, prédisait quarante-cinq millions d’infectés en 2000. La prédiction fut confirmée par l’OMS en 1991 et surtout, aujourd’hui, par les faits. Le danger n’en a pas moins été méconnu par les responsables politiques occidentaux et surtout africains ; ces derniers ont longtemps nié la réalité de l’épidémie, une histoire de Blancs. Onusida estime aujourd’hui que « l’épidémie est encore à un stade précoce de son développement ». Le nombre de personnes infectées pourrait atteindre cent cinquante millions vers 2020, avec un maximum entre 2010 et 2020 ; à cette époque, le HIV aura causé plus de morts qu’aucune pandémie de l’histoire et même qu’aucune guerre ou catastrophe. « En l’absence d’actions de prévention et de traitement massivement élargis, 68 millions de personnes mourront du sida dans les quarante-cinq pays les plus touchés entre 2000 et 2020, soit une multiplication par cinq des 13 millions de décès dus à l’épidémie au cours des deux premières décennies18. »

À partir de 1997, l’introduction de thérapies efficaces utilisant simultanément plusieurs molécules, a fait baisser fortement la mortalité dans les pays occidentaux ; mais le prix de la médication est très élevé, alors que le sida s’est déplacé vers des terrains où tout le favorise. Dès 1990, les deux tiers des infections apparaissent dans le tiers-monde où vivent, en 2002, 95 % des gens infectés. La misère y est le principal facteur de la pandémie. • En Afrique, la transmission hétérosexuelle est la règle. Les États les plus frappés sont ceux qui ont connu la guerre civile et 17. Chiffres extraits du Rapport de l’Onusida (UNAIDS), organisme chargé de coordonner l’action des agences des Nations unies contre la maladie, Report on the Global HIV/AIDS Epidemic, présenté à la 14 e conférence internationale sur le sida, Barcelone, juillet 2002 (chiffres identiques pour 2002 dans le rapport Onusida publié le 25 novembre 2003). 18. Rapport de l’Onusida, op. cit.

466

INTRODUCTION AU SIÈCLE DES MENACES

EUROPE OCCIDENTALE 570 000

CANADA ÉTATS-UNIS 980 000

EUROPE ORIENTALE ET ASIE CENTRALE 1 200 000

ASIE DE L’EST 1 183 000

ASIE DU SUD ET DU SUD-EST 6 000 000

CARAÏBES 440 000 NORD DE L’AFRIQUE ET MOYEN-ORIENT 550 000 AMÉRIQUE LATINE 1 500 000

PACIFIQUE 31 000

Le volume des sphères est proportionnel au nombre de personnes touchées par le VIH

AFRIQUE SUBSAHARIENNE 29 400 000

Total : 42 millions

Source : ONUSIDA, OMS

Nombre de personnes séropositives ou malades du sida dans le monde (estimations fin 2002)

les remous sociaux. La pustulation entraîne l’essor d’une prostitution aux dimensions gigantesques, et le remplacement de la polygamie traditionnelle par le système des « partenaires libres » contribue à la multiplication des rapports occasionnels. Les prostituées d’Afrique étaient toutes contaminées dès 1985-1987. Surpopulation et surcopulation ont entraîné le désastre. • L’Afrique subsaharienne est pour le moment l’épicentre de la maladie avec 29,4 millions de séropositifs. Dans 16 pays, plus d’un adulte sur dix est infecté.

Botswana

Swaziland

Zimbabwe

Lesotho

Zambie

Rép.S.Afr.

Namibie

Malawi

Kenya

Rép.C.Afr.

Pourcentage d’adultes infectés (décembre 1999) (à comparer au taux de 0,61 % des États-Unis )

35,8

25,3

25,1

23,6

20,0

19,9

19,5

16,0

14,0

13,8

Au Nigeria, on s’attend à 1,25 million de victimes en l’an 2020, et, en 2050, la population, aujourd’hui de 115 millions,

ÉCRIT SUR LE MUR

467

comptera 73 millions d’individus de moins que les projections qui avaient été établies sans tenir compte du sida. Au Mozambique, les Nations unies estiment que 37 % des jeunes gens âgés de 16 ans mourront du sida avant l’âge de 30 ans. En 2010, les populations de sept pays subsahariens auront une espérance de vie de trente ans, chiffre qui n’a pas été observé depuis la fin du XIXe siècle, alors que sans le sida, elle atteindrait soixante-dix ans. La mort de millions de parents forcera des dizaines de millions d’enfants à lutter seuls pour la vie dans les rues et la brousse. En 2010, le sida aura rendu orphelins 8 % des enfants africains noirs, soit 22 millions ; un enfant sur sept de moins de 15 ans aura perdu au moins un parent. Ils étaient, déjà en 1999, 12 millions d’orphelins du sida, à comparer avec 1 million dans le reste du monde. Les orphelins ne recevront aucune éducation. Quand on sait qu’aujourd’hui, dans les pays pauvres, plus de 113 millions d’enfants entre 6 et 12 ans, dont les deux tiers sont des filles, ne vont pas à l’école, et aussi que dans les pays où l’infection par le sida est haute, le virus tue les enseignants plus vite qu’ils ne peuvent être formés19, on est en droit de s’inquiéter sur l’avenir de ce que l’on appelle développement dans certains pays « en développement ». Loin de se stabiliser, la pandémie s’étend hors des foyers qu’elle avait d’abord colonisés, Afrique et Asie du Sud et du SudEst, pour exploser dans de vastes territoires nouveaux. • L’effondrement de la Soviétie y a favorisé la propagation rapide du virus : la dislocation économique et sociale, le chômage, la paupérisation, la mobilité géographique accrue, la multiplication des relations extraconjugales, l’augmentation de la prostitution et de la toxicomanie se sont ajoutés à la détérioration du système de santé pour engendrer, à partir de 1997, une flambée de l’épidémie dans la fédération de Russie, l’Ukraine, les pays baltes, le Caucase et l’Asie centrale. L’Ukraine, la plus touchée, compte déjà 1 % d’adultes infectés. En 2002 la Russie enregistre 200 000 séropositifs, nombre qui a doublé en un an. Mais le dépistage est insuffisant et le Centre fédéral russe antisida estime à 1 million le nombre de personnes infectées sur une population de 144 millions d’habitants. L’épidémie se répand en Russie par le biais de la consommation de drogues par voie intraveineuse : le nombre de toxicomanes a atteint les quatre millions et ces personnes se partagent leurs seringues. De plus les Russes utilisent très peu les préservatifs. Pour Vadim Pokrovski20, directeur 19. Rapport de l’Onusida, op. cit. 20. Le Monde, 3 juillet 2002.

468

INTRODUCTION AU SIÈCLE DES MENACES

du centre mentionné, la progression de l’épidémie et l’absence de moyens mis en œuvre pour l’enrayer laisse prévoir que d’ici à 2010, jusqu’à un million de jeunes Russes appartenant aujourd’hui à la tranche d’âge de 15 à 30 ans, mourront du sida. Selon le scénario le plus optimiste, le VIH enlèvera un demi-point de croissance au PIB chaque année à l’horizon 2010 et 1 % à l’horizon 2020. Cependant, l’épidémie gagne une région après l’autre. Les lieux les plus touchés restent Moscou, Samara, Kaliningrad, et l’Angara, mais la région d’Irkoutsk bat les records : l’infection s’y répand trois fois plus vite qu’ailleurs en Russie. • L’Amérique latine et les Caraïbes comptent plus de deux millions de personnes infectées. Deux cent mille individus ont contracté le virus en 2002 et cent mille en sont morts. Douze pays dans le bassin des Caraïbes connaissent une prévalence au moins égale à 1 %. • L’Inde est au bord de la pandémie, par suite de la prostitution. La pauvreté, l’analphabétisme, et le commerce du sexe caractérisent la vie sociale de la très grande majorité de la population, qui subsiste avec 1,2 dollar par jour. Le sida a suivi les routes empruntées par les camionneurs, clients d’innombrables prostituées. En 1986, lorsqu’il est arrivé, les pouvoirs publics ont affirmé avec insouciance que la haute moralité de l’Inde la mettrait à l’abri. Le virus leur en a bien vite donné le démenti. Il s’est propagé de façon fulgurante, d’autant plus vite que beaucoup d’Indiens s’exposent aux risques sans se protéger. Quelque 7 % des adultes présentent des infections sexuellement transmissibles et près de quatre hommes sur dix reconnaissent avoir eu au moins une relation homosexuelle, selon une enquête du Naz Foundation Trust de Delhi (2002). Si la sexualité est un thème traditionnel de la culture indienne, l’éducation sexuelle n’existe pas. • La prostitution est aussi la cause de la propagation du sida au Cambodge. Phnom Penh a remplacé Bangkok comme capitale asiatique du sexe, en particulier pour ce qui est de la prostitution enfantine, depuis le durcissement de la législation en Thaïlande. En 2002, on estime à 220 000 le nombre de séropositifs ou de sidéens dans ce pays de 11,5 millions d’habitants à 0,77 dollar par jour et on enregistre 13 000 nouveaux cas par an, alors que le Cambodge ne dispose que de 8 500 lits pour les maladies graves. • Le cas de la Chine est exemplaire. L’épidémie y a commencé au début des années 1990 dans le milieu des héroïnomanes, puis elle a reçu un extraordinaire encouragement officiel. Dans la province rurale du Henan, un grand nombre de paysans pauvres ont vendu leur sang dans des centres de collecte organisés par le

ÉCRIT SUR LE MUR

469

ministère de la Santé du gouvernement central. Les centres mélangeaient le sang de plusieurs donneurs et, après avoir séparé le plasma par centrifugation, le revendaient à des entreprises pharmaceutiques pour la fabrication de médicaments. Les globules rouges étaient à leur tour mêlés, puis réinjectés aux donneurs pour leur permettre de subir des ponctions fréquentes. Beaucoup de paysans encouragés par la petite somme de 5,3 dollars, ont donné leur sang quotidiennement pendant deux ans ; en l’absence de toute précaution assurant la stérilité des opérations, d’importantes doses de VIH leur ont été inoculées. La vente du sang a été pratiquée dans des dizaines de districts de la province avant d’être interdite au milieu des années 1990. Elle avait alors contaminé au moins un million de personnes. D’autres régions chinoises ont mis en place cette pratique à une échelle moindre. Aujourd’hui, les victimes, au nombre desquelles figurent beaucoup de couples mariés, développent la maladie et meurent presque à l’unisson. Leurs enfants ne peuvent être pris en charge par les grands-parents ou les tantes et les oncles, eux-mêmes contaminés. En outre, le planning familial chinois ayant limité le nombre d’enfants par ménage, il est rare qu’un frère ou une sœur puisse se substituer aux parents. À l’heure actuelle, la prostitution a pris le relais pour propager l’épidémie. Cependant, la Chine ne s’est pas décidée à produire des médicaments génériques à bas prix. Les auteurs du Rapport de l’Onusida déjà cité (juillet 2002) résument ainsi la situation : « La Chine est au bord d’une catastrophe qui pourrait provoquer d’inimaginables souffrances humaines, des pertes économiques et un désastre social. Nous assistons à un développement du sida dans des proportions incroyables, une épidémie qui exige une réponse urgente et adéquate, qui, pour l’instant, n’arrive pas. Malheureusement, la prise de conscience du virus HIV ne s’est accrue que modestement ces dernières années. Des millions de Chinois n’ont jamais entendu le mot sida. Beaucoup pensent encore qu’on peut attraper le virus HIV par les moustiques ou en serrant les mains. Et pourtant, il existe des villages où la majeure partie de la population est contaminée. La plupart de ces personnes porteuses du virus HIV n’ont même pas accès au plus petit service de soins, ni de soutien et d’aide psychologique. Certaines personnes motivées qui osent parler du désastre qui s’annonce sont ignorées ou contredites, et parfois même combattues par les autorités locales. La grande majorité de ceux qui ne sont pas contaminés ignore les données et le savoir-faire minimum pour se protéger de toute infection et pour traiter avec les gens qui sont déjà contaminés. Les préservatifs ne sont pas encore popularisés à l’échelle nationale. »

Et le rapport conclut :

470

INTRODUCTION AU SIÈCLE DES MENACES

RUSSIE

Épidémie LIMITÉE

100 millions

Épidémie MOYENNE

58 millions

13 millions 9 millions

56 millions

40 millions

4 millions 3 millions

30 millions 21 millions

32 millions 19 millions

70 millions

110 millions

Nombre de décès dus au sida (cumul, 2000 à 2025)

140 millions

Nombre de nouveaux cas d’infection par le VIH (cumul, 2000 à 2025)

19 millions 12 millions

INDE

85 millions

CHINE

Épidémie FORTE

Trois scénarios pour la Chine, l’Inde, la Russie

« D’ici deux ans, la Chine pourrait compter plus de contaminations par le virus HIV que n’importe quel autre pays au monde. »

• En Indonésie21, les bouleversements économiques et sociaux de la fin du siècle ont favorisé la toxicomanie. Entre 120 000 et 190 000 Indonésiens s’injecteraient de l’héroïne. Une campagne de prévention visant à convaincre les travailleurs de l’industrie du sexe et leurs clients d’utiliser des préservatifs avait été cautionnée en octobre 2002 par le ministère de la Santé. Dès son début, le Conseil indonésien des moujahidines22 a demandé et obtenu son annulation. Fauzan al-Anshari, un responsable du Conseil, a qualifié le spot de satanique et dangereux parce que promouvant et justifiant les rapports sexuels avec les prostituées. « Cela va à l’encontre de tout ce qu’Allah nous enseigne, a-t-il déclaré. On ne peut pas laisser passer ça. Toutes les personnes impliquées doivent être poursuivies. » Le Conseil des moujahidines a dénoncé 21. Rapport de l’Onusida, op. cit. 22. Voir p. 406.

ÉCRIT SUR LE MUR

471

deux chaînes de télévision à la police, les accusant « d’actions sataniques nuisant à l’ordre public ». La pusillanimité des médias indonésiens pourrait se solder par le développement d’une épidémie du sida de grande ampleur. D’après le programme national Stop Aids Action, qui promeut la prévention contre le sida, entre 260 000 et 370 000 femmes travaillent dans l’industrie du sexe en Indonésie et 80 % n’utilisent pas de préservatifs. De plus, 65 % des clients masculins sont mariés et ont des relations sexuelles non protégées avec leur épouse. On estime qu’entre deux et six millions d’épouses indonésiennes risquent d’être contaminées. Si 95 % des malades appartiennent aux pays en voie de développement, ceux-ci ne reçoivent que 10 % des fonds appropriés pour le combat contre cette maladie des pays pauvres, et moins de 4 % des médicaments antiviraux. Un cocktail anti-HIV a longtemps coûté 10 000 à 15 000 dollars par an ; même si de grands laboratoires l’offrent aujourd’hui (en 2002) à 727 dollars, et que des laboratoires indiens proposent des médicaments génériques à 350 dollars, il faut savoir que la République sud-africaine dispose de 40 dollars par an et par personne pour les dépenses de santé, à comparer aux 1 200 milliards de dollars annuels consacrés à la santé par les États-Unis. On se souvient de la honteuse pression exercée par Al Gore, vice-président de Bill Clinton, sur la République sud-africaine pour l’empêcher de taxer les médicaments fabriqués par les trusts pharmaceutiques internationaux afin de favoriser le développement local de génériques moins coûteux. Le sras (syndrome respiratoire aigu sévère)

En novembre 2002, plusieurs cas de pneumonie inexpliquée sont signalés dans la province de Guangdong en Chine du Sud. Appelée aujourd’hui sras, la maladie se transmet grâce aux postillons émis par les personnes contaminées ; elle est aussi véhiculée par des cafards. Entre le 1er novembre 2002 et le 1er juin 2003, 8 460 cas ont été enregistrés dans le monde, avec 799 décès. Le taux de mortalité estimé au début à 4 % est en réalité voisin de 15 % sauf en Chine où il serait de 5 %23 (les chiffres fournis par les autorités de ce pays sont incertains). Très vite l’agent pathogène est identifié : un coronavirus encore inconnu, constitué d’ARN comme le HIV, sans association avec un autre facteur. On le croit sorti d’un réservoir animal, comme le virus de la grippe espagnole, d’origine aviaire, qui, après un début modeste dans l’été de 1918, trouva pendant 23. Conférence de l’OMS, Kuala Lumpur, 17 juin 2003.

472

INTRODUCTION AU SIÈCLE DES MENACES

l’automne et l’hiver suivant un partenaire dans le pneumocoque dont il exalta la virulence, donnant ainsi un des premiers exemples compris de « maladie opportuniste » jusqu’à causer six millions de décès dans le monde (dont deux cent dix mille en France ; les chiffres cités beaucoup plus élevés sont peu fondés24). Les biologistes savent que le virus de la grippe commence son périple chez les oiseaux aquatiques sauvages comme les canards et les échassiers. Il passe ensuite chez un hôte intermédiaire, le plus souvent un animal domestique comme un volatile, un cheval ou un porc, qu’il peut éventuellement tuer. Cependant, les porcs survivent assez longtemps pour servir de creuset où se mélangent les gènes de plusieurs types de virus, aviaires, porcins et humains, et où s’élaborent ainsi de nouvelles souches. Les oiseaux abritent un véritable pool zoonotique de virus grippaux. Leur comportement migratoire, adaptatif depuis l’origine, est déterminé par des facteurs climatiques et environnementaux. Le réchauffement climatique en cours pourra modifier les trajets empruntés et introduire de nouveaux modes de dissémination. Un exemple récent de ces symbioses est donné par le virus West Nile25. Véhiculé par le moustique Culex, il crée chez l’homme une fièvre intense qui, dans 10 % des cas, entraîne des complications infectieuses pouvant se terminer par la mort. Après son apparition en Ouganda en 1937, il a progressé dans une aire de dispersion autour de nombreux foyers reliés par les mouvements des oiseaux migrateurs contaminés au Proche-Orient et en Europe de l’Est. Identifié à New York en octobre 1999, où furent recensés 37 cas d’encéphalites, dont quatre mortelles, il a été isolé dans plus de 25 espèces d’oiseaux. En trois ans, il a gagné tout le territoire des États-Unis jusqu’en Californie, par l’intermédiaire d’un nouvel hybride de moustique, bien adapté aux milieux urbains humides tels que les caves et les métros. La promiscuité des élevages de poules, de canards et de porcs, favorable à la circulation permanente des virus, fait de la Chine l’épicentre de la grippe. En 1997, la grippe dite de Hong Kong avait pour origine un virus aviaire issu de la recombinaison de gènes de virus hébergés par des oies, des canards et des sarcelles. Les réarrangements génétiques trouvèrent un milieu favorable dans le marché aux volailles. Après avoir tué des milliers de poulets, cette souche contamina dix-huit personnes. La liquidation immédiate d’un million de volatiles limita les victimes 24. Pierre Darmon, Vivre à Paris pendant la Grande Guerre, Paris, Fayard, 2002. 25. Voir p. 441.

ÉCRIT SUR LE MUR

473

humaines à six et arrêta net l’épidémie, qui constituait le premier cas avéré d’un transfert direct de l’oiseau à l’homme. Le sras, qui trouverait son origine dans le delta de la rivière des Perles, aurait paru le 15 novembre 2002 dans les villes de Foshan, puis de Shunda à l’ouest de Canton (Guangdzhou). Un virus similaire aurait été découvert chez des petits animaux comme la civette, que de nombreux gourmets se procurent sur les marchés de la région. Le 15 janvier suivant, des spécialistes du Centre de contrôle des maladies de la province de Guangdong se rencontrèrent à Zhongshan (au sud-ouest de Canton) et conclurent à la contagiosité d’une maladie atypique. Le département de la Santé publique du Guangdong attendit jusqu’au 11 février pour dévoiler cette information. Sur les 305 cas recensés dans la province entre le 16 novembre et le 9 février, 105 étaient des travailleurs médicaux contaminés dans l’exercice de leur fonction. En février, un médecin de Canton se rendant à un mariage à Hong Kong y porta le virus. Alors que les premiers cas apparaissaient tout de suite après son arrivée, les autorités de Beijing affirmaient que d’une part l’agent pathogène était une Chlamydia et que d’autre part l’antibiotique doxycycline le détruisait efficacement. Deux erreurs. Comme elles se croyaient capables de circonscrire l’épidémie, elles refusèrent non seulement de recevoir deux médecins envoyés par l’OMS, mais aussi de fournir aucune information à cette organisation. Jusqu’au 4 avril, elles laissèrent dans l’ignorance treize cent millions de Chinois, qui évidemment se nourrirent de rumeurs sur Internet. Les médias ne consacrèrent aucun reportage à l’épidémie. En Chine, les nouvelles dites « négatives » sont considérées comme dangereuses pour la société ; la même attitude avait été adoptée lors de la crise du sida au Henan. L’ordre fut donc donné de ne pas faire état des cas de pneumonie atypique, sous peine de sanctions pour infraction à la « discipline journalistique ». Il fallait avant tout éviter de contrarier le déroulement de la session à Beijing de l’Assemblée nationale populaire et de la Conférence consultative politique du peuple chinois. En conséquence de cette attitude, le virus traversa les frontières et muta en un problème international. De Hong Kong en quelques jours l’infection atteignit le Vietnam, Singapour, Taiwan, l’Allemagne, le Royaume-Uni, la Suisse et le Canada. Et un vol Air China du 15 mars amena le virus de Hong Kong à Beijing qui se transforma en ville fantôme aux rues désertes. À Shanghai, les officiels nièrent l’apparition de la maladie devant des journalistes étrangers à qui les infirmières avaient révélé sa présence à l’hôpital. Autre manifestation de la crispation chinoise : au mois de mai, alors que 483 personnes étaient déjà infectées à Taiwan,

474

INTRODUCTION AU SIÈCLE DES MENACES

dont 60 décès (à la date du 22), Beijing ne donna son feu vert à l’envoi d’une équipe de deux médecins à Taipei qu’à condition qu’ils ne rencontreraient pas d’officiels taiwanais. On peut affirmer que le refus chinois d’information est responsable de la propagation de la pandémie. L’administration chinoise de la Santé s’est manifestée dans cette crise par un dispositif d’alerte défaillant, une bureaucratie opaque, des hôpitaux saturés, des centres de quarantaine improvisés dans le désordre, un personnel médical placé sous une telle tension qu’il a fallu en toute hâte augmenter ses salaires. La cause de ces difficultés est à chercher dans le désengagement de l’État, qui assurait 36 % des dépenses de santé en 1980 et a baissé son soutien à 15 % en 1999. Si les classes moyennes se tournent vers le secteur naissant de la médecine privée, le peuple n’a rien : l’assurance maladie ne couvre que 76 % des emplois urbains, c’est-à-dire 5,8 % de la population. Deux paysans sur trois méritant d’être hospitalisés ne le sont pas, faute de ressources. Une fois surmonté le retard coupable de la Chine, la mobilisation de la communauté internationale, rendue possible par la centralisation mondiale de l’information, a contrasté avec la réaction au VIH ; sa vigueur a permis d’enrayer l’avancée du virus dès juin 2003. Un rapport américain26 affirme que les dommages causés par les maladies émergentes constituent au XXIe siècle une force dominante dans la restructuration de l’économie globale, comme le fut le prix du pétrole dans les années 1970 et 1980. Après avoir cité les 10 à 13 milliards de dollars qu’a coûtés la vache folle au Royaume-Uni, il estime à 100 milliards de dollars les pertes économiques dues au sras. L’impact de la maladie s’est fait sentir d’abord à Hong Kong, où l’activité commerciale et financière a souffert. Une rumeur propagée sur Internet annonçant que toute la ville serait classée zone infectée et mise en quarantaine, a entraîné une panique, la chute de la Bourse et celle du dollar de Hong Kong. L’effet principal de la pandémie sur l’économie est une contraction de la demande dans le domaine des services. Pendant le printemps 2003, le taux d’occupation des hôtels à Beijing, Canton, Shanghai tombe à 20 %, les restaurants ferment, l’industrie du tourisme et le transport aérien s’effondrent. Les barrages filtrants, les obstacles à l’entrée des agglomérations bloquent la circulation et freinent brutalement le trafic routier dans toute la Chine. Dans les campagnes, la Chine compte quatre-vingts millions de travailleurs migrants qui vont de ville en ville. La maladie 26. Bio Economic Research Association, Cambridge, Mass., mai 2003.

ÉCRIT SUR LE MUR

475

a enrayé ce flux. Dans le Hunan, 0,7 million d’entre eux (sur 11) sont rentrés chez eux. Le virus du sras ne mute pas et paraît assez stable pour n’être pas susceptible de donner naissance à de nouvelles souches pathogènes, au contraire du virus du sida. À la fin de 2003, on estime que le sras ne constitue pas un problème épidémiologique important. Le virus n’est ni très contagieux ni très virulent. Et, surtout, il n’a pas trouvé de partenaire comme le pneumocoque associé au germe de la grippe espagnole. Deux cent soixante-dix morts à Hong Kong (au 1er juin 2003), dans une ville qui compte sept millions d’habitants, quelques centaines de décès dans une Chine de treize cents millions d’âmes, ces nombres ne se comparent pas à ceux des gens décédés de pneumonie, de tuberculose ou de grippe ordinaires pendant la même période. Pour les optimistes, la panique a été créée par les irresponsables des CDC et de l’OMS, relayés par les médias amateurs de catastrophes. Le sras serait le premier exemple d’une épidémie virtuelle, engendrée et nourrie par l’anxiété que l’Occident éprouve devant les réservoirs à virus de l’Asie surpeuplée. Deux mille personnes meurent chaque année en France de la grippe ordinaire. Sans préjuger de l’évolution future de la maladie, répétons que l’émergence d’un germe hautement pathogène est facile et qu’elle se produit de plus en plus souvent grâce à la mondialisation. La grippe asiatique a fait sept cent mille victimes dans le monde en 1958 et tué dix-huit mille infectés en France. Rien ne permet de soupçonner où ni quand surviendra la cassure, le glissement ou la mutation qui engendreront la prochaine pandémie, mais ce qui est sûr, c’est que nous nous en rapprochons. À la réapparition épisodique du sras en janvier 2004, le gouvernement chinois fait occire des dizaines de milliers de civettes, dont la responsabilité dans l’épidémie est douteuse. Voir le prologue du présent livre. CONCLUSION

Quelles que soient les souffrances éprouvées par des dizaines et peut-être, à court ou moyen terme, des centaines de millions d’humains, quels que soient les ravages exercés par les pandémies sur le secteur économique, jusqu’à présent bactéries, virus et protozoaires ne parviennent pas à mettre Homo sapiens en danger. Seul le sida, si une prophylaxie efficace n’est pas découverte, se révèle un adversaire de taille. On aura noté que l’émergence et le développement des maladies au XXIe siècle trouvent leurs causes dans les facteurs sociaux, liés à l’évolution rapide de nos sociétés,

476

INTRODUCTION AU SIÈCLE DES MENACES

à la pustulation, à la réticulation et à la globalisation. Et comme ces facteurs se renforcent, nous devons nous attendre à l’apparition de nouvelles pandémies que l’on pourra qualifier, comme on l’a fait pour le sida, d’inconcevables. Dans la profondeur des forêts, dans le delta d’autres rivières de la Perle, dans les écosystèmes encore inviolés, dans les humeurs des êtres vivants mijotent des recombinaisons géniques dignes d’un artiste qui saura créer du possible. Le danger ne viendra peut-être pas de si loin. La ferme industrielle postmoderne des pays occidentaux semble imaginée pour favoriser la naissance des épidémies. Nous entassons des milliers d’animaux génétiquement identiques dans de vastes étables qui offrent un festin aux microbes ; nous mélangeons à leur nourriture les déchets provenant de leurs excréments et de leurs cadavres récupérés dans les abattoirs ; nous manipulons la viande en présence de sang, de déjections et d’autres agents de contagion ; nous exposons les produits alimentaires aux contaminations en les transportant au loin. Inventé pour faire passer le gain économique avant la santé des cheptels, ce système de production connaît des ratés lorsqu’une épizootie les ravage. La vache folle a forcé les Anglais d’abattre quatre millions de bêtes. Les pestes aviaires et porcines amènent fréquemment les éleveurs à sacrifier les animaux par millions. Si l’on se souvient de l’extrême prudence préconisée par les médecins dans l’emploi des antibiotiques pour essayer d’enrayer les résistances, on s’étonnera de la pratique des agriculteurs américains, qui utilisent intensivement ces produits comme supplément normal de la nourriture de leurs animaux. Ils justifient cette addition par la nécessité d’obtenir une croissance plus rapide avec moins d’aliments, et surtout de prévenir les infections dues au confinement du bétail emprisonné dans un espace beaucoup trop étroit pour son bien-être. Un rapport, publié en 200127, a révélé qu’aux États-Unis, les animaux domestiques reçoivent dix fois plus d’antibiotiques que les humains, c’est-à-dire onze mille tonnes par an, en augmentation de 50 % par rapport à 1985. Aucune politique médicale n’encadre ces pratiques. Des germes comme la salmonelle, le staphylocoque, le méningocoque, le campylobacter travaillent dans les étables à la résistance. Aux Pays-Bas et en Bretagne, les vétérinaires et les médecins s’inquiètent de la proximité des élevages de porcins et de poulets où s’élaborent les souches de prochaines grippes mortelles. 27. Union of Concerned Scientists, Cambridge, Mass.

ÉCRIT SUR LE MUR

477

Devant ces batteries où la cruauté de l’homme se déchaîne, et où mûrissent les pandémies du futur, la noble protestation de Bentham28 vient à l’esprit : « Le jour pourrait venir où l’ensemble des animaux acquerrait ces droits que la main de la seule tyrannie a pu leur ôter… Un cheval adulte, ou un chien, est sans comparaison un être plus raisonnable, il se fait mieux comprendre qu’un enfant d’un jour, d’une semaine ou même d’un mois. Mais supposons le contraire, qu’en concluronsnous ? La question n’est pas : peuvent-ils raisonner, ou peuvent-ils parler, mais plutôt : peuvent-ils souffrir ? Pourquoi la loi refuseraitelle sa protection à un être sensible ? Le temps viendra où l’humanité étendra son manteau sur tout ce qui respire… »

Pauvre Jeremy, tu rêves. L’humanité étend son manteau sur tout ce qui respire, mais c’est pour l’étouffer. Les fermes industrielles représentent le mode de production animale qui croît le plus vite. Elles fournissent à la population mondiale la moitié de la viande qu’elle consomme, alors qu’en 1990 la proportion ne dépassait pas un tiers. Si elles restent encore concentrées aux États-Unis et en Europe, elles s’étendent rapidement autour des centres urbains au Brésil, en Inde, en Chine, aux Philippines, partout où la demande de viande bon marché augmente. Jusqu’à présent, elles nous ont seulement donné l’anodine maladie de Creutzfeld-Jakob, qui s’est contentée d’envoyer une centaine d’Anglais au cimetière, mais patience. On imagine que la conjonction de deux menaces, celle qui vient de la guerre et celle qui vient de la biosphère, multipliera leur potentiel de mort. Souvenons-nous qu’en 1348, le pacha turc assiégeant le port génois de Caffa, aujourd’hui Feodossia en Crimée, aurait fait catapulter dans la ville des cadavres de pesteux. Les germes venus du fond des steppes asiatiques, où des rongeurs les hébergeaient, se retrouvèrent à bord d’un bateau qui appareillait pour Messine. Et partie de Messine, la peste noire tua un tiers de la population européenne en moins d’un an. Deux lignes de recherche ont accru le risque de voir surgir une version moderne de la peste noire. D’une part, la fabrication de virus par copie de leur génome publié dans la littérature, sans appel à aucun élément vivant : l’exploit a été réalisé en 2002 sur le virus de la poliomyélite, au patrimoine modeste il est vrai. L’opération ne nécessite ni moyens lourds ni connaissances exceptionnelles. La voie est ouverte à la création artificielle de virus plus complexes, comme celui de la variole considérée aujourd’hui comme éradiqué et qui reparaîtrait. D’autre part, 28. Jeremy Bentham, An Introduction to the Principles of Morals and Legislation, chapitre VII (note), 1789.

478

INTRODUCTION AU SIÈCLE DES MENACES

l’élevage moléculaire, ou DNA shuffling, consiste à couper les virus en un très grand nombre de brins et de les laisser se recombiner. Il peut en naître des « chimères » capables d’infecter une cellule que le virus de départ laissait indemne. Le sida et le sras seraient répandus alors sous des formes si virulentes qu’on ne saurait que faire pour les combattre. La variole ne tuerait pas 40 % des malades, mais 100 %. Il suffit d’une autre secte Aoum.

ÉCRIT SUR LE MUR

479

SECONDE PARTIE LE SIÈCLE DES DÉSASTRES Les milieux physiques, chimiques, biologiques et sociaux dans lesquels l’homme évolue, constituent son environnement, ainsi défini. L’environnement est un système dynamique gouverné en partie par des phénomènes naturels qui sont responsables de l’état de l’air, des sols, de la mer, de la faune et de la flore, et pour une autre partie soumis à l’influence des hommes : on parle dans ce dernier cas d’effets anthropiques. Il est devenu souvent difficile de discerner le rôle respectif des facteurs naturels et anthropiques. Rien n’a changé des rapports de l’homme avec son environnement jusqu’à l’invention de la machine à vapeur, qui a permis de remplacer la force musculaire par le recours à un combustible fossile, le charbon. On a dit que les armées de Ramsès et celles de Napoléon fonctionnaient avec les mêmes moyens, portaient les mêmes habits, mangeaient le même pain. L’adoption généralisée de la vapeur au début du XIXe siècle a engendré le décollage de la civilisation industrielle, puis le recours à un autre combustible fossile, le pétrole, a permis au XXe siècle le triomphe de l’homme sur la biosphère, remporté en un temps extraordinairement court par rapport aux échelles géologiques pendant lesquelles s’est façonnée la planète. Un nouveau facteur a paru dans les cinquante dernières années. Grâce au succès qu’elles ont alors connu, les sciences sont devenues non seulement le produit, mais aussi les productrices de la réalité actuelle29. Elles ne se contentent plus d’offrir la source des solutions aux problèmes économiques et sociétaux, mais constituent la source des problèmes eux-mêmes ; elles participent à l’apparition et à l’aggravation des situations de danger civilisationnel. Leur puissance crée et multiplie des risques. Contrairement aux cultures et aux phases d’évolution antérieures, qui devaient faire face à des menaces extérieures, la société est aujourd’hui confrontée à elle-même dans son rapport au risque. Le défi qui lui est posé est de s’organiser pour anticiper et maîtriser ce risque, qui se présente sous un nouveau jour. Les périls ne viennent plus de l’ignorance mais du savoir, conjugué à une insuffisante maîtrise de la complexité de la biosphère. Les avertissements n’ont pas manqué. 29. Ulrich Beck, Riskogesellschaft, Frankfurt am Main, Suhrkamp, 1986 ; trad. française, La Société du risque, Paris, Alto Aubier, 2001, p. 343-355

480

INTRODUCTION AU SIÈCLE DES MENACES

« Le monde s’est donné pour objectif d’accroître la population et le niveau de vie matériel de chaque individu… Si les sociétés continuent à poursuivre cet objectif, elles ne manqueront pas d’atteindre l’une ou l’autre des nombreuses limites critiques inhérentes à notre écosystème. »

Ainsi s’exprimait en 1971 le célèbre rapport du Club de Rome, Halte à la croissance, rédigé par une équipe du MIT dirigée par Dennis Meadows. Peu d’ouvrages de prospective auront reçu, dès leur parution, la confirmation apparente de leur thèse par autant d’événements : en 1972, les premiers achats russes de céréales et la flambée des cours à Chicago ; en 1973, la guerre du Kippour suivie de la prise de contrôle du marché pétrolier par l’OPEP, l’embargo américain sur les exportations de soja, le début du cartel des phosphates ; en 1974, la crise du sucre. En réalité ces péripéties n’étaient pas liées à l’accession aux saturations annoncées par le Club, mais à l’installation, après l’éclatement du système de Bretton Woods, d’une instabilité généralisée des marchés monétaires et financiers. Bien loin de se raréfier, les matières premières ont vu croître leur production et leur consommation. À partir des années 1980, de nouvelles techniques financières introduites sur le marché des matières premières en ont enlevé la maîtrise aux producteurs, parce que les acteurs commerciaux des filières gèrent leur prix en temps quasi réel, alors que les cycles d’investissement des producteurs s’étalent dans la durée. Nous avons déjà dit que les rapides règnent sur les lents. Les premières années du XXIe siècle sont caractérisées par la situation de faiblesse des pays producteurs, tant vis-à-vis des soubresauts des marchés que des grands acteurs internationaux que sont les compagnies issues des pays industrialisés. Devant la demande exacerbée par la soif universelle de jouissance, l’exploitation des ressources planétaires bat son plein, au détriment de l’environnement. L’erreur du Club de Rome a été de sonner la trompette malthusienne trop tôt. Il devient impossible d’appréhender la nature indépendamment de la société, et la société indépendamment de la nature. La nature est devenue un équipement interne du monde civilisé, un produit fabriqué, un artefact dépourvu de toute « naturalité », intégré au processus de civilisation et donc saturé de fonctions et de significations propres à l’homme30.

30. Ulrich Beck, op. cit., p. 146.

481

ÉCRIT SUR LE MUR

Hommes et sociétés cadre de vie

innovations impacts

Systèmes naturels et ressources

Pratiques et technologies

matières premières

Représentation schématique de la notion d’environnement : l’interaction sociétés/milieux naturels/technologies et pratiques

La figure ci-dessus a été imaginée pour montrer l’essentiel31, c’est-à-dire les couplages entre les systèmes naturels et les sociétés humaines qui agissent pour tirer profit des matières premières vivantes et minérales. Selon les pratiques mises en œuvre, les impacts sur les milieux et les ressources seront plus ou moins importants ou durables. Les innovations techniques peuvent être associées à l’exploitation de nouvelles ressources et susciter de nouveaux impacts. Si ces initiatives dépendent essentiellement de motivations économiques, l’homme, attentif à son cadre de vie, peut être conduit à d’autres choix que celui de l’économie, pour des raisons éthiques et psychologiques. L’ensemble de ces interactions présente une telle complexité qu’il serait impossible de dire quoi que ce fût sur l’évolution, si de grandes tendances simplificatrices ne se dégageaient, que nous avons déjà présentées32. • L’augmentation de la population vers une dizaine de milliards d’êtres humains environ à la fin du XXIe siècle, est l’un des principaux facteurs responsables des modifications de l’environnement. Cette pression démographique suscite en effet des besoins plus grands en nourriture et en ressources, ainsi qu’un accroissement des surfaces utilisées. Parmi les conséquences directes, on note l’appauvrissement de la diversité biologique, la raréfaction de certaines ressources vivantes ou minérales, la déforestation pour l’expansion des terres agricoles, le tout accompagné d’un accroissement des rejets de toute nature. 31. Académie des sciences, Livret sur l’environnement, 20 février 2002 . 32. Voir chapitre II .

482

INTRODUCTION AU SIÈCLE DES MENACES

• Les comportements sociaux, les habitudes de consommation, les circuits de commercialisation, les régimes fonciers constituent des facteurs cruciaux dans les rapports entre les hommes et la nature. Selon les circonstances, l’augmentation de la population peut conduire à une exploitation sauvage des milieux naturels ou, au contraire, à une forme de jardinage de la nature comme on l’observe dans certains pays asiatiques. Les deux pratiques sont finalement aussi traumatisantes l’une que l’autre pour l’environnement. • Les transformations du mode de vie au cours du siècle dernier se traduisent par une utilisation nouvelle de l’espace. On estime que vers 2050, 80 % de l’humanité sera concentrée dans les grandes villes. Des questions se posent alors sur la manière de gérer ces concentrations, et en particulier les flux de matières premières et de déchets. • L’homme extrait de son milieu les ressources nécessaires à sa vie, l’air, l’eau et la nourriture, par son travail, c’est-à-dire par l’énergie dont il peut disposer ; on voit immédiatement que l’énergie se trouve au cœur des rapports que l’homme entretient avec son environnement. • L’habitant des pays pauvres ressent violemment sa misère, car il lui parvient de l’extérieur des images qui lui décrivent des sorts meilleurs que le sien. L’accès généralisé à l’image est très certainement un déterminant du premier ordre sur la demande en énergie et donc sur l’ensemble de la biosphère33.

L’énergie Vers 1950, la consommation mondiale en énergie augmentait au taux d’un doublement en dix ans ; puis elle a doublé en trente ans entre 1970 et 2000, et devrait encore doubler, mais en cinquante ans, d’ici l’an 2050. Le taux de croissance se ralentit donc, tout en restant très élevé. En effet la demande augmente de 5 à 10 % par an dans les pays en développement, contre 1 à 2 % dans les pays industrialisés. La puissance mondiale utilisée aujourd’hui (2003) est de 12 terawatts34, c’est-à-dire l’équivalent de la production de douze 33. Jean-Marc Jancovici, « Énergie et choix de société », in Actes des Journées de l’énergie, Paris, palais de la Découverte, 2001. 34. 1 terawatt = 1 milliard de kilowatts. 1 Gtep = 10 3 Mtep = 1 milliard de tonnes équivalent pétrole (tep). Le tep est la quantité d’énergie obtenue en brûlant une tonne de pétrole. Un baril de pétrole vaut 1/7 m 3, à peu près 130 kg (densité 0,9).

483

ÉCRIT SUR LE MUR

mille réacteurs nucléaires. La doubler correspondrait à une demande de 18 Gtep. Les tableaux 1 et 2, publiés en 2001 par l’Agence internationale de l’énergie35, présentent d’une part un instantané du présent, et d’autre part une projection à trente ans fondée sur l’analyse de toutes les tendances actuelles, techniques, économiques et politiques. La lourdeur des investissements dans le domaine énergétique rend les projections de l’AIE vraisemblables. Il ne s’agit pas de prospective, mais de projection crédible. Tableau 1 : Évolution de la production mondiale d’énergie (1971-2030) Pourcentage

Demande d’énergie (Mtep) 1971

2000

2030

Taux de croissance (% par an)

1971

2000

2030

19712000

20002030

Production totale primaire d’énergie

4 999 9 179 15 267

100

100

100

2,1

1,7

Charbon

1 449 2 355

3 606

29

26

24

1,7

1,4

Pétrole

2 450 3 604

5 769

49

39

38

1,3

1,6

895 2 085

4 203

18

23

28

3,0

2,4

Gaz Nucléaire Hydro Renouvelables

29

674

703

1

7

5

11,5

0,1

104

228

366

2

2

2

2,7

1,6

73

233

618

1

3

4

4,1

3,3

Conclusions à tirer du tableau 1 : • La demande mondiale d’énergie qui a augmenté de 2,1 % par an dans les trente dernières années, maintiendra sa croissance à un niveau à peine plus faible et sera vers 2030 supérieure de 60 % au chiffre actuel. • Les combustibles fossiles resteront la source principale d’énergie, au niveau de 90 % du total. À moins d’un renversement de tendance que personne ne prévoit, le nucléaire deviendra quasi marginal. 35. World Energy Outlook – 2001 Insights, Paris, International Energy Agency, 2001. Les données présentées dans les pages suivantes proviennent de ce rapport.

484

INTRODUCTION AU SIÈCLE DES MENACES

• L’emploi d’énergies renouvelables, comme les sources solaires et éoliennes et celui de l’hydrogène, restera également marginal. Tableau 2 : Évolution de la production mondiale d’électricité (1971-2030) Demande d’électricité 1971

2000

Pourcentage

2030

Production totale d’électri- 5 248 15 391 31 524 cité (Twh)

Taux de croissance (% par an)

1971

2000

2030

19712000

20002030

100

100

100

3,8

2,4

Charbon

2 101

5 989 11 590

40

39

34

3,7

2,2

Pétrole

1 095

1 241

1 326

21

8

4

0,4

0,2

696

2 676

9 923

13

17

31

4,8

4,5

0

0

349

0

0

1

111

2 586

2 697

2

17

9

11,5

0,1

1 208

2 650

4 259

23

17

14

2,7

1,6

36

249

1 381

1

2

4

6,9

5,9

Gaz Pile à combustible Nucléaire Hydro Autres renouvelables

Conclusions à tirer du tableau 2 : • La demande en électricité croît plus vite que celle de toute autre forme d’énergie. • Les combustibles fossiles restent là aussi la source principale, au niveau de 72 % avec un remplacement du pétrole par le gaz naturel. Le nucléaire et l’hydroélectrique conservent un rôle d’appoint. • En dépit de leur taux de croissance élevé, les sources renouvelables restent dans le bruit de fond à l’horizon 2030. De cette évolution nous déduirons deux catégories de conséquences.

485

ÉCRIT SUR LE MUR

6 000 Pétrole

5 000 4 000 Mtep

Gaz 3 000

Charbon

2 000 1 000

Nucléaire Hydro-électrique et autres renouvelables

0 1971 1975 1980 1985 1990 1995 2000 2005 2010 2015 2020 Source : IEA (2000)

Demande mondiale d’énergie en fonction de la nature des sources LA CONSOMMATION DES COMBUSTIBLES FOSSILES DEMEURERA TRÈS ÉLEVÉE

Les tableaux précédents nous révèlent un invariant : la consommation des combustibles fossiles augmentera linéairement d’environ 2 % par an pendant les deux premiers tiers du XXIe siècle. Avec les connaissances d’aujourd’hui, il n’existe pas de substitution possible au pétrole, au gaz naturel et au charbon, pour la plus grande partie de l’humanité, et, à des temps prévisibles, à l’échelle des progrès scientifiques et techniques. Personne ne voit le moyen de diminuer qualitativement les ordres de grandeur de consommation d’énergie fossile. Tout ce que l’on tente, vainement d’ailleurs, est de diminuer la vitesse de leur progression36. La civilisation industrielle et agricole repose aujourd’hui sur le faible prix de l’énergie et la sécurité de son approvisionnement, la facilité de sa distribution, de son stockage, de son transport, de son usage et de la maîtrise des déchets. Aujourd’hui, le coût de ces activités est si bas que tous les acteurs de la chaîne de production font des bénéfices énormes. L’énergie, en dépit de son importance, en dépit de ces bénéfices ne représente que 2 % du produit mondial brut. Son prix pourrait augmenter, et même doubler, 36. Robert Dautray, Aspects des enjeux énergétiques, Rapport à l’Académie des sciences, 29 janvier 2003.

486

INTRODUCTION AU SIÈCLE DES MENACES

sans entraîner d’autres conséquences que de fortes perturbations locales. Le pétrole

La production mondiale de pétrole a atteint 28 milliards de barils en l’an 2000. D’après le tableau 1, son utilisation augmentera de 1,6 % par an à moyen terme, de sorte que, vers 2030, la production annuelle pourrait s’élever à 40 milliards de barils, et qu’il aura été produit entre 1995 et 2025 un volume de 710 milliards de barils. En vingt ans, de 1977 à 1997, les réserves prouvées de pétrole ont augmenté de 58 %, en même temps que les prix de revient diminuaient (grâce à des techniques comme le sondage sismique en trois dimensions). Nul n’aurait imaginé faire un jour des forages par plus de 2 000 mètres de fond en offshore. À l’heure actuelle, trois zones portent les espoirs des compagnies pétrolières, le golfe de Guinée, le delta de l’Orénoque et la mer Caspienne. Comparons l’extraction aux réserves en suivant les conclusions de l’étude qui fait autorité, le rapport37 de l’US Geological Survey établi pour la date du 1er janvier 1996. D’après ce rapport, les réserves aujourd’hui connues s’élèvent à 1 000 milliards de barils. Vers 2025, il en resterait donc 300 milliards qui, au rythme pratiqué alors, seraient épuisés en moins de dix ans. Mais l’USGS ajoute aux réserves 700 milliards pour les découvertes de nouvelles réserves que les géologues considèrent comme certaines, et 700 pour ce que les pétroliers appellent réserves de croissance, à savoir le surplus que fournissent les champs une fois en exploitation par rapport aux estimations préliminaires. Subsisterait ainsi vers 2030 un total de 1 700 milliards de barils qui fourniraient aux besoins du monde jusque vers 2060-2070 (à raison d’une production de 40 par an). Le maintien de la production au niveau correspondant aux besoins ne se fera pas tout seul ; il repose sur l’emploi des techniques les plus avancées et de la capacité de financement. Déjà d’ici 2010, les pays de l’OPEP, qui produisent 40 % du total mondial, devront trouver 300 milliards de dollars, et les autres producteurs quatre fois plus. Les experts s’accordent à estimer que l’extraction atteindra un maximum entre 2015 et 2030, après lequel elle ne pourra plus suivre la croissance de la demande. L’exploitation de champs d’accès de plus en plus difficile, par exemple situés plus profondément dans les océans, la baisse de rendement des puits 37. US Geological Survey, World Petroleum Assessment, 2000.

ÉCRIT SUR LE MUR

487

au fur et à mesure du pompage, le passage à des sources exotiques comme les bitumes feront monter les coûts de production. Le problème de l’approvisionnement en pétrole à l’horizon 2030, n’est pas l’existence de ressources, mais le prix qu’il faudra le payer. Aujourd’hui, le coût de la production se maintient dans la fourchette de 2 à 6 dollars le baril, et vers 6-16 dollars pour les sables bitumineux. Comme l’industrie pétrolifère est fortement cartellisée, les coûts sont répercutés sur les prix, et il ne serait pas surprenant de voir la facture du pétrole augmenter de façon importante à partir de 2030-2040, même si l’on ne tient pas compte des facteurs politiques, tels que l’instabilité de certains pays producteurs ou le chantage déjà souvent utilisé sur le marché. La hausse ne sera pas limitée au pétrole, mais s’étendra à tout le marché de l’énergie. Les habitudes, dans certains secteurs comme les transports ou l’agriculture productiviste, en seront bouleversées. Si le prix de l’énergie augmentait, par exemple s’il était multiplié par deux, de nouvelles sources de combustibles fossiles comme les sables bitumineux du Canada, dont l’exploitation n’est pas aujourd’hui rentable, deviendraient disponibles : sur la réserve de 2 500 milliards de tonnes de pétrole contenus dans ces sables, on estime à 300 le volume récupérable, de même que 270 milliards de barils peuvent être extraits de la réserve de 1 200 milliards de tonnes de fuel extra-lourd que contient le bassin de l’Orénoque. Le gaz naturel

En 2001, les réserves estimées en gaz naturel, égales en termes d’énergie à celles du pétrole, permettent d’affirmer que, si l’on ajoute les ressources non encore découvertes et les réserves de croissance, les besoins mondiaux seront couverts pendant cent soixante-dix à deux cents ans au niveau actuel de consommation38. Les réserves prouvées ont doublé pendant les vingt dernières années, dépassant les découvertes relatives au pétrole, en grande partie parce qu’elles s’épuisent moins vite. Les deux tiers sont situées dans deux pays, la Russie et l’Iran. Cependant elles sont plus dispersées dans le monde que ne le sont celles du pétrole. La production augmentera en Europe et en Amérique du Nord, mais moins rapidement qu’en Asie, au Proche-Orient et en Amérique du Sud. Le marché est en expansion rapide grâce à l’abondance du gaz, à son bas prix et à ses avantages concernant l’environnement. L’exploitation exigera des investissements très élevés, tant pour la 38. US Geological Survey, 2000, op. cit.

488

INTRODUCTION AU SIÈCLE DES MENACES

production que pour le transport, mais les techniques sont bien maîtrisées. Il est admis que la production de gaz connaîtra un maximum comme le pétrole, avec un décalage de quelques décennies. À l’horizon 2050, les hydrates de gaz offrent la perspective d’une source quasiment sans limites, même si l’on ne sait encore rien sur la technologie et les coûts de leur exploitation. Le charbon

D’après le tableau 2, le charbon restera la principale source d’énergie pour la production d’électricité, qui sera le moteur de la très importante croissance de sa production (85 % jusqu’en 2020). Les réserves sont énormes et très dispersées par comparaison avec les cas du pétrole et du gaz. Elles ont augmenté de 50 % dans les vingt dernières années, s’élèvent à mille milliards de tonnes et représentent deux cents ans de production au niveau actuel. La moitié est située dans les pays de l’OCDE. L’Inde et la Chine comptent sur une utilisation très accrue de leur richesse minière en charbon, et pourraient devenir les principaux consommateurs. De nouveaux modes de combustion ou de gazéification permettent d’améliorer l’efficacité de la production électrique. Par rapport aux 900 g CO2/kwh nécessaires aux centrales conventionnelles, la plupart de ces méthodes se contentent aujourd’hui de 750 à 800 g CO2/kwh et, à condition que les investissements nécessaires soient consentis par les gouvernements, elles pourraient entrer en compétition d’ici une vingtaine d’années avec les turbines à gaz à cycle combiné, dont le rendement s’établit vers 350 g CO2/kwh. Si le principe des améliorations est connu, les démonstrations industrielles et commerciales restent à entreprendre. Le nucléaire

Les ressources identifiées en uranium couvrent deux cent cinquante ans de la consommation à son taux actuel. L’Australie, les États-Unis et le Canada possèdent 35 % des ressources mondiales. Après l’Australie, le Kazakhstan est le second possesseur avec 15 %, puis viennent les pays de l’OCDE avec 45 %. En 2020, ces derniers devraient fournir 60 % de la production mondiale. Le futur du nucléaire dépend des terreurs populaires, qui puisent leur force dans l’accident de Tchernobyl survenu en 1986. Il est devenu la preuve du danger nucléaire. Que l’explosion ait été due à la stupidité des ingénieurs de l’usine qui se livraient à un exercice de divergence sans rapport avec le fonctionnement normal des réacteurs, n’est connu, ni a fortiori compris par le public nulle part dans le monde. Un autre facteur de rejet du nucléaire par l’opinion est l’incertitude qui règne sur la gestion des déchets.

ÉCRIT SUR LE MUR

489

Dans l’état actuel de la psychologie des foules les chiffres des tableaux 1 et 2 apparaissent comme vraisemblables : à l’échelle mondiale, le nucléaire restera marginal en 2030. La plupart des sites en fonctionnement aujourd’hui atteindront la fin de leur vie dans les années 2030. Les énergies renouvelables

On englobe sous le nom de « renouvelables » les énergies hydroélectrique, éolienne, géothermique, solaire, océanique et l’utilisation de la biomasse. Les tableaux 1 et 2 indiquent leur caractère marginal à court et moyen terme, avec, il est vrai, l’hypothèse que les grandes lignes de la politique d’investissement menée par les États dans le domaine de l’énergie ne s’infléchiront pas trop. Dans les pays de l’OCDE, la production d’électricité par l’énergie éolienne et l’emploi de la biomasse devraient élever leur pourcentage à 4 % vers 2020 et même à 9 % si une doctrine générale est adoptée pour diversifier les sources. Dans les pays en développement, il en va bien différemment. Si la biomasse fournit aujourd’hui 24 % de leurs besoins énergétiques, l’urbanisation fera décroître son pourcentage à 15 % vers 2020. La part de l’énergie hydraulique devrait y croître d’un facteur deux dont les trois quarts en Chine et en Amérique latine. L’utilisation de l’énergie lumineuse provenant du soleil se heurte à notre incapacité à la concentrer pour produire une grande puissance électrique, et elle restera limitée à des applications domestiques, tel que le chauffage des maisons. Un programme de soutien aux pays pauvres démunis d’électricité a été imaginé : un petit générateur solaire capable de faire fonctionner une pompe… ou un récepteur de télévision, distribué à quatre cents millions de familles, ne coûterait que 3 euros par mois et par foyer. Il suffirait de trouver 200 milliards de dollars, et aussitôt la bonne parole accompagnant le mieux-être pénétrerait jusqu’au plus bas niveau de la société humaine. Où est le généreux donateur ? Les énergies renouvelables ont le potentiel technique de couvrir une forte proportion des besoins énergétiques du monde dans tous les secteurs et toutes les applications : chaleur, puissance, transport ; elles pourraient fournir plus que la demande mondiale en électricité. Elles offrent l’avantage de protéger l’environnement et d’améliorer la sécurité des approvisionnements. Leur inconvénient est leur prix. Aucune de leurs formes n’est compétitive et de loin, avec l’énergie tirée des combustibles fossiles. Si les coûts ont un peu baissé au cours des vingt dernières années, l’évolution en

490

INTRODUCTION AU SIÈCLE DES MENACES

est incertaine, comme le montre39 le tableau 3. Leur développement dépend d‘un soutien étatique. Les techniques en développement n’auront quasiment aucune influence avant 2050 ; elles appartiennent à la seconde moitié du siècle et interviendront dans un contexte auquel on ignore si elles seront adaptées.

Charbon (Lit fluidisé)

Gaz (Cycle combiné)

Biomasse

Éolien

Solaire

Nucléaire

Tableau 3 : Coûts de production électrique pour trois États européens

Allemagne

3,2

3,5

4,3

6,8

64,0

5,1

France

3,2

3,2

4,0

51,2

7,2

3,4

Royaume-Uni

3,2

2,6

3,8

7,2

64,0

4,3

Eurocents/Kwh (valeur 1990)

L’énergie éolienne est la source renouvelable qui plaît. La capacité installée en Allemagne en 1999 représente un tiers de la capacité mondiale et 4 % de sa production nationale d’électricité (4 MW). Les chiffres correspondants aux États-Unis sont 0,3 % (2 MW). On peut tabler sur une croissance de 12,6 % par an, de 11 TWh en 1997 à 178 TWh en 2020, à comparer avec une production mondiale par toutes les sources de 25 600 TWh ! Un des inconvénients de la machine à vent est la surface qu’il faut lui consacrer. On compte un hectare par moulin. À Bollène, dans le sud de la France, un ensemble de cinq moulins de puissance totale 4 MW occupe le même espace que la centrale nucléaire voisine de Tricastin de puissance 3 600 MW. Si l’on tient compte de la durée de fonctionnement (2 000 à 2 500 heures par an pour l’éolienne, contre 6 500 pour le nucléaire) le rapport des énergies fournies vaut 3 000 ! La plate-forme offshore paraît la solution du futur, d’autant plus que la population ne tolère pas le bruit des rotors. Les économies d’énergie, ou « Negawatt »

Il existe un portefeuille de technologies qui peuvent être mises en œuvre dans la période 2004-2025 pour économiser l’énergie, surtout si on leur adjoint l’utilisation d’énergies renou39. Source : Commission européenne (2000).

ÉCRIT SUR LE MUR

491

velables pour produire de la chaleur. L’usage d’énergie consommée sous forme de chaleur peut être réduit de 50 % à 80 % à un horizon fixé en général autour de 2050, limite qui paraît aujourd’hui techniquement et économiquement indépassable, d’où une saturation de l’effet des économies au milieu du siècle. Les usages dits « mobiles », c’est-à-dire les transports, obéissent à une logique différente, puisque les économies n’y seront que marginales, alors que les besoins augmenteront. L’impact d’un doublement ou d’un triplement des prix sur les flux de transport des marchandises et des personnes est inconnu. Nouvelles pistes

Un certain nombre de méthodes qui feraient intervenir des sources différentes de celles qui sont utilisées actuellement sont en cours d’étude ou de développement. Nous en citerons deux. L’hydrogène. L’idée court que l’hydrogène remplacera le gaz, le pétrole, le charbon et l’électricité comme source de puissance. Une telle vision ne vaut que pour le très long terme, après 2050. Cependant, certaines techniques liées à l’hydrogène comme les piles à combustibles pourraient pénétrer le marché vers 2010-2020. Cet hydrogène qui n’existe qu’à l’état combiné, il faut le fabriquer à partir de biomasse, d’eau… et de combustibles fossiles. Le combustible choisi réagit avec de l’oxygène, par exemple contenu dans l’air, pour produire de l’oxyde de carbone CO et de l’hydrogène. Le CO réagit alors avec de la vapeur d’eau pour fournir du CO2 et encore de l’hydrogène. Le CO2 est stocké et l’hydrogène sert de combustible. Le bilan n’est pas facile à établir, et le gain en combustible fossile est peut-être petit. Une tonne d’hydrogène fabriquée à partir de gaz naturel rejette onze tonnes de CO2 dans l’atmosphère et quinze si l’on part de résidus. Il est aussi possible de produire l’hydrogène par électrolyse, à partir d’électricité dont l’origine est nucléaire ou renouvelable. À l’horizon 2030, l’utilisation à grande échelle de l’hydrogène ne se conçoit qu’à partir d’un parc de nouvelles centrales nucléaires. Le livre de Jeremy Rifkin, un des promoteurs de l’hydrogène, ne présente aucun chiffrage, aucune solution quantitative aux problèmes d’énergie ou de rejet de carbone posés par l’emploi généralisé de l’hydrogène40. À lire par les amateurs de Yaka.

40. J. Rifkin, The Hydrogen Economy, New York, Jeremy P. Tarder/Putman, 2002.

492

INTRODUCTION AU SIÈCLE DES MENACES

Quant à l’énergie produite par la fusion nucléaire, le principe de son fonctionnement industriel sera peut-être démontré vers 2035… ou plus tard. Séquestration du carbone. L’idée consiste à munir tout générateur d’énergie fonctionnant avec des combustibles fossiles d’un système qui capturerait le CO2 des gaz d’échappement et le stockerait quelque part, par exemple au fond des océans ou dans des formations géologiques. Les techniques imaginées varient de la cryogénie à l’emploi de membranes ou à l’adsorption. La physicochimie de l’océan, qui contient déjà cinquante fois plus de CO2 que l’atmosphère sous forme principalement de bicarbonate, est trop mal comprise pour qu’on l’envisage sérieusement comme puits, mais les réservoirs de pétrole ou de gaz naturels, vides après l’extraction de leur contenu, et les anciennes mines de charbon ou de sel pourraient être considérés. Les coûts de la capture et de la manipulation du CO2 sont inconnus. L’IEA a cité des chiffres de 40 à 60 dollars par tonne stockée et, pour la production électrique, un surcoût d’au moins 2 €/kwh. La séquestration est la solution envisagée par les États-Unis qui ont l’intention d’y consacrer un gros effort de recherche. Conclusion

Le XXIe siècle sera marqué par des transitions rapides, qui pourront devenir brutales : le plafonnement de la production de pétrole suivi par un retournement du marché, l’impact d’une politique menée pour réduire la consommation d’énergie fossile, l’arrêt vers 2050 de l’effet des économies d’énergie, enfin le plafonnement ultérieur de la production de gaz. En cinquante ans l’humanité a brûlé 25 % du pétrole et 10 % du gaz amassés en cinq cents millions d’années par la biosphère. Dans soixante ans il n’y aura pratiquement plus de pétrole exploitable, dans deux cents ans il n’y aura plus ni charbon ni gaz. Le problème de la pénurie d’énergie ne se pose pas à court terme, mais il est insoluble à moyen terme. À l’horizon 2050, l’augmentation de la demande devrait déjà imposer des contraintes extrêmement fortes, comme le montre le très vraisemblable scénario du tableau suivant.

493

ÉCRIT SUR LE MUR

Scénario pour 205041 • La population mondiale compte 9 milliards d’individus. • La production d’énergie provient des combustibles fossiles pour 12,5 Gtep par an (3,5 venant du pétrole ; 4,5 du gaz ; 4,5 du charbon) et des sources renouvelables pour 1 à 1,5 Gtep. • La demande s’établit à 18 Gtep (chiffre optimiste compris entre la valeur de 25 donnée par les scénarios acceptant l’abondance et 15 pour ceux qui parient sur la sobriété). • Le déficit s’établit donc au niveau de 4 à 4,5 Gtep. Deux solutions seulement sont envisageables : 1. Le recours au nucléaire, utilisable seulement pour produire de l’électricité. Comme, en l’an 2000, les 442 réacteurs fonctionnant dans le monde produisaient 0,67 Gtep, (d’après le tableau 1), il en faudrait 6,5 fois plus pour fournir 4,5 Gtep, c’est-à-dire près de trois mille ! Netwar saura où chercher ses cibles. Et où trouveronsnous l’eau pour les refroidir ? 2. Un changement radical des aspirations et du mode de vie de l’humanité. Choisissez ! Et si l’humanité rejette l’une et l’autre, comme c’est vraisemblable…

LA CONSOMMATION DES COMBUSTIBLES FOSSILES 41

MODIFIERA L’ATMOSPHÈRE ET DONC LE CLIMAT

Alors que les découvertes de gisements abondants de combustibles fossiles démentaient les prévisions pessimistes du Club de Rome et que l’économie productiviste du XXe siècle s’emballait, les mesures faites par les scientifiques spécialistes de l’atmosphère mirent en évidence une évolution imprévue en dehors de leur communauté, car elle est liée aux couplages caractéristiques de la biosphère42. Rendons-leur hommage : dès les années 1960, les mesures de CO2 qu’il avait fait inclure dans le programme de l’Année géophysique internationale (1957-1958) amenèrent l’océanographe Roger Revelle à prévoir le danger, entraperçu déjà par S. Arrhenius au XIXe siècle. Attaquée, Gaïa réagit.

41. Déduit de la discussion des pages précédentes, des Actes des Journées de l’énergie, Paris, palais de la Découverte, 2001, et de la conférence-débat Énergies et Climat de l’Académie des sciences, 23 avril 2001. 42. Les figures des pages 495 à 501 sont extraites du document Report of the International Panel on Climate Change 2001. Synthesis Report, Cambridge, Cambridge University Press, 2001.

494

INTRODUCTION AU SIÈCLE DES MENACES

Mesures de température

Un réseau de stations d’observation distribué sur la planète fournit en permanence des données météorologiques fiables. De bonnes mesures de la température moyenne sont disponibles sur la période couvrant la fin du XIXe siècle et le XXe dans son entier. Pour remonter plus haut dans le temps, on utilise les coraux, les anneaux ligneux et les carottages glaciaires. La figure suivante représente l’évolution43 depuis mille ans de la température de l’air à la surface du sol dans l’hémisphère Nord. Sur la figure apparaît un réchauffement global à partir de 1920 : le XXe siècle a été plus chaud que le XIXe. Une différence de température moyenne de 0,5 °C a des conséquences considérables sur les climats. Les périodes glaciaires, pendant lesquelles une calotte polaire descendait en Europe jusqu’à la côte de la Méditerranée, ne présentaient qu’une différence de température moyenne de 5 °C avec celle du temps où nous vivons. À partir de 1980 apparaît un décrochage, c’est-à-dire une accélération du réchauffement, qui est évalué à 0,6 °C entre 1860 et 2002, phénomène d’une ampleur et d’une rapidité sans précédent dans le dernier millénaire. Les données rapportées ici sont relatives à des valeurs moyennes, inaccessibles à l’observation quotidienne des nonspécialistes. Les observations locales, aussi bien que les événements climatiques exceptionnels comme les tempêtes ou les inondations ne constituent en rien une matérialisation probante d’une évolution climatique. Cependant on a déjà constaté44, au cours des dernières décennies, une tendance caractérisée par une augmentation des températures de l’air affectant les huit premiers kilomètres de la basse atmosphère, une diminution de la fréquence des froids extrêmes, une réduction de l’extension de la couverture neigeuse, de la glace de mer dans l’hémisphère Nord et de la durée de gel des lacs et des rivières, le recul des glaciers de montagne, une élévation du niveau de la mer de 10 à 20 cm et une augmentation des précipitations surtout dans les hautes et moyennes latitudes de l’hémisphère Nord, sans changement dans l’hémisphère Sud.

43. Michael E. Mann et al., Geophys. Res. Lett., 1999, 26, 759. Voir également le rapport 2001 de l’IPCC. 44. Jean-Claude Duplessy, État des connaissances sur le changement climatique induit par les activités humaines. Conférence-débat de l’Académie des sciences, op. cit.

ÉCRIT SUR LE MUR

495

Variations de la température à la surface de la Terre45 au cours des 140 dernières années et au cours du dernier millénaire

Mesure de la concentration du gaz carbonique CO2 dans l’atmosphère45

La concentration des gaz atmosphériques dans les temps anciens se déduit avec une bonne précision de l’analyse des bulles d’air emprisonnées dans les glaces polaires. Un forage vertical fournit des strates successives de plus en plus profondes, c’est-àdire de plus en plus anciennes ; les carottes recueillies permettent d’obtenir l’évolution en fonction du temps de la concentration exprimée en ppm (part par million en volume). 45. Voir Michel Petit, Qu’est-ce que l’effet de serre ?, Paris, Vuibert, 2003, p. 63.

496

INTRODUCTION AU SIÈCLE DES MENACES

Restée stable pendant le dernier millénaire, la concentration en CO2 est passée de 280 ppm en 1850 à 370 ppm au début du XXIe siècle, avec un accroissement de 0,5 % par an, ce qui correspond à un rejet de carbone dans l’atmosphère de 3,3 milliards de tonnes par an. Il n’existe aucune controverse sur l’origine de cette variation rapide et soudaine : l’unanimité se fait pour l’attribuer à l’effet anthropique de la révolution industrielle46. La continuation prévue de l’emploi massif de combustibles fossiles fait prévoir que le phénomène s’amplifiera. Autour de l’an 2000, nous brûlons en moyenne 6,3 milliards de tonnes (Gt) de carbone par an ; on estime que 1,9 et 1,3 Gt se retrouvent respectivement dissous dans l’océan et récupérés par la photosynthèse de la biosphère. Comme la capacité d’absorption que possède l’océan pour CO2 diminue quand la quantité de gaz dissous augmente, on constate qu’une proportion de plus en plus forte du gaz carbonique émis reste dans l’atmosphère.

360

CO2 (ppmv)

340 Mesures dans l’atmosphère

320

300 Mesures dans la glace

280 1000

1100

1200

1300

Il y a 1000 ans

1400

1500

1600

Temps (années)

1700

1800

1900

2000

Aujourd’hui

Teneur en gaz carbonique dans l’atmosphère depuis 1 000 ans

L’effet de serre additionnel

Les deux faits expérimentaux précédents sont aisément réconciliés lorsque l’on se souvient que les molécules polyatomiques CO2 (comme H2O) sont susceptibles d’absorber le rayonnement infrarouge émis au-dessous d’eux par le sol. Ce rayonnement, au lieu de s’échapper vers l’espace, est donc emprisonné dans l’atmosphère et son énergie stockée, de même qu’une paroi de verre, opaque dans 46. Rapport 2001 de l’IPCC, repris dans la Conférence-débat de l’Académie des sciences, op. cit.

ÉCRIT SUR LE MUR

497

l’infrarouge emprisonne le rayonnement du sol à l’intérieur d’une serre ; d’où le nom d’effet de serre additionnel, donné au phénomène anthropique s’ajoutant à l’effet de serre créé par les gaz, comme la vapeur d’eau, présents naturellement en l’absence de toute intervention humaine. L’effet de serre augmente la température moyenne de l’atmosphère. L’ampleur de son impact sur le climat du futur ne peut être prédite qu’à l’intérieur de fourchettes assez larges, à cause de l’imperfection des modèles climatiques, d’une part, et de notre incertitude sur les émissions futures de l’humanité, d’autre part. Afin d’étudier le phénomène, l’Organisation météorologique mondiale (OMM) et le Programme des Nations unies pour l’environnement (PNUE) ont créé, en 1988, le Groupe intergouvernemental sur l’évolution du climat (GIEC), ou Intergovernmental Panel on Climate Change (IPCC), qui regroupe les scientifiques des États membres de ces deux organisations dans le but d’évaluer l’état des connaissances sur le changement climatique. L’IPCC a publié trois rapports en 1990, 1995 et 2001 et en publiera un quatrième en 2007. « Le mode opératoire est d’une efficacité sans égale et mériterait d’être pris comme référence pour la mise en œuvre de l’analyse d’autres questions majeures où le dialogue science-société est indispensable47. » À la suite du travail de l’IPCC, l’explication dans le cadre de l’effet de serre des augmentations de température et de concentration en CO2 observées au e XX siècle est maintenant considérée comme probable. La Terre a connu dans le passé des cycles climatiques où la concentration en CO2 et les températures variaient simultanément, et qui n’avaient aucun rapport avec l’activité anthropique. Leur amplitude atteignait 5 °C, ce qui ressemble à la valeur supérieure de la fourchette estimée pour la situation vers 2100, mais la rapidité du phénomène en cours aujourd’hui le distingue complètement des oscillations observées depuis quatre cent mille ans, dont la période était de l’ordre de vingt mille ans. On constate qu’en cent cinquante ans seulement, la concentration actuelle en CO2 a dépassé les valeurs atteintes naturellement depuis au moins quatre cent mille ans. Il faudrait remonter à des centaines de millions d’années, au moment où la biosphère ne contenait pas les mêmes espèces, pour trouver des chiffres supérieurs. Dans son dernier rapport48, l’IPCC prend en compte les tendances économiques et l’évolution démographique pour calculer 47. Michel Petit, op. cit., p. 37. 48. Rapport de l’IPCC , op. cit.

498

INTRODUCTION AU SIÈCLE DES MENACES

l’impact de l’effet de serre additionnel sur l’évolution climatique. Selon les hypothèses faites, entre lesquelles il est impossible de choisir, les modèles conduisent, pour l’an 2100, à une plage d’accroissement moyen de la température de 1,5 à 5,8 °C et à une élévation moyenne du niveau de la mer compris entre 9 et 90 cm. En 2050 l’effet aura des conséquences sérieuses, puisqu’il entraînera déjà une élévation de température de 1 °C au-dessus de la valeur de l’an 2000, et ce d’autant plus qu’il se développera en moins d’un siècle, temps trop bref pour un ajustement en douceur des écosystèmes bien adaptés au climat actuel. Il est à peu près certain que le régime entier des précipitations sur le globe subira un changement radical, avec toutes les conséquences que l’on peut imaginer pour la biosphère. Des régions sèches cesseront de l’être, d’autres verront les inondations augmenter. Le réchauffement ne se répartira pas uniformément sur la planète ni sur l’année ; d’après les modèles, le climat serait surtout modifié aux latitudes élevées, avec des augmentations de température de 6 à 10 °C vers les pôles. Le phénomène pourrait conduire à la fonte des glaces de mer, et l’on constate en effet, depuis dix ans, un net recul de l’inlandsis arctique. Si, comme certains chercheurs le pensent, la calotte glacière de l’océan Arctique devait disparaître, les situations climatiques régionale et globale en seraient complètement transformées. L’augmentation de la température moyenne de quelques degrés centigrades ne sera donc pas un phénomène bénin. L’IPCC a classé les conséquences en cinq catégories : • Variations d’amplitude modeste modifiant l’équilibre d’écosystèmes uniques ou fragiles tels que glaciers, récifs coralliens, mangroves, forêts boréales, zones humides… Tous ces écosystèmes seraient menacés au niveau d’une augmentation de température de 1 °C. • Événements extrêmes : tempêtes, avalanches, inondations, sécheresses, vagues de chaleur ; leur amplitude et leur fréquence augmenteront avec le réchauffement, d’autant plus qu’il sera plus important. Il suffit d’un changement minime de la variabilité d’un phénomène pour que la probabilité faible de franchir un seuil soit multipliée par un facteur significatif. • Distribution de changements climatiques également répartie sur les zones géographiques. • Difficultés apportées simultanément à toutes les régions du globe, par exemple réduction générale de la production agricole. • Discontinuités de très grande échelle qui n’apparaîtront que pour les forts échauffements, et qui se sont déjà produites dans le passé. Exemples : disparition de la circulation thermohaline de

ÉCRIT SUR LE MUR

499

l’Atlantique Nord, qui éliminerait les extrémités du Gulf Stream et rendrait continental le climat tempéré de l’Europe. Autre exemple : fonte de la calotte antarctique ouest qui entraînerait une élévation de quatre mètres du niveau des mers. À travers ce bref catalogue, on perçoit que le climat de toutes les régions du globe sera profondément altéré en 2050 et sans doute avant cette date. Le XXe siècle a vécu dans des conditions particulièrement clémentes, et n’a connu aucune catastrophe. La situation sera très différente au nouveau siècle, et l’on doit surtout s’attendre à une variabilité météorologique de très grande ampleur. Il est vraisemblable que les pays en voie de développement, très vulnérables aux variations climatiques, souffriront davantage que les pays industrialisés, et que la différence de niveau de vie entre les gens à 1 dollar et les gens à 50 dollars s’accroîtra. « Que les États-Unis produisent un peu moins de blé, le Canada et la Russie un peu plus, n’est point une perspective de cauchemar, mais si les zones climatiques se déplacent en trente ans et d’importantes populations essaient de les suivre ? Le mouvement vers le nord, déjà entamé pour d’autres raisons, sera-t-il aussi bien accepté que les invasions touristiques des tropiques par les nantis fatigués en vacances ou en retraite49 ? »

Les possibilités d’action

Le système climatique évolue avec des constantes de temps dont l’ordre de grandeur est le demi-siècle. Si les émissions de gaz à effet de serre passent par un maximum et commencent à diminuer, la concentration ne ralentira sa croissance de façon appréciable qu’après plusieurs décennies et ne se stabilisera pas avant un siècle. La température ralentira sa croissance avec un retard supplémentaire, atteindra un maximum très supérieur à la valeur qu’elle aura atteinte au moment où les émissions commenceront à diminuer et ne se stabilisera qu’après plusieurs siècles. L’augmentation du niveau de la mer présente une inertie encore plus forte : elle se prolongera pendant des millénaires sous l’action de la fonte des inlandsis et de la dilatation thermique des couches océaniques superficielles. La perturbation climatique sera d’autant plus grande que l’humanité tardera à réduire ses émissions. La réduction ne commencera à se traduire qu’après plusieurs décennies ; on aboutira un siècle plus tard à un climat stable, très dégradé par rapport à celui qui prévalait quand on s’est décidé à agir. Il ne subsistera aucun espoir de retour en arrière avant des millénaires. 49. R. Kandel, L’Incertitude des climats, Paris, Hachette Littérature, 1998.

500

INTRODUCTION AU SIÈCLE DES MENACES

Ampleur de la réponse maximum des émissions de CO2 0 à 100 ans

Temps nécessaire pour parvenir à l’équilibre Élévation du niveau de la mer due à la fonte des glaces : plusieurs milliers d’années Élévation du niveau de la mer due à la dilatation thermique : des siècles à des millénaires Stabilisation de la température quelques siècles

Stabilisation du CO2 100 à 300 ans

Émissions de CO2

0

100

Temps (en années)

La concentration de CO2, la température et le niveau de la mer continuent d’augmenter bien après la réduction des émissions

Il est admis que la croissance actuelle de la concentration atmosphérique en CO2 ne saurait continuer sans nuire gravement à l’environnement, et que des mesures doivent être prises par tous les États pour la limiter. La conférence internationale des Nations unies, tenue à Rio de Janeiro50 en juin 1992, a produit une Convention-cadre sur le changement climatique proposée à la signature des divers pays, dont l’idée est de fixer un plafond aux émissions de carbone. Une concentration de 500 ppm, qui correspond à un doublement de la valeur antérieure à l’action anthropique, conduit selon les modèles à une augmentation de 1 à 4 °C de la température moyenne à l’équilibre, et une concentration de 1 000 ppm à une plage de 2 à 8 °C. Étant donné l’incertitude des simulations, la valeur de 500 paraît acceptable comme objectif, alors que 1 000 correspondrait à un risque trop élevé. Pour que le plafond de 500 ppm pût être tenu, il faudrait que les émissions totales de l’année 1990 fussent divisées par un facteur 2 en 2100 et par 4 en 2200, alors que, d’après le tableau 1, elles ont crû de 68 % de 1971 à 2000. Aujourd’hui les pays industriels sont les principaux responsables des émissions. Chaque Américain brûle 7,5 tonnes équivalent pétrole (tep) par an, un Français consomme 3 tep, et un habitant de pays en voie de développement 0,5 tep. Mais les pays en développement de la région Asie-Pacifique ont multiplié leurs émissions par un facteur 4 dans 50. Voir p. 525.

501

ÉCRIT SUR LE MUR

la période 1971-1995. Si le taux de croissance de leur PIB se maintient à sa valeur actuelle de 5,8 %, alors que celui des pays développés n’a été que de 0,7 %, le facteur 2 qui sépare encore les uns des autres sera rattrapé en moins de quinze ans. Or l’expérience a montré que la consommation énergétique augmente proportionnellement au PIB ; l’évolution de la Soviétie en présente une étonnante démonstration. Les deux groupes émettront alors la même quantité de CO2. Émissions de CO2 (ligne fine) Mt C an-1 2 500

PIB (ligne épaisse) Milliards de dollars américains PPA+ 7 000 États-Unis 6 000

États-Unis

2 000

5 000 1 500

Crise pétrolière

1 000 Ex-Union soviétique 500

0 1960 * PPA : parité des pouvoirs d’achat

Japon

4 000 Ex-Union soviétique 2 000 3 000 1 800 1 600 2 000 1 400 3 000 1 200 1 000 2 000 1 000 0 Japon

1970

1980

Crise du pétrole

1990

1997

Fin de l’Union soviétique

Source : Michel Petit, op. cit., p. 95

Réponse du système énergétique, indiqué par l’émission de CO2 (exprimé en carbone), aux changements économiques, indiqués par le PIB (exprimé en parité des pouvoirs d’achat : PPA)

Afin de stabiliser (mais non réduire) l’effet de serre additionnel, il est donc impératif de réduire les émissions de CO2 à un niveau voisin de la moitié de leur valeur en 1990, c’est-à-dire 3 Gt annuelle d’équivalent carbone. Répartir équitablement ces 3 Gt parmi six milliards d’hommes correspond à une allocation de 500 kg par tête et par an, ce qui laisse : 8 % de ses émissions de 1998 à un Américain ; 20 % à un Européen, 50 % à un Mexicain ; 120 % à un habitant des pays les plus pauvres. Pour émettre 500 kg d’équivalent carbone sous forme de CO2, il suffit de : utiliser 2 t de béton (une maison de 100 m2 en exige

502

INTRODUCTION AU SIÈCLE DES MENACES

17 t) ; conduire 5 000 km en zone urbaine (4 mois pour une petite voiture et 1 mois pour un 4 × 4) ; manger 70 kg de bœuf (avec os), c’est-à-dire un steak tous les deux jours pendant un an. Le développement de pays comme la Chine, l’Inde, l’Égypte n’a pas encore commencé. La Chine possède assez de réserves de charbon pour doubler à elle seule l’effet de serre additionnel. On comprend dès lors que la croissance des émissions soit un de nos invariants. Cependant, suivant l’action prônée au sommet de Rio, les représentants de 159 pays ont approuvé, en décembre 1997, le protocole de Kyoto qui contient les dispositions suivantes :

tCO2/tête 20 Amérique du Nord •

18 16 14 12

Danemark •

10

• Russie

8

• Pologne

• Afrique du Sud

6

• Portugal

4 2 0

• Allemagne • Pays-Bas • Arabie Saoudite • Royaume-Uni • EUROPE • Japon • Taiwan • Italie • France • Espagne

• Chine • Égypte

• Inde

Mexique • • Argentine • Thaïlande • Brésil

PIB/tête (ppp) Source : Enerdaut, 1998

Émissions de CO2 et PIB (produit intérieur brut) par habitant, en 1995

• Les pays développés ont pris l’engagement de réduire leurs émissions de gaz à effet de serre pendant la période 2008-2012 d’un pourcentage par rapport à l’année de référence 1990 : l’UE de 8 %, les États-Unis de 7 %… • Un marché de « permis négociables d’émissions de gaz à effet de serre » a été créé : un pays qui parviendrait à réduire ses émissions au-delà de son engagement pourrait revendre son surplus à un autre pays ; un pays ne parvenant pas à tenir ses engagements pourrait acheter des permis à un autre. • Une entreprise d’un pays du Nord pourra financer un projet de réduction dans un pays du Sud et récupérer ainsi des crédits d’émission. Par exemple une aciérie américaine devant réduire ses rejets de carbone d’ici 2012 pourra payer une vieille aciérie

ÉCRIT SUR LE MUR

503

indienne ou russe pour effectuer la même réduction mais à un coût plus faible. • Les pays du Sud, dont l’Inde et la Chine, n’ont pris aucun engagement de réduction. Le protocole de Kyoto entrera en vigueur lorsque l’auront ratifié au moins les pays dont les émissions combinées représentent 55 % du total en 1990 des émissions des pays développés. À la fin de 2003, le taux de ratification est encore trop faible pour rendre le protocole exécutoire. On notera que les États-Unis qui émettent à eux seuls 36,1 % des rejets ont annoncé par une des premières déclarations du président Bush II, qu’ils ne ratifieraient pas le protocole de Kyoto, mais continueraient les « études ». Nous ne nous joindrons pas au tollé qui a suivi cette décision : appliquer le protocole signifierait un doublement du prix de l’essence à la pompe, alors que la civilisation américaine repose sur l’automobile. Quel politicien s’y risquerait ? L’objectif visé par le protocole de Kyoto se limite à stabiliser les émissions. Or nous avons vu que pour atteindre un plafond acceptable, il est nécessaire d’imposer une réduction des émissions de 1990 par un facteur deux. Supposons qu’on fasse porter cette charge par les pays développés, il faudrait diviser chez eux par dix les émissions par habitant. Dans l’hypothèse où le PIB de ces pays serait le double du PIB actuel, c’est par un facteur vingt que devraient diminuer leurs émissions par unité de PIB. On admettra l’impossibilité de telles restrictions. La situation est sans issue. Le type de développement actuel augmentera d’autant plus l’effet de serre que le nombre des pays développés sera plus grand. Le développement accélérera la consommation en combustibles fossiles. Moins il y aura de gens à 1 dollar et plus rapide sera l’attaque contre le climat. Un esclave jadis, un homme à 1 dollar aujourd’hui produisent une force musculaire de l’ordre de 100 watts. Le Français moyen consomme 4 400 watts, c’est-à-dire qu’il dispose de 44 esclaves. L’homme à 1 dollar est bien excusable de vouloir disposer d’un peu plus que de 100 watts… Un exemple qui ne sera pas suivi : le traitement du trou d’ozone

Depuis le milieu du siècle dernier, des composés organiques de synthèse, les CFH, ou chlorofluorohydrocarbures, sont fabriqués industriellement en grande quantité et utilisés comme réfrigérants, gaz propulseur dans les bombes aérosols, mousses, solvants. Très stables chimiquement, ils s’évaporent et sont transportés en quelques années dans la stratosphère, c’est-à-dire la partie de l’atmosphère comprise entre les altitudes de 15 et 50 km. Stockés

504

INTRODUCTION AU SIÈCLE DES MENACES

là, ces gaz sont dissociés par le rayonnement ultraviolet solaire, et entrent alors sous forme de radicaux halogénés dans des cycles de réaction qui conduisent à la destruction de l’ozone, présent dans la stratosphère avec un maximum vers 25 km. L’effet avait été prévu, et non observé, par les spécialistes des atmosphères planétaires, lorsqu’en 1985 les chercheurs du British Antarctic Survey découvrirent une diminution de la quantité d’ozone stratosphérique présente au-dessus de l’Antarctique pendant le printemps. Nous savons maintenant que la destruction d’ozone se produit là par suite des conditions très particulières qui y règnent dans la stratosphère. La température très basse crée des nuages de glace, à la surface desquels des réactions catalytiques dites de chimie hétérogène, impliquant le chlore, le brome et des radicaux nitrés et oxygénés parviennent à diminuer la quantité d’ozone. Par suite de l’inertie de l’atmosphère, le changement apporté par l’homme à un équilibre multiséculaire, une fois commencé ne s’arrête pas et, si la cause est supprimée, l’état antérieur ne sera restauré que dans une centaine d’années. Alertés par les spécialistes qui craignaient un dommage irréparable fait à l’ozone stratosphérique, protecteur de la biosphère contre le rayonnement ultraviolet du soleil, les pouvoirs publics de la plupart des États ont élaboré, signé en 1987 et ratifié en 1989 un traité, le Montreal Protocol on Substances that Deplete the Ozone Layer, qui impose un très bas niveau à la production et à la consommation des chlorofluorocarbures. Le protocole est appliqué : la quantité de molécules chlorées a atteint un plateau en 2002 et on s’attend à une réparation complète de l’état physico-chimique de la stratosphère vers 2100, bien que l’Administration Bush II veuille réinterpréter le traité afin d’éviter l’élimination du bromure de méthyle, insecticide « indispensable » aux producteurs de fraises californiens. La réaction internationale a donc permis d’arrêter le dommage commis par notre insouciance à l’environnement, et une comparaison superficielle des deux problèmes ferait croire que l’effet de serre additionnel pourrait être éliminé par l’application du protocole de Kyoto. Il n’en est rien. Dans le cas de l’ozone, les intérêts industriels mis en jeu étaient très faibles. Les fabricants de CFH, groupés dans l’association MCA (Manufacturers Chemical Association) ont dès le début des années 1970 coopéré avec les scientifiques pour analyser le problème, et ils ont découvert sans trop de mal des produits de substitution. Au contraire, il n’y a pas de produits de substitution aux combustibles fossiles ; les producteurs et les lobbies associés défendent le statu quo bec et ongles.

ÉCRIT SUR LE MUR

505

LA SYNERGIE DE LA SANTÉ PUBLIQUE ET DU CLIMAT

L’augmentation de la température permet aux vecteurs des maladies infectieuses d’élargir leur domaine et leur capacité à infecter l’homme, d’autant plus que les systèmes biologiques réagissent très rapidement. Les moustiques exigent pour se reproduire une température supérieure à 16 °C ; dès que cette condition est remplie, ils pullulent. Ainsi, La Nouvelle-Orléans a-t-elle vu exploser les populations de moustiques, de termites et de cafards après une période de cinq ans sans gelées (1990-1995). Le danger d’expansion des maladies infectieuses portées par des moustiques pendant le réchauffement climatique est grand, parce qu’il augmente les températures de nuit et d’hiver qui fixent les seuils de mortalité des insectes plus que ne le font les températures de jour et d’été. Une autre catégorie d’influences climatiques sur la santé est liée à l’occurrence d’événements extrêmes qui influe sur les populations d’animaux vecteurs. L’ouragan Mitch, qui a ravagé l’Amérique centrale en 1998, a laissé derrière lui une traînée de maladies infectieuses portées par des insectes et des rongeurs qui profitèrent de la ruine des infrastructures et de l’appauvrissement de la population. En 1993, dans le sud-ouest des États-Unis, l’épidémie de hantavirus fut propagée par des rongeurs, qui, après avoir été débarrassés de leurs prédateurs par une sécheresse prolongée, se gavèrent d’une nourriture rendue abondante par de fortes pluies. L’OMS essaie d’établir des corrélations entre les séquences météorologiques et l’éclosion de maladies infectieuses ; par exemple la « fièvre de la vallée du Rift », causée par un virus hôte d’un moustique, tend, dans la corne de l’Afrique, à suivre de cinq mois l’apparition de certaines configurations de température superficielle dans des zones océaniques situées dans le Pacifique et l’océan Indien. La maladie n’a pas toujours besoin de vecteurs pour s’allier au climat afin de frapper les populations. Ainsi, en Afrique, les sociétés agraires traditionnelles, habituées à la sécheresse, ont la capacité de résister à la pénurie qu’elle entraîne. Les jeunes adultes et surtout les femmes savent quelles plantes sauvages manger pour survivre quand manque le maïs. Mais dans les groupes décimés par le sida, la maladie frappe ceux-là mêmes qui peuvent combattre la famine. Quand les pluies arrivent, les cultivateurs doivent passer seize heures par jour pour arracher les mauvaises herbes et semer. Si le travail n’est pas fait au moment critique, pas de moisson pour l’année prochaine. Malheureusement, il ne reste plus d’adultes. Comment une femme chargée de six petits enfants saurait-elle acquérir l’expérience de sa grand-mère, et

506

INTRODUCTION AU SIÈCLE DES MENACES

apprendre à cultiver un lopin, ramasser des fruits sauvages et organiser la transition pendant une année difficile ? Entre les survivants, grands-parents et petits-enfants, la chaîne de transmission des savoirs est rompue. Un patient infecté par le HIV doit être bien nourri, il lui faut beaucoup de protéines ; la malnutrition accélère la progression de la maladie. En l’absence de ressources, des millions de jeunes femmes s’adonnent à la prostitution. La société se détruit. Les gens à 1 dollar sont les victimes désignées du mariage des variations climatiques avec les maladies. Ainsi la dengue, elle aussi propagée par un moustique, a-t-elle voulu pénétrer en Floride et au Texas en venant du Sud, mais les moustiquaires et le conditionnement d’air l’ont arrêtée, alors qu’elle se répand en Amérique centrale et Amérique du Sud où ces ustensiles restent au-delà des moyens de la population. Synergie de la maladie et du changement climatique. Maladie

Vecteur

Population à risque (millions)

Nombre d’infectés (millions)

Changements possibles de distribution dus au réchauffement climatique

Paludisme

Moustique

2 500

300

Extrêmement probable

Schistosomiase

Ver plat

600

200

Très probable

Elephantiasis

Moustique

1 000

120

Probable

Dengue

Moustique

2 500

50 (par an)

Très probable

Onchocercose

Mouche

12

Probable

120

Source : Rapport WHO/PEP/90/10, 1990, Potential Health Effects of Climatic Changes.

La morbidité et la mortalité croîtront dans les maladies classiques avec les perturbations climatiques. Qu’adviendra-t-il quand paraîtront le nouveau sida, le nouveau sras, plus virulents, plus « inconcevables » que leurs prédécesseurs ? Un exemple révélateur

L’épidémie d’hyperthermie mortelle déclenchée en France par la canicule de 2003 a mis en lumière, à un degré encore très modeste il est vrai, les risques sanitaires entraînés par les vacillations météorologiques.

ÉCRIT SUR LE MUR

507

Entre le 5 et le 18 août, une vague de chaleur s’est traduite sur presque tout l’Hexagone par des valeurs de la température atmosphérique non observées depuis cent cinquante ans, 35 à 40 °C pendant le jour et 25-26 °C pendant la nuit, sans interruption. Elles ont entraîné le décès d’environ quinze mille vieillards. En deux jours à partir du 11, les systèmes de sécurité et de santé ont été débordés par le nombre des mourants, jusqu’aux morgues et cimetières incapables d’absorber les cadavres. S’il était connu que les vagues de chaleur engendrent une surmortalité depuis celle de Chicago qui fit sept cents victimes en 1995, aucune des mesures préventives d’accompagnement social qu’avaient prises avec succès les Américains, et qui leur avaient permis de juguler les effets de la canicule en 1999, aucune de ces mesures n’avait été envisagée en France où un tel risque n’était pas identifié. L’Institut de veille sanitaire, organisme officiel chargé de surveiller l’apparition des épidémies, se préoccupait d’autres menaces, chimiques, infectieuses, nucléaires et inondations, bien réelles, et ne recevait aucune information sur les événements climatiques. Or il est illusoire de compter sur un système d’alerte reposant sur la constatation des décès, car il est alors trop tard pour agir. « La crise a montré que le système français d’urgences, préhospitalier comme hospitalier, peut être déstabilisé par une épidémie. Si le coup de chaleur est exceptionnel en France et dure peu de temps, ce n’est pas le cas des épidémies majeures de grippe51. »

De même le système chinois avait-il été déstabilisé par le sras et le système mondial par le sida. Nous avons vu que des épidémies majeures sont inévitables ; en conséquence des déstabilisations pourraient devenir fréquentes. Dans l’exemple particulier de l’hyperthermie, l’événement conduit à une interrogation sur la tendance profonde de la société à 50 dollars par jour. La France s’enorgueillit de fournir à sa population une des espérances de vie les plus élevées dans le monde, 83 ans pour les femmes en 2003 et 75,5 ans pour les hommes, avec une croissance de 4 mois par an. Les Grecs fixaient à 80 ans l’âge ultime que l’homme peut atteindre. Notre vision et notre pratique reposent sur l’idée que cet âge n’est pas une frontière extrême réservée à quelques privilégiés du sort, mais peut et doit être dépassé par tous. En 1800 sont morts les premiers centenaires avérés. Leur nombre croît de 8 % par an dans notre pays, huit fois plus vite que le nombre de gens de 60 ans et plus. Ils étaient cent 51. Pierre Carli et Bruno Riou, « Épidémies, alerte et prévention », Le Monde, 20 août 2003.

508

INTRODUCTION AU SIÈCLE DES MENACES

en 1950 ; 6 840 en 1998. D’après le recensement de 1990, l’INSEE en prévoit 150 000 en 2050. La médecine moderne maintient en vie beaucoup de vieillards à 50 dollars, mais dans un état de délabrement que l’on cache en les cachant. La moitié des dépenses de santé consacrées à chacun pendant sa vie par la communauté nationale est consommée dans la dernière année de l’existence. D’ici à 2010, le nombre de personnes atteintes de la maladie d’Alzheimer, qui affecte cinq cent mille malades aujourd’hui, augmentera d’un tiers, le nombre des cataractes de 17 % et celui des arthroses paralysantes de 13 %, alors que la population âgée de 65 ans et plus croîtra de 10 %, et que le nombre des octogénaires de plus de 85 ans doublera, passant de 1,2 à 2,4 millions. Il faudra un million de personnes pour les materner. Pendant la canicule, on a constaté dans les cliniques et maisons de retraite bien équipées, munies d’un personnel adéquat et non saturées, un nombre élevé de décès, de l’ordre de 10 % de leurs pensionnaires, parce que les octogénaires souffrent de pathologies multiples et que la chaleur les exacerbe, quels que soient les soins : dès 70 ans, les gens présentent en moyenne plus de sept affections. Parmi les organes qui s’affaiblissent avec le vieillissement se trouve le cerveau. En l’an 2000, l’on dénombrait en France 550 000 cas de démence ; 5 % des sujets de plus de 65 ans, 20 % environ des sujets de plus de 80 ans, 25 % des sujets de plus de 85 ans, 50 % des sujets de plus de 95 ans, sont déments. En 2050, la France comptera 22 millions d’habitants âgés de plus de 60 ans, soit 85 % de plus qu’en 2000. Ils constitueront alors 35 % de la population. Parmi eux 11,6 et 4,8 millions de personnes auront respectivement dépassé 75 et 85 ans, trois fois plus et quatre fois plus qu’aujourd’hui : 4,2 et 1,2 millions en 2050. Des chiffres précédents, l’on déduit qu’en 2050, la France hébergera au moins 1,2 million de déments séniles de plus de 85 ans. Comment et avec quels moyens les prendra-t-on en compte, alors qu’aujourd’hui nous parvenons à peine à contenir la pression de quatre fois moins de gâteux incontinents ? La maladie d’Alzheimer cause respectivement 36 %, 64 %, 96 % des démences respectivement dans les groupes d’âge 6574 ans, 75-84 ans, 85 ans et plus. Son incidence est estimée à cent mille nouveaux cas chaque année. Une étude canadienne a chiffré le coût sociétal annuel par individu engendré par la maladie d’Alzheimer à 9 451 dollars, 16 054 dollars à 25 796 dollars, et 36 794 dollars selon l’intensité de l’affection, respectivement légère, intermédiaire et avancée. Aux États-Unis, 4 millions de patients en sont aujourd’hui atteints et ce chiffre montera jusqu’à 14 millions en 2050. Le coût

509

ÉCRIT SUR LE MUR

annuel dépasse déjà 100 milliards de dollars. En 2050 il avoisinera ou dépassera le budget du DoD. Peut-être trouvera-t-on une cure avant 2050 ; mais en trouvera-t-on à la démence sénile ? Trouvera-t-on une cure à la vie ? La vieillesse apparaît ainsi comme une des épidémies du e XXI siècle. Elle s’apparente à la maladie pédiculaire de Sylla. Notre société sans éthique n’hésite pas à se débarrasser des fœtus non désirés par leur mère mais conserve à grands frais ses débris cacochymes. Le poids imposé à la population productive par le maintien en vie de grabataires déments se répercutera en dernière analyse sur la biosphère et nourrira aussi bien le combat des 50 dollars contre les 1 dollar que la dégradation accélérée de la nature.

14 000 000 12 000 000 10 000 000 8 000 000 6 000 000 4 000 000 2 000 000 0 1900 1910 1920 1930 1940 1950 1960 1970 1980 1990 2000 2010 2020 2030 2040 2050

65-74 ans

75-84 ans

85 ans et plus

Source : Diagnostic Center for Alzheimer’s Disease

Nombre de patients atteints de la maladie d’Alzheimer aux États-Unis (données historiques depuis 1900 et prévisionnelles jusqu’à 2050, établies en 1999)

L’épidémie française d’hyperthermie illustre le paradoxe apparent qui est le sujet de ce livre : elle a frappé un pays considéré par l’OMS comme celui qui bénéficie du meilleur système de santé au monde. Il faut comprendre que cette situation favorable et les efforts qui sont consentis pour la maintenir et l’améliorer sont justement la cause de l’épidémie : sans haute espérance de vie, pas de vieillards. Nouvel exemple de notre marche

510

INTRODUCTION AU SIÈCLE DES MENACES

exponentielle vers une accumulation de problèmes insolubles. Le progrès médical est un puissant facteur de transformation sociale, une force géante qui va sans demander l’assentiment de personne.

L’exploitation des sols LES RESSOURCES MINIÈRES

En contradiction avec les prévisions du Club de Rome, la prospection a repoussé les frontières de l’épuisement pour les ressources minières. Les réserves les moins importantes concernent l’or et l’argent, dont il existe des quantités thésaurisées, le plomb et le zinc, dont la consommation diminue. Quant au cuivre, il s’en trouve certainement à découvrir en Amérique du Sud et en Afrique. Sur le tableau ci-dessous qui fournit un ordre de grandeur à partir de réserves connues en 1998 on constatera que les mines seront épuisées à la fin du XXIe siècle pour la plupart des matériaux et peut-être avant. Le cas des phosphates est particulier : utilisés à 90 % comme engrais, ils sont indispensables à l’agriculture moderne et non substituables par un autre produit. Sans phosphates, les terres s’épuisent et les rendements diminuent. L’agriculture telle qu’on la pratique aujourd’hui, devra changer avant 2080, mais nous ne saurons pas comment la sauver. D’ici là, le problème de l’approvisionnement sera lié à l’instabilité chronique des pays producteurs ; il paraît gérable. Réserves mondiales calculées en années de production et de consommation Diamant Zinc/plomb Cuivre Étain/manganèse Nickel/molybdène Tungstène Phosphates Chrome Fer Platinoïdes/cobalt/bauxite Vanadium

10 20 35 40 50 60 80 100 175 200 300

ÉCRIT SUR LE MUR

511

LA DÉGRADATION

Le sol est le résultat d’une longue altération entre les roches, l’air, l’eau et les êtres vivants : il faut environ cent mille ans pour former un sol rouge méditerranéen sur un mètre d’épaisseur. Les sols sont menacés par différents types de dégradation : • L’érosion est un phénomène naturel qu’amplifient certaines pratiques d’agriculture ou d’aménagement du territoire. À l’heure actuelle se produit, à l’échelle du globe, une recrudescence de l’érosion des sols, due à la déforestation, au surpâturage et à l’intensification des cultures. Il en résulte une dégradation du potentiel agricole et de la qualité des cours d’eau (accroissement de la turbidité, transfert des pesticides et de métaux lourds). Comme l’a écrit René Dumont52 : « Madagascar montre bien que très peu d’hommes peuvent détruire des surfaces énormes de sols… Nul ne dira jamais trop de mal des feux de brousse. » La perte annuelle en sols au niveau mondial serait de 60 000 km2/an pour une surface estimée de cinq millions de kilomètres carrés de terres arables et de dix millions de kilomètres carrés de pâturages53. • La dégradation chimique suit l’emploi abusif des produits actifs, en particulier des engrais. Les traitements insecticides et fongicides entraînent de forts épandages en composés organiques toxiques ou en métaux lourds. Les fertilisants comme les nitrates et phosphates, perturbent les écosystèmes en polluant les nappes phréatiques, s’accumulent dans les lacs qu’ils eutrophisent et font apparaître sur les côtes les marées d’algues rouges ou vertes. Les sols reçoivent aussi les déchets industriels et urbains comme les hydrocarbures, les détergents et de nombreux produits toxiques. La salinisation est un phénomène de dégradation à la fois physique et chimique dont l’irrigation mal pratiquée dans les régions arides ou semi-arides est un des responsables principaux. • Le tassement des sols correspond à la modification des systèmes poreux. Or la porosité gère tout le fonctionnement hydrologique des bassins versants ainsi que les fonctions épuratrices des couvertures pédologiques. Ce rôle de filtre peut être modifié par le compactage causé par l’utilisation d’outils agricoles mal adaptés, le piétinement trop important par les animaux, les irrigations mal conduites, etc. L’étanchéification de la surface due à l’urbanisation et à la mise en place de nouvelles infrastructures 52. R. Dumont, L’Afrique noire est mal partie, op. cit., p. 15. 53. Académie des sciences, Livret sur l’environnement, op. cit.

512

INTRODUCTION AU SIÈCLE DES MENACES

est une des causes principales de la dégradation du sol dans les pays industrialisés. • La désertification décrit la dégradation des terres dans les zones arides et semi-arides sous l’effet des variations climatiques et surtout des activités humaines. Elle se manifeste par la détérioration de la couverture végétale, des sols et des ressources en eau, et aboutit à une diminution ou à une destruction de la capacité des terres à supporter les populations qui y vivent. La croissance démographique apparaît comme un des principaux responsables de la désertification en provoquant la surexploitation des terres, la diminution de la durée des jachères, le surpâturage, l’irrigation qui conduit à la salinisation. LA DÉFORESTATION

Les pays en voie de développement ont perdu 650 000 km2 de forêt entre 1990 et 1996, contre un gain de seulement 90 000 km2 pendant la même période en Europe et dans les territoires de l’ancienne Union soviétique. La diminution de la forêt amazonienne reste la plus forte exprimée en surfaces (plus de 25 000 km2 soit 0,5 % par an), même si le rythme s’en ralentit depuis les années 1980. En Afrique occidentale plus de la moitié, peut-être même 80 %, de la forêt a été détruite en moins de soixante ans. Les défrichements avancent en Asie du Sud-Est, en Indonésie, et aux Philippines à un taux (1,2 à 3,5 % de la surface boisée chaque année selon les pays) qui amènera rapidement à une destruction complète, comme c’est déjà le cas sur certaines îles-nations comme les Comores ou Haïti. La déforestation de la Chine est ancienne. En Amérique du Nord, de grandes étendues ont été déboisées au siècle dernier, mais aujourd’hui la forêt gagne, bien qu’il s’agisse de plantations industrielles. Les forêts tropicales occupent des sols le plus souvent pauvres, et l’exploitation agricole de terres de ce type après leur défrichement donne des résultats toujours médiocres, et souvent désastreux. On le constate en Amérique latine et plus encore en Asie du Sud-Est et en Indonésie. Quant à l’utilisation du bois comme combustible, elle donne lieu à un gaspillage généralisé, partout dans les pays en voie de développement. La quasi-totalité du bois est brûlée lors des défrichements, et peu d’arbres sont replantés. Au Sahel, le Sahara ne s’étend pas de lui-même : ce sont les citadins pauvres qui font le vide. La dimension et la fréquence des feux de forêts augmentent dans toutes les régions tropicales. On estime l’émission de carbone dans l’atmosphère qui en a été la conséquence en 1997-

ÉCRIT SUR LE MUR

513

1998, à 41 % de celle due aux combustibles fossiles54. La seule Indonésie a été responsable, en 1997, de 13 à 40 % de l’émission globale, c’est-à-dire 0,81 à 2,57 Gt de carbone (selon les estimations). La résistance moindre des forêts déjà endommagées et les besoins croissants des essarteurs font craindre aux experts une extension des incendies pantropicaux jusqu’à disparition complète des arbres. La croissance d’une population qui ne peut se nourrir en employant les méthodes traditionnelles et dont les besoins sont donc immédiats, interdit une exploitation rationnelle des ressources qui conserverait le potentiel vivant. Replanter des arbres ne résoudra pas le problème posé à l’atmosphère par la combustion des carburants fossiles. De plus, la disparition des forêts diminue la photosynthèse, c’est-à-dire la capacité d’absorption du CO2 atmosphérique par les plantes. La forêt contribue au fonctionnement du cycle de l’eau, puisqu’elle restitue par évaporation une grande partie de l’eau pompée du sol par la plante qui, sans elle, s’écoulerait et retournerait à l’océan. L’humidité atmosphérique est donc entretenue par la forêt et grâce à elle fournit des précipitations loin de la mer : à mesure que l’on s’enfonce dans le continent en Amazonie, la proportion de pluies ainsi engendrées augmente. Il est possible que la déforestation massive conduise à un dessèchement relatif à l’intérieur des continents tropicaux en Amérique et en Afrique. Enfin, nous avons déjà mentionné l’impact de la déforestation sur la disparition des espèces. De ce point de vue, nous pouvons rapprocher la destruction par l’homme de la diversité spécifique sur les continents, de son action sur les récifs coralliens, en très piteux état depuis dix ans. L’observation de trois cents récifs répartis dans trente et un pays, conduite pendant cinq ans par l’organisation scientifique Reef Check, a montré le déclin des populations d’algues vertes, d’invertébrés et de poissons qui assurent la survie des coraux, ainsi que l’état pathologique de récifs moribonds. Développement côtier, surpêche, pollution et réchauffement des eaux sont parmi les accusés55. LES RISQUES

L’expansion des villes, et, en général, l’occupation des sols se sont poursuivies très rapidement pendant le dernier siècle sans 54. M. A. Cochrane, « Fire Science for Rain Forest », Netwar, 421 (6926), 27 février 2002, p. 913. 55. Elizabeth Pennisi, Science, 297, 6 septembre 2002, 1622.

514

INTRODUCTION AU SIÈCLE DES MENACES

qu’une grande attention ait été prêtée aux risques. Il ne se passe pas de mois en France sans qu’un bâtiment neuf soit emporté par une inondation ou une avalanche, alors que le terrain où il se trouve n’aurait pas dû être utilisé pour bâtir. San Francisco, Tokyo ont été détruites par des tremblements de terre et reconstruites au même endroit, sur des failles actives. Si les pays industrialisés appliquent à la construction les normes sismiques, les pays en développement édifient leurs pustules dans le désordre, le mépris de la sécurité et l’emploi de matériaux inadéquats. Dès l’orée de son peuplement, le bassin méditerranéen a été ravagé par une activité tectonique intermittente qui a contribué à la disparition des villes antiques. De nos jours, l’urbanisation sauvage entasse les victimes de l’exode rural dans des cages en béton qui se transforment en empilement de feuillets dès que la terre tremble. À Izmir en Turquie en 1999 et à Boumerdiene en Algérie en 2003, les habitations à bon marché se sont effondrées sur leurs occupants, tuant chaque fois plus de deux mille personnes pour une intensité Richter inférieure à 6 dans les deux cas. En mai 2003, j’ai vu et entendu dans un reportage transmis en direct à la télévision, un malheureux crier au milieu des ruines : « Je ne comprends pas. L’Algérie, c’est islamique, donc c’est bien ! (sic) Pourquoi n’y a-t-il pas de secours ? » Et depuis la catastrophe, une vague de religiosité submerge le pays. Quarante villes parmi les cinquante dont le taux de croissance est le plus élevé, sont situées dans des zones à tremblement de terre. Beaucoup d’entre elles sont des centres industriels d’importance par rapport aux économies régionale, mondiale et générale. Nombre de séismes ont interrompu le fonctionnement de branches vitales de l’économie, par exemple à Kobe (Japon en 1995) ou à ChiChi (Taiwan en 1999). Le développement des infrastructures rend plus probable de jour en jour, la propagation des conséquences des catastrophes naturelles à des zones très éloignées de l’épicentre56. Nous illustrerons par l’exemple de ChiChi la vulnérabilité systémique engendrée par une réticulation industrielle fortement connectée. Le 21 septembre 1999 à 1 h 47 du matin, un séisme de grandeur 7,6 sur l’échelle de Richter frappe ChiChi, dans l’île de Taiwan, pendant quarante secondes. L’épicentre est situé à 70 km au nord-ouest de ChiChi et à 65 km de Taipei. Les usines qui fabriquent des puces mémoires sont gravement endommagées. Comme elles constituent un maillon essentiel de l’industrie 56. Rapport de l’OCDE, Emerging Risks in the 21 st Century. An Agenda for Action, Paris, 2003, op. cit.

ÉCRIT SUR LE MUR

515

mondiale des ordinateurs, le séisme et la rupture de production qui s’est ensuivie se sont répercutés sur Silicon Valley, et par ricochet un peu partout en aval jusqu’aux institutions publiques et privées du monde entier. Bien que les fabrications ne se soient interrompues à ChiChi que pendant deux semaines, une pénurie globale de mémoires a conduit les grossistes à stocker, multipliant les prix par quatre ou cinq, ce qui a renforcé l’impact global de l’incident. En fait, l’incident de ChiChi peut être qualifié de désastre évité de justesse. Si l’épicentre s’était trouvé à Hsinchu, à 110 km de ChiChi, l’interruption de la chaîne globale aurait duré plusieurs mois au lieu de quelques semaines, car le « parc industriel à base scientifique » de ce site abrite trente sociétés qui fournissent au monde un pourcentage significatif de la fabrication des semiconducteurs et, en général, de la manipulation du silicium. Bien que ces entreprises aient été éloignées du séisme, la rupture d’une ligne électrique à 345 kvolt empêcha l’alimentation du parc pendant plusieurs jours, au coût de 100 millions de dollars par jour. Les effets des sinistres se sont étendus dans le temps et l’espace, et ils touchent plus de richesses. Alors que les pertes d’exploitation résultant de l’arrêt d’une activité représentaient 20 % du coût d’un sinistre industriel il y a une dizaine d’années, la gestion moderne en réseau et à flux tendu les font aujourd’hui monter jusqu’à 40 %. Une importante compagnie de réassurances a écrit57 dans un rapport récent : « L’étendue possible des dommages causés par des catastrophes naturelles extrêmes dans une des grandes métropoles, ou dans un grand centre industriel, a déjà atteint un niveau qui peut entraîner l’effondrement (collapse) du système économique de pays entiers et même peut-être affecter les marchés financiers jusqu’au bout du monde. »

Plusieurs analyses indépendantes font apparaître que la fréquence ou l’intensité des désastres58 naturels tels qu’inondations, tempêtes et sécheresses ont beaucoup augmenté depuis les années 1960. Pendant la dernière décennie du XXe siècle, ils ont tué 79 000 personnes par an et en ont affecté 200 millions. Le coût annuel total est passé de 2 milliards de dollars à 70 milliards 57. Munchen Re-Group, Topics 2000 : Natural Catastrophes. The Current Position 2000 ; cité dans le rapport de l’OCDE, op. cit. 58. Un événement est appelé désastre quand une des conditions suivantes est remplie : dix personnes sont tuées ; cent personnes sont affectées ; l’aide internationale est demandée ; l’état d’urgence est déclaré. Les désastres naturels incluent certains événements touchant la santé comme les famines.

516

INTRODUCTION AU SIÈCLE DES MENACES

de dollars entre les années 1960 et les années 1990. Les victimes sont concentrées dans les pays en voie de développement et les coûts dans les pays développés (plus exactement les coûts pour les compagnies d’assurance). Ainsi, l’ouragan Andrew qui a frappé les États-Unis et les Bahamas en août 1992 a causé 38 morts et 30 milliards de dollars de perte, tandis que le cyclone tropical Gorky a tué 138 000 personnes au Bangladesh en avril 1991 et n’a fait l’objet d’aucun remboursement des compagnies d’assurances. L’industrie des assurances s’attend que cette tendance se développera pendant les prochaines années. Elle estime que les pertes d’Andrew auraient pu être multipliées par cinq si sa trajectoire avait été un tout petit peu différente. D’après l’expérience gagnée lors du séisme de Kobe, un fort tremblement de terre dans le Grand Tokyo entraînerait des dommages compris entre 1 000 et 3 000 milliards de dollars, équivalent à 25-75 % du PIB japonais. En 1999, le « Mandat de Genève59 », clôturant la Décennie internationale pour la réduction des désastres naturels organisée par les Nations unies, a contenu la déclaration suivante : « Le monde est menacé de plus en plus par des désastres à grande échelle déclenchés par les risques naturels. Ils auront des conséquences négatives à long terme sur nos sociétés, sociales, économiques, et environnementales, et affaibliront notre capacité à garantir un développement durable. »

Les désastres technologiques tels qu’explosions, incendies, et accidents de transport ont eux aussi beaucoup augmenté depuis les années 1970. Le nombre de victimes et les coûts restent très inférieurs à ceux causés par les désastres naturels, à l’exception de quelques événements de taille anormale, comme la collision de bacs aux Philippines en 1987 (4 375 victimes), l’explosion le 3 décembre 1984 de l’usine chimique de Bhopal (3 800 victimes), l’accident de Tchernobyl en 1986 (au moins 350 000 personnes affectées, dont 31 morts officiels, des pertes économiques dont l’estimation varie entre 3 et 500 milliards de dollars), l’incendie de la plate-forme de forage Piper Alpha au Royaume-Uni (167 victimes, 3 milliards de dollars de pertes assurées), le naufrage du navire Joola entre la Casamance et Dakar le 27 septembre 2002 (1 863 disparus). Nous n’entrerons pas dans la discussion de la pollution d’origine industrielle ou agricole dont les épisodes récurrents entraînent souvent des paniques locales, entretenues par les médias ou les altermondialistes. Elles s’apparentent à une gêne, souvent dangereuse, et non à un péril de grande ampleur. 59. IDNR International Program Forum, 1999.

517

ÉCRIT SUR LE MUR

Désastres naturels

Désastres technologiques

Figures 1 et 2 Nombre d’événements 400

400

350

350

300

300

250

250

200

200

150

150

100

100

50 0

50 1950

1960

1970

1980

1990

0

1950

1960

1970

1980

1990

1970

1980

1990

1980

1990

Figures 3 et 4 Victimes (en milliers) 1000 800

12 1957 1959 1260 2018

10 8

600

6 400

4

200 0

2 1950

1960

1970

1980

1990

0

1950

1960

Figures 5 et 6 Coûts financiers (en milliards de dollars) 100 90 80 70 60 50 40 30 20 10 0

14 1995 190

12 10 8 6 4 2

1950

1960

1970

1980

1990

0

1950

1960

1970

Évolution des désastres60 60

La croissance du nombre des désastres répertoriés n’est pas due à une meilleure appréhension des événements, mais traduit l’influence de l’urbanisation et de la pustulation, peut-être aggravée par le changement climatique. Le rapport de l’IPCC montre en effet que les coûts occasionnés par les « événements météorologiques extrêmes » connaissent une croissance rapide. Les pertes annuelles sur le plan mondial dues aux changements dans les précipitations, les inondations et les sécheresses ont été 60. Source OFDA-CRED International Data Base, in Rapport de l’OCDE, op. cit.

518

INTRODUCTION AU SIÈCLE DES MENACES

multipliés par dix entre les 3,9 milliards de dollars annuels pour la décennie 1950 et les 40 milliards de dollars annuels pour la décennie 1990 (exprimés en dollars 1999). L’IPCC estime que l’augmentation des pertes causées par des événements météorologiques correspond à ce que l’on devrait attendre d’un changement climatique. La forte pente des courbes laisse imaginer que les conditions socio-économiques actuelles préparent des désastres de plus en plus coûteux. Le prix des réparations atteindra bientôt des pourcentages non négligeables des PIB nationaux, et cette évolution entraînera des dépenses supplémentaires d’énergie qui à leur tour accéléreront le mouvement. On reconnaît l’amorce d’un processus exponentiel.

L’alimentation des hommes LA PRODUCTION

La sélection des semences, l’amélioration génétique, l’utilisation plus efficace des engrais azotés, l’emploi de nouvelles pratiques culturales ont partout accru le rendement des récoltes. De 1950 à 2000, la production mondiale de céréales est passée de 600 à 1 900 millions de tonnes, soit environ 250 kg par tête, accroissement plus rapide que celui de la population. On estime, en Europe, que les rendements moyens augmentent chaque année d’un quintal par hectare pour les céréales. Entre 1961 et 1998, les rendements moyens dans les pays en développement, à l’exclusion de la Chine, sont passés, d’après la FAO, de 1 à 2,1 tonnes de blé par hectare, de 1,5 à 3 tonnes de riz paddy par hectare, de 1,1 à 2,1 tonnes de maïs. En moyenne, la productivité céréalière a plus que doublé. Pour les autres productions agricoles (oléagineux, racines, pois, fruits…), la progression est encore plus forte. Au total, de 1961 à 1998, la production agricole mondiale a augmenté de 2 % par an ; il y a là une coïncidence (fortuite ?) avec le taux d’augmentation de la consommation en combustibles fossiles. La production agricole mondiale est aujourd’hui suffisante pour nourrir tous les hommes. Depuis le début des années 1960, le pourcentage des personnes souffrant de la faim dans le monde, est passé en 1995, toujours selon la FAO, de 50 % à 20 %. La famine serait-elle vaincue par la révolution verte ? Les antimalthusiens triomphent.

ÉCRIT SUR LE MUR

519

LA CONSOMMATION

Produire n’est pas consommer ! En 1994-1996, la disponibilité alimentaire par tête dans le monde atteignait 2 720 calories par jour, ce qui suffit à un adulte. La FAO estime cependant que si le nombre d’humains souffrant de sous-alimentation chronique a diminué de trente-sept millions entre 1990 et 1995, il en reste encore 840 millions en état de famine, alors que deux milliards sont touchés par des carences. Loin de diminuer, leur nombre recommence à augmenter : depuis 1995-1997 plus de dix-huit millions de personnes sont venues s’ajouter au rang des affamés61. Les progrès enregistrés dans un petit nombre de pays, comme la Chine (aujourd’hui stagnante), sont accompagnés par la dégradation constante de la situation dans 47 pays situés au bas de l’échelle. Pour les productivistes, le dénuement d’un milliard d’êtres humains démontre qu’il faut continuer dans la voie tracée pendant le dernier demi-siècle : augmentons la production et ouvrons encore plus les marchés ! La demande alimentaire croîtra de 1,3 % par an entre 2010 et 2025, mais pour atteindre un niveau de satisfaction de 2 700 calories par tête, les consommations en Afrique subsaharienne et en Asie du Sud-Est devront augmenter respectivement de 4,9 % et 2,2 % par an : les importations des pays en développement devront croître. Il suffira aux grands exportateurs actuels, l’Amérique du Nord et du Sud, l’Europe, l’Australie, d’augmenter leur production de 1 % par an entre 2000 et 2030… Un tel raisonnement ne correspond en rien à la réalité, dominée par une autre dynamique, l’existence de gradients. L’Afrique subsaharienne détient le record du plus grand nombre de pays frappés par la sous-alimentation, avec 30 des 50 pays recensés par la FAO où le pourcentage des mal nourris se situe entre 20 % et 75 % de la population totale. Dans pas moins de sept pays subsahariens, le Lesotho, le Malawi, le Mozambique, la Somalie où le taux atteint 75 %, le Swaziland, la Zambie et le Zimbabwe, plus de la moitié de la population se trouve en état de sous-alimentation. En ce dernier pays, l’expropriation, par le président Robert Mugabé, des terres appartenant aux agriculteurs blancs, accompagnée de sécheresses exceptionnelles, a provoqué un tel effondrement de la production céréalière que la moitié de la population dépend aujourd’hui de l’aide internationale, alors que le pays 61. Rapport annuel sur l’insécurité alimentaire dans le monde, FAO, 25 novembre 2003.

520

INTRODUCTION AU SIÈCLE DES MENACES

nourrissait ses voisins quand il s’appelait encore Rhodésie. On classe dans l’ordre après la Somalie, le Burundi (66 %), la république démocratique du Congo (64 %), l’Abyssinie (58 %), l’Érythrée (57 %), le Mozambique (54 %) et l’Angola (51 %). Le problème de la famine a changé de nature depuis les années 1960. Au moment de l’indépendance la malnutrition prenait sa source dans le sous-développement, qui se concrétisait entre autres effets par l’inadéquation de la lutte contre la sécheresse, l’exploitation des cultures d’exportation au détriment des vivrières, une politique de prix favorisant les citadins. À ces causes qui n’ont pas disparu s’est ajoutée une formidable synergie avec les conflits armés d’une part et le sida de l’autre. Délaissée par le monde développé après la chute du mur de Berlin, une bonne moitié de l’Afrique est dévastée par des « guerres d’écorcheurs » dont l’exemple le plus sanglant, le pillage du Congo exbelge par le Rwanda et l’Ouganda, a entraîné trois millions de morts depuis 1998, alors que l’autre moitié est livrée à l’anarchie et à l’épidémie62. Il serait tentant d’attribuer le désastre à des causes sociopolitiques endogènes, en suivant une présentation pathétique de l’« Afrique suicidaire » par Jean-Paul Ngoupandé, ancien Premier ministre centrafricain63. « Aujourd’hui les États sont liquéfiés dans la plupart de nos pays, les gardes prétoriens et les milices politico-ethniques ont supplanté l’armée, la police et la gendarmerie qui ne sont plus que les ombres d’elles-mêmes. L’insécurité s’est généralisée, nos routes et les rues de nos villages sont devenues des coupe-gorge […]. La tragédie du sida nous rappelle dramatiquement qu’avec des administrations efficaces et responsables nous aurions pu endiguer le fléau à ses débuts […]. L’appauvrissement des États pris en otage par des coteries, la proportion des dirigeants à se préoccuper essentiellement de leur sécurité et des moyens de conserver le pouvoir, tout cela a conduit au naufrage de l’éducation un peu partout […]. Il faut que nous acceptions désormais d’assumer : nous sommes les principaux coupables. »

Les traits de ce tableau ne sont pas forcés. Incapables d’exploiter les richesses de leur sous-sol et le potentiel de leur nature exubérante, les Africains se recroquevillent dans une contraction dévastatrice de leur passé tribal et de leur présent mondialisé. Ils s’entre-tuent et accusent les ex-puissances coloniales, comme leurs voisins, de complots et d’agressions en se réfugiant dans le mythe de l’éternelle victime, sans oser critiquer les concepts à la mode de négritude ici, là d’ivoirité, ou remettre en 62. Stephen Smith, Négrologie, Paris, Calmann-Lévy, 2003. 63. Le Monde, 18 mai 2002.

ÉCRIT SUR LE MUR

521

cause leur pseudo-paternalisme autoritaire qui ne se fait pas faute d’opprimer les minorités. On retrouve chez les Africains à 1 dollar le comportement des Arabes, eux aussi peuple à 1 dollar. L’avenir est sombre car, si la moitié des Africains a moins de 25 ans, un quart seulement des écoliers parvient à l’issue du cycle élémentaire. En dépit des fléaux qui l’accablent, l’Afrique comptera dans quarante ans deux fois et demie le nombre d’habitants de l’Europe. Que mangeront-ils ? À quel moment Netwar entrerat-elle dans leur culture ? Les griefs qu’ils nourrissent confusément contre les gens à 50 dollars ne sont pas infondés. En réalité la famine n’est pas qu’africaine. Avec sept pays, dont le Venezuela et le Honduras (21 %), l’Amérique latine et les Caraïbes présentent certes un tableau un peu moins sombre, tandis que pour l’ensemble du continent asiatique, les populations de dix pays sont affamées, avec au premier rang l’Afghanistan, puis la Mongolie (42 %) et la Corée du Nord (40 %). Les trois quarts des personnes qui ne mangent pas à leur faim sont des ruraux, des paysans qui vivent là où se trouvent les richesses naturelles, l’eau, les forêts, les minéraux, les ressources animales et végétales, et pourtant ce sont elles qui souffrent le plus. Les pays riches portent une grave responsabilité dans la paupérisation des petits cultivateurs dans les pays sous-développés. Les soutiens qu’ils prodiguent à leurs propres agriculteurs atteignent 1 milliard de dollars par jour et permettent à ceux-ci de vendre sur le marché mondial leurs produits à un prix inférieur au coût de production, et en même temps de fermer leur marché aux importations. Le FMI a exercé des pressions sur des pays d’Afrique, pour qu’ils libéralisent leur économie par des mesures telles que la réduction des stocks, le démantèlement des offices de commercialisation et la suppression des subventions agricoles. Il en est résulté l’effondrement de la production céréalière en l’absence de prix garantis, puisque le paysan ne gagnait plus assez pour payer les engrais et les autres intrants agricoles. Le prix des céréales est moitié moindre aujourd’hui que pendant les années 1980 : il a été divisé par cinq depuis 1950. Seuls 10 % des agriculteurs du monde peuvent investir et se maintenir au niveau. L’écart de productivité entre les paysans évolués et ceux à 1 dollar a été multiplié par cent en cinquante ans. Les multinationales agroalimentaires ont financé une production de type industriel notamment dans les latifundia d’Amérique latine et les anciens kolkhozes d’Ukraine et, bénéficiant de bas salaires, créent une offre massive qui pèse sur le cours international. Prenons l’exemple du maïs. Entrant à l’OMC en 1995, le gouvernement des Philippines a adopté le libre-échange de la globali-

522

INTRODUCTION AU SIÈCLE DES MENACES

sation et ouvert son marché au commerce international. Tablant sur le faible coût de sa main-d’œuvre, il croyait entraîner la création annuelle d’un demi-million d’emplois. L’expérience a montré que quelle que soit la modicité du salaire qu’ils acceptent, les travailleurs philippins ne peuvent lutter contre les produits des pays industrialisés soutenus par les droits de douane et les subventions. Les Philippines ont perdu depuis 1995 plusieurs centaines de milliers d’emplois de paysans et leur modeste surplus commercial du début des années 1990 a disparu. L’île de Mindanao qui produit les deux tiers du maïs philippin gémit désormais sous les exactions de guérilleros, soit communistes, soit islamistes fondamentalistes, chassés de leurs champs par la misère. Leurs liens supposés avec Al-Qaida ont conduit le président Bush II à la considérer comme un champ de bataille du terrorisme. Les paysans philippins craignent les rebelles, mais pour eux le véritable malheur vient des producteurs américains qui ont reçu 345 milliards de dollars de subventions depuis 1995, grâce auxquelles ils exportent leur maïs aux deux tiers de son coût de revient. Pour illustrer quantitativement le mécanisme qui ruine l’agriculture du tiers-monde, nous comparerons64 le sort des producteurs de coton à Korokoro (Mali) et à Gunnison (Mississippi). Les vingt-cinq mille producteurs du Mississippi, dotés de 3,4 milliards de dollars de subventions fédérales, touchent un prix garanti de 1,50 dollar le kilo et ont engrangé en 2001 une récolte record de 4,38 milliards de kilos, qui a rapporté un bénéfice de 3 milliards de dollars aux possesseurs de 500 000 hectares. La moitié en a été jetée sur le marché mondial, car l’industrie textile est en perte de vitesse dans le delta du Mississippi. Les forces du marché ont fait tomber le prix du kilo de coton à 88 cents. Au Mali, à cause de la chute des cours entre 2001 et 2002, l’établissement public qui gère la filière coton, la CMDT (Compagnie malienne pour le développement du textile) a déclaré à ses producteurs qu’ils gagneraient 10 % de moins cette dernière année. Ils toucheront 25 centimes le kilo alors que le prix de l’engrais est passé de 3 à 4 centimes le kilo. Une des plus grandes exploitations du Mali (20 hectares) fait vivre 86 personnes qui produisent 40 tonnes de coton. Je calcule donc leur revenu à 0,32 dollar par jour. Le propriétaire ne sait où trouver l’argent nécessaire à l’achat d’un soc neuf pour l’année prochaine. 64. Roger Thurow et Scott Kilman, « U.S. Subsidiaries Create Cotton Glut that Hurts Foreign Cotton Farms », The Wall Street Journal, 26 juin 2002. La lecture de cet admirable article est recommandée.

ÉCRIT SUR LE MUR

523

La CMDT est, elle aussi, sans le sou. Elle fait vivre trois millions de personnes sur les onze millions que compte le pays. La récolte record en 2001 de 200 millions de kilos ramassée sur 500 000 hectares n’a fait qu’aggraver ses pertes, puisque le coton malien revient plus cher que le prix mondial. Un planteur américain de Gunnison qui a reçu une subvention de 750 000 dollars pour la production de ses 4 000 hectares, offre le commentaire suivant : « Peut-être que ce sont les paysans d’Afrique qui ne devraient pas cultiver de coton. Le delta a besoin des planteurs de coton et ils ne peuvent exister sans subventions. »

Le gouvernement des États-Unis a trouvé une solution pour nourrir les affamés du tiers-monde : leur vendre des semences OGM mises au point par Monsanto. L’UE a établi un moratoire sur les OGM, tant que leur caractère inoffensif sur la biosphère n’est pas prouvé. Plusieurs pays africains ont imité ce comportement. Le 13 mai 2003, les États-Unis ont annoncé qu’ils présenteraient une plainte à l’OMC contre ce moratoire. Le 20 mai suivant, le président Bush II a accusé l’UE d’affamer l’Afrique en bloquant les importations américaines de biosemences au rendement agricole élevé. Son représentant pour le commerce international Robert Zoellick a traité la politique européenne d’immorale, déloyale et luddite (d’après Ned Ludd qui s’est fait connaître en Angleterre au début du XIXe siècle pour sa lutte contre le machinisme). En réalité, les rendements des semences OGM sont légèrement inférieurs à ceux des semences non modifiées, parce que les changements génétiques ont porté sur la résistance aux pesticides et non sur le rendement. De plus, leur adaptation aux conditions climatiques africaines n’a fait l’objet d’aucune optimisation. L‘avantage apporté par l’emploi des semences américaines consiste en ce que l’on peut utiliser encore plus de Roundup au grand bénéfice de Monsanto. Alors, en effet, le rendement augmente. L’opération se traduit par le triomphe de lignées uniques, dont l’approvisionnement est contrôlé par les États-Unis, au détriment de la diversité végétale sur laquelle reposent les agricultures traditionnelles. En outre les semences modifiées, plus chères que les naturelles, sont brevetées et appartiennent aux entreprises de biotechnologie : les paysans ne peuvent pas les garder pour planter l’année suivante. L’agribusiness américain a tous les droits. Dans le Chiapas au Mexique, le gouvernement a encouragé Monsanto à échanger ses semences hybrides de maïs au rendement supposé meilleur contre les semences appelées « criolla », localement utilisées depuis des générations, dans un programme

524

INTRODUCTION AU SIÈCLE DES MENACES

appelé « kilo pour kilo ». En fait les lignées OGM exigent plus d’engrais et perdent leurs qualités après la première année ; mais les difficultés des paysans n’ont vraiment pas de rapport avec les améliorations supposées du rendement : depuis l’entrée en vigueur de l’accord Alena de libre-échange, signé en 1994 par les États-Unis, le Canada et le Mexique, l’importation de maïs américain subventionné a fait baisser le prix de vente de 70 %. Le revenu du paysan est tombé à 50 pesos par jour et par famille (3 dollars). D’où le zapatisme. Nous retrouvons le problème des Philippines… et d’ailleurs. La conférence de l’OMC a réuni les délégués de ses 146 États membres à Cancún au Mexique du 9 au 15 septembre 2003. Son déroulement paisible malgré les menaces proférées par quelques animalcules de l’altermondialisme, a démontré que la force de Netwar réside principalement dans l’effet de surprise. Les ÉtatsUnis, l’Europe et le Japon n’ont rien cédé dans les négociations sur le commerce agricole65. Il est inutile de clamer qu’une augmentation de 1 % de la part africaine dans les exportations mondiales procurerait aux populations subsahariennes 70 milliards de dollars par an, c’est-à-dire cinq fois l’aide qu’ils reçoivent, car il n’existe aucune possibilité politique de modifier la situation : les lobbies de producteurs dans les pays industrialisés occupent des bastions imprenables. L’OCDE a beau affirmer que les prix de gros sont plus élevés de 45 % dans l’UE qu’ils seraient en l’absence de politique agricole commune, ou de 11 % aux États-Unis sans l’intervention de l’État fédéral, Jacques Chirac et George W. Bush veillent au grain. En compensation de concessions éventuelles, les sous-développés n’ont rien à offrir que leurs cris. L’OMC est, dans l’état actuel du monde, une structure de négociations internationales ingérable. La porte est ouverte à la conclusion d’accords bilatéraux où les pays pauvres devront passer sous les fourches caudines des pays riches, et leur situation ne peut que s’aggraver. Signalons en conclusion de nos remarques sur la faim que le problème se déplacera des campagnes vers les villes avec l’exode rural en cours dans les pays sous-développés. La pustulation crée le phénomène des zones urbaines affamées par la guerre comme Monrovia ou Mogadiscio, en même temps que s’effondrent les appareils d’État en Somalie, au Soudan, au Liberia, en Afghanistan ou en Irak. L’action en faveur de centaines de milliers de personnes enfermées dans des mégapoles sans ressources, frappées 65. Rédigé en août 2003, avant l’ouverture de la conférence ! Et vérifié exactement par l’événement.

525

ÉCRIT SUR LE MUR

par la maladie, devient une forme de l’aide humanitaire d’urgence mais dépasse les moyens des ONG classiques, telles que les « French Doctors ». Les ONG qui occupent désormais le terrain sont de lourdes machines qui pensent surtout à se perpétuer ellesmêmes, en concurrence les unes avec les autres, sans évaluation de leurs programmes, protégées par l’opacité volontaire de leurs mécanismes de fonctionnement et des sources de leur financement. Leur action se situe dans le bruit de fond de l’évolution générale, même si parfois elle soulage des malheureux. LE

« DÉVELOPPEMENT

DURABLE

»

En 1987, la Commission de l’environnement et du développement des Nations unies, présidée par Gro Harlem Brundtland, a introduit la notion de développement durable, c’est-à-dire une gestion des ressources planétaires qui répondrait aux besoins du présent, sans compromettre la capacité des générations futures à assurer les leurs. L’inquiétude soulevée par les tendances mondiales à la surexploitation des milieux naturels, à un mode de production fondé sur la rentabilité à court terme et au gaspillage de l’énergie, a conduit, en 1992, à réunir à Rio de Janeiro un sommet de la Terre, où 117 chefs d’État se sont engagés à limiter les effets néfastes de l’économie mondiale sur l’environnement, grâce principalement à deux conventions portant, l’une sur le changement climatique (elle a débouché en 1997 sur le protocole de Kyoto), l’autre appelée Agenda 21 sur la réduction de la pauvreté. Depuis Rio, les émissions mondiales de CO2 ont augmenté de 10 %, et, entre autres, de 18 % aux États-Unis qui rejettent le protocole de Kyoto. Depuis Rio, le programme Agenda 21 n’a reçu pratiquement aucun financement. Plus de 180 pays avaient promis de protéger la biodiversité, mais la destruction des forêts tropicales et des récifs coralliens s’accélère, alors que seulement 40 pays ont adopté une stratégie de conservation… et que l’industrie forestière globale reçoit 35 milliards de dollars par an de subventions. Afin de promouvoir le développement, les chefs d’État avaient promis à Rio d’augmenter leur aide aux pays pauvres de 0,33 % de leur PIB à 0,7 % en 2002. Le chiffre réel en 2002 est de 0,2 % et correspond d’après l’OMC à une somme de 57 milliards de dollars en 2001, alors que les subventions des pays développés à leurs agriculteurs dépassent 310 milliards de dollars pour la même année. S’ajoutent aux barrières protégeant les pays industrialisés contre les pays en voie de développement, les droits de douane estimés à 100 milliards de dollars. Aujourd’hui 80 pays ont des revenus par tête inférieurs à leur valeur de 1992.

526

INTRODUCTION AU SIÈCLE DES MENACES

Le diagnostic a été établi avec clarté par quinze académies des sciences, réunies à New Delhi du 24 au 27 octobre 1993 en un sommet de la Science sur la population mondiale. Le groupe a publié un document ultérieurement signé par les représentants de 57 académies avec la conclusion suivante : « L’humanité s’approche d’une crise créée par le couplage des problèmes de la population, de l’environnement et du développement. La science et la technologie ne peuvent produire que des outils et des idées pour l’action et le changement social ; les gouvernements et les décideurs tiennent la clé de notre futur. Nous leur demandons de s’engager dès maintenant dans une action vigoureuse et d’adopter une politique intégrée à l’échelle globale sur la population et le développement durable. »

Peut-être aiguillonnés par le retentissement de ce genre de déclaration, les chefs d’État et de gouvernement, réunis à Rome en 1996 sous l’égide de la FAO, se sont engagés à réduire le nombre de pauvres d’un facteur deux en vingt ans, avec un taux annuel d’accroissement du revenu de 3,3 % par personne. Le revenu par habitant des pays en développement atteindrait 6 300 dollars en 2050, c’est-à-dire un tiers de celui des pays industrialisés aujourd’hui. Alors que, pour respecter l’engagement précédent, le nombre de pauvres devrait baisser de 22 millions chaque année, le rythme en 2002 n’a atteint que 6 millions (contre 8 millions en 1999). À cette vitesse, le but serait atteint en 2060 et non en 2015. L’éradication de la pauvreté est un objectif absurde car sa réalisation ferait peser sur l’environnement des risques énormes : nous ne savons et nous ne saurons pas gérer l’urbanisation, la pénurie d’eau, l’accroissement des émissions de gaz carbonique, la diminution des terres cultivables. Le concept de développement durable est fondamentalement incohérent, car les objectifs du développement et ceux de la conservation sont antagonistes. Les ressources sont finies. Comment programmer, sans imposer de sanctions, des actes mondialisés qui obligeraient les États vertueux à des sacrifices inacceptables politiquement et économiquement, et pourtant vains dès lors que les contrevenants gardent le champ libre ? Qui arrêtera les centaines de millions de cultivateurs sur brûlis dans le Sud, et les centaines de millions d’automobilistes dans le Nord ? Le fossé s’élargit entre les discours et les faits, vidant de sa substance la notion de développement durable. Une preuve spectaculaire en a été donnée en septembre 2002, par la célébration à Johannesburg d’une grand-messe visant à égaler celle de Rio. Au sommet mondial pour le Développement durable se sont

ÉCRIT SUR LE MUR

527

rencontrées (vous n’allez pas le croire) 65 000 personnes venues de 150 pays, dont 20 000 délégués, 45 000 représentants de la société civile et 500 journalistes. Tout en faisant déclarer par son envoyée Paula Dobriansky, sous-secrétaire d’État pour les Affaires globales : « Les États-Unis sont le leader mondial du développement durable. Aucun pays n’y a contribué davantage », le président Bush II a été le seul chef d’État important à bouder le Sommet. On peut le comprendre. L’UE souhaitait imposer un plan avec des objectifs et un calendrier contraignants ; les États-Unis, le Canada, l’Australie, l’Arabie Saoudite n’en voulaient pas. Et ces messieurs se sont séparés après avoir adopté des directives non assorties de dates, de chiffres, d’objectifs, ni de contraintes ; l’Agenda 21 restera lettre morte. D’après un participant, le Sommet n’était pas Rio plus dix mais Rio moins dix. Les deux États qui fournissent l’aide la plus importante en valeur absolue, le Japon et les États-Unis, se retrouvent derrière tous les autres en ce qui concerne l’indice d’engagement pour le développement (IED66) utilisé par le Center for Global Development et la revue Foreign Policy. Un tel classement fait justice des allégations du président Bush II. En l’absence d’un gouvernement mondial, que personne ne considère comme une option, la panacée de tous les discoureurs consiste à affirmer sans preuve que des percées technologiques permettront la production illimitée d’énergie, l’avènement de l’agrobiologie, qui ira chercher de l’eau quelque part, et la maîtrise des climats. CONCLUSION

En juin 2002, la FAO a organisé à Rome une nouvelle conférence des chefs d’État pour relancer l’aide aux affamés promise en 1996. Les délégués, après avoir approuvé une déclaration sans force intitulée « Alliance internationale contre la famine », se sont quittés satisfaits d’eux-mêmes, non sans susciter une profonde déception chez les quelque six cents ONG réunies en même temps pour un forum sur la souveraineté alimentaire. Ndiougou Fall, responsable du réseau des organisations paysannes et de production d’Afrique de l’Ouest (Rappa) a bien résumé la situation : « Les pays riches pensent que la libération des marchés peut 66. L’indice de l’engagement pour le développement (IED) vise à mesurer la contribution de 21 États au développement des pays pauvres. La note globale de chaque pays est la moyenne des notes obtenues dans chacune des six catégories définies. Le mode de calcul détaillé est disponible (en anglais) sur www.foreignpolicy.com.

528

INTRODUCTION AU SIÈCLE DES MENACES

résoudre le problème, mais nous avons des difficultés à vendre nos produits sur nos propres marchés. » Et ne cite-t-on pas le cas du poulet sénégalais produit dans de misérables basses-cours locales, éliminé du marché par les blancs découpés importés des États-Unis ! Nous retiendrons le message envoyé par Sa Sainteté Jean-Paul II à la Conférence : « Les raisons pour lesquelles l’objectif de réduire la faim n’a pas été atteint sont l’inertie, l’égoïsme et l’emprise sur les relations internationales d’un pragmatisme dénué de tout fondement éthique et moral. »

Les raisons données par le pape ne s’appliquent pas seulement à la réduction des famines : elles sous-tendent le comportement de l’homme vis-à-vis de la biosphère. Et dans cette veine, une remarque du philosophe américain Erikson67 me vient à l’esprit : « La possibilité d’une destruction de l’espèce crée pour la première fois une nécessité de l’éthique de l’espèce. »

Adressons-nous pour réfléchir à l’éthique nécessaire, non à un clerc, qui aurait sûrement déjà réussi si la tâche était possible, mais à notre ami le planteur du Mississippi, l’Ingénu qui a émis l’idée la plus profonde de ce chapitre : « Peut-être que les paysans africains ne devraient pas cultiver de coton. » Voyez la philosophie de l’homme à 2 000 dollars par jour, retranché dans la forteresse Amérique derrière sa défense antimissiles et ses subventions. En 2025 il sera encore plus puissant ; le PIB par tête aura chez lui doublé. Les États-Unis produiront encore plus d’excédents pour l’exportation, car le rendement à l’hectare aura augmenté de 50 %. Le leadership américain sera plus que jamais assuré par la technologie, le système universitaire, la qualité de la main-d’œuvre et la puissance financière. Sa ponction sur les ressources planétaires aura crû. Plus que jamais centré sur leur bienêtre national, les États-Unis maîtres du monde n’engendreront pas l’éthique dont rêve le pape Jean-Paul II. L’Europe les émule en protectionnisme agricole, peut-être même les dépasse. Et que restera-t-il à l’homme à 0,32 dollar si on lui enlève son coton et son poulet ? Un cutter peut-être. Dans son livre68 publié pendant la campagne électorale de 1992, le sénateur Al Gore, qui devait être élu aussitôt vice-président des États-Unis, analysait les problèmes mondiaux de l’environnement. L’ouvrage, qui m’avait été recommandé par mon ami 67. Erik H. Erikson, Insight and Responsibility, New York, W.W. Norton, 1964. 68. Al Gore, Earth in the Balance, Boston, New York, Londres, Houghton Mifflin, 1992.

ÉCRIT SUR LE MUR

529

Mike Mc Elroy, professeur à Harvard et guru scientifique de Gore, me tomba des mains quand j’abordai l’essentiel, c’est-à-dire les propositions d’action politique. La solution proposée se réduisait à l’établissement d’un « plan Marshall global » dont les ÉtatsUnis exerceraient le leadership. Son objectif serait « d’établir, surtout dans le monde en développement, les conditions politiques et sociales les plus aptes à l’émergence de sociétés sustainables. On aura compris que le Mali menace l’environnement mondial plus que les autres pays. La stratégie Gore reposait sur cinq axes : la stabilisation de la population mondiale (sous la direction des États-Unis ?), le développement de technologies (les exportations des États-Unis, comme les médicaments, seraient structurées par l’altruisme ?), l’adaptation des règles économiques (avec une restriction de la circulation automobile aux États-Unis ?), la promotion d’accords internationaux à la défense de l’environnement (voir le soutien apporté par les États-Unis au protocole de Kyoto…) et un programme d’observation satellitales Mission to Planet Earth (qui fera diminuer la consommation de pétrole ?). Voilà ce que nous pouvons espérer au mieux de la classe politique. Peu de chose, sinon rien, n’a subsisté de ces propositions dans l’œuvre réalisée du vice-président Gore après huit ans au gouvernement, et nous renverrons dos à dos comme aussi impuissants les uns que les autres, les politiciens qui agitent les bras sur les tréteaux et les excités altermondialistes, bien nourris, roses et gras, persuadés qu’ils sauvent le monde en vociférant dans les rues, tapant sur les flics et cassant des vitrines. Devant la course faustienne à l’abîme, une vieille plaisanterie remonte à la plume : « Arrêtez le monde, je veux descendre ! »

FUIR

À l’entrée du XXIe siècle, un regard froid porté sur la nature exponentielle de l’évolution technique et sur ses conséquences économiques, politiques et culturelles nous permet de formuler une prédiction plausible : l’humanité ne persévérera pas dans la voie où elle s’est engagée depuis la découverte du principe de la dynamique par Isaac Newton. Les mots employés il y a une cinquantaine d’années par John von Neumann1 pour évoquer un futur encore lointain pour lui, s’appliquent aujourd’hui avec une saisissante actualité : « Le progrès toujours accéléré de la technologie et les changements dans les modes de vie donnent à penser que nous nous approchons d’une singularité essentielle dans l’histoire de l’espèce, au-delà de laquelle les affaires humaines telles que nous les connaissons ne pourront pas continuer. »

Dans le langage des mathématiques le mot singularité définit un point d’une fonction où elle présente une discontinuité, où ses dérivées n’existent pas, bref où l’on ne peut rien dire sur son comportement. Appliquée à l’histoire, la notion correspond à la présence d’un horizon derrière lequel l’imagination s’arrête, les modèles perdent leur pertinence et une autre réalité remplace l’ancienne. Si son occurrence paraît inéluctable dans le siècle qui commence, la nature de la singularité se laisse conce1. Stan Ulam, « Tribute to John von Neumann », Bulletin of the American Mathematical Society, 64, n° 3, mai 1958, p. 149.

532

INTRODUCTION AU SIÈCLE DES MENACES

voir de différentes façons selon que l’on vit avec 50 ou avec 1 dollar par jour. Pour ceux qui vivent avec plus de 50 dollars, en particulier les professeurs, les chercheurs et les industriels américains qui constituent le moteur du Moteur, la technologie se trouve au moment d’engendrer une révolution comparable à l’émergence préhistorique de l’homme, à savoir la création d’une intelligence superhumaine. Afin d’atteindre ce but, elle emprunte plusieurs chemins : l’augmentation des performances des ordinateurs, le progrès de l’intimité entre l’homme et la machine, l’appel aux modèles biologiques et aux ressources de la génétique, et enfin le développement de la nanotechnologie. La plupart des spécialistes suivent Hans Moravec2 pour estimer qu’en 2020-2030 des ordinateurs d’une puissance équivalente à celle d’un cerveau humain seront disponibles sur le marché. Il suffira d’une vingtaine d’années pour les perfectionner jusqu’au niveau de la Singularité. « Définissons une machine ultra-intelligente comme capable de surpasser les activités intellectuelles de tout homme, quelque intelligent qu’il soit. Comme la conception des machines est une de ces activités intellectuelles, une machine ultra-intelligente pourrait concevoir des machines encore meilleures : il se produirait alors une explosion d’intelligence qui laisserait celle de l’homme loin derrière. Donc la première machine ultra-intelligente est la dernière invention dont l’homme aura besoin, à condition que la machine soit assez intelligente pour nous dire comment la maîtriser. La probabilité qu’une machine ultra-intelligente sera construite au XXIe siècle est plus grande que la probabilité qu’elle ne le sera pas3. »

Les critiques de ces idées estiment que la puissance du cerveau est bien supérieure à ce que croient les informaticiens, que nous ne serons pas capables d’automatiser le travail de conception des machines, ni de développer des logiciels imitant, même de très loin, le fonctionnement des synapses et que donc l’explosion qui est l’essence de la Singularité ne se produira pas. Ces critiques ne voient peut-être pas que l’innovation ne viendra pas tant du hardware et du software que de la troisième dimension de l’informatique, à savoir la mise en réseau. Aujourd’hui les esprits, isolés, incapables de mutation sont connectés par des liaisons ténues, à faible bande passante. Les avances décisives se feront dans le domaine des interfaces et des réseaux, par augmentation de la connectivité, de la largeur de bande, de la taille des archives et des banques, de la vitesse de calcul. Si l’instauration, 2. Voir p. 49. 3. I. J. Good, « Speculations Concerning the First Ultra-intelligent Machine », Advances in Computer, New York, Academic Press, vol. 6, 1965, p. 31-88.

FUIR

533

déjà en route, de supergrids4, recèle un potentiel explosif, les percées viendront de la création de systèmes composites imités des organismes vivants. La manipulation des génomes et des organismes entrera dans les mœurs ; des morceaux d’ego seront copiés ou échangés, et se révéleront malléables en fonction de la bande et de la connexion. La Singularité consistera en la mise en réseau de toutes les machines et de tous les cerveaux pour constituer la « machine ultra-intelligente » qui prendra le pouvoir. Le scénario qui confie à Silicon Valley la paternité de la Singularité ne tient aucun compte du milliard de gens à 1 dollar. Pendant que les gens à 50 dollars travaillent à la machine ultraintelligente, les gens à 1 dollar vivent sur une autre planète, y souffrent et y travaillent à d’autres machines. Plus conscients chaque jour, grâce à la mondialisation, de la distance qui les sépare des privilégiés, ils réclament leur part du gâteau, alors que celle de chacun tend plutôt à diminuer. Les conflits ne peuvent que s’envenimer. La synergie des trois fléaux, les guerres, les épidémies et les désastres naturels, risque d’engendrer une Singularité qui ne serait pas le triomphe de la super-intelligence, mais constituerait au contraire le coup d’arrêt donné par la biosphère à son bourreau. Le lecteur de ce livre aura rencontré en chemin nombre de courbes représentant des évolutions diverses, telles que celles de la consommation en combustibles fossiles, de la concentration atmosphérique en gaz carbonique, de l’extension de la maladie d’Alzheimer, de l’occurrence des catastrophes. Toutes se développent à partir des années 1970, en parallèle de la population mondiale et de la loi de Moore. Aucun des phénomènes dont elles dessinent le devenir ne montre de tendance vers l’équilibre. C’est pourquoi le prologue de ce livre a-t-il cru devoir suggérer que l’humanité fonctionne aujourd’hui en boucle ouverte, ce qui, dans tout système, conduit à une divergence. Un événement d’ampleur comparable à celle de la peste noire, c’est-à-dire une réduction de la population mondiale par un bon tiers paraît la conséquence inéluctable de notre gestion des ressources planétaires. Laissons encore s’écouler un ou deux cycles de Kondratiev, c’est-à-dire une cinquantaine d’années, avant que la patience de Gaïa ne s’épuise. Depuis le début des années 1980, la communauté scientifique multiplie les avertissements, mais, comme le chef des astrologues Daniel déchiffrant l’inscription sur le mur, elle ne peut que parler : ni les peuples ni les gouvernements ne l’entendent. À quoi bon l’avertissement de cinquante-sept académies ? La science parvient seulement à retirer le bandeau qui couvre les yeux du 4. Voir. p. 42.

534

INTRODUCTION AU SIÈCLE DES MENACES

condamné à mort. Comme l’a dit Pascal, « chacun sait qu’il doit mourir, mais personne ne le croit ». Notre monde a été prévenu qu’il doit mourir, mais il ne le croit pas. À la vérité, la voix des « astrologues » se ferait entendre que rien ne serait changé, car les forces qui nous entraînent trouvent leur origine dans le tréfonds de la nature humaine. La seconde moitié du XXe siècle a démontré la fausseté de l’idée que la science guérirait les maux de l’humanité, une idée que j’ai moi-même longtemps chérie. Comparable à la langue d’Ésope, la science guérit des maux mais en engendre d’autres que nous ne savons guérir, car les remèdes seraient politiques. Et ceux-là mêmes qui devraient les appliquer n’oseraient en prendre le risque. Alors, que faire ? Ce livre ne présente aucune vue prospective, si ce n’est l’annonce volontairement floue d’une Singularité à venir dans le courant de l’histoire du XXIe siècle. Il n’offre pas de recette ; il se refuse à imiter les innombrables études qui, après avoir constaté le danger, multiplient les propositions, les recommandations et les solutions, destinées à rester vaines. Car il n’y a rien à faire. Lorsque l’Empire romain déclina, beaucoup de gens se réfugièrent dans la prière et se firent ermites. Saint Siméon Stylite vécut quarante ans assis au sommet d’une colonne. Quoi qu’inventent les auteurs de science-fiction, la fuite est impossible. Aucune planète du système solaire ne peut nous offrir l’hospitalité : nous n’avons que la nôtre. Vénus est beaucoup trop chaude et l’atmosphère de Mars trop mince. Quant aux étoiles, situées de toute façon à une distance inaccessible, la centaine d’entre elles dont on sait qu’elles possèdent des planètes ne semblent pas tolérer autour d’elles la présence d’un globe à notre mesure, capable d’engendrer et de maintenir une biosphère habitable. Enfin, nous n’avons pas accès aux boucles spatio-temporelles, connues seulement des poètes. Seule porte de sortie ouverte à nos enfants : enfiler une combinaison munie de tous les biosenseurs que la loi de Moore saura leur fournir afin de sentir, voir et toucher virtuellement, avaler une bonne dose d’euphorisant et partir chaque week-end pour le pays des songes avec la star préférée, làbas sur une plage d’avant la sixième extinction, les yeux rivés aux écrans du casque, les volets fermés, sans passé et sans avenir. Paris, le 1 er mars 2004 .

LISTE DES ABRÉVIATIONS (ordre alphabétique)

ABC ABL ABM ADA ADM ADN AEC AEF AFL-CIO AFM AICF AOL APL/JHU ARN ARPA ARRC ASAT ATCC ATM ATO ATP AT&T AWACS BAE Systems

Airborne Command Center (DoD) Airborne Laser (DoD) Anti Ballistic Missiles Treaty Langage informatique nommé d’après Lady Augusta Byron Armes de destruction massive Acide désoxyribonucléique Atomic Energy Commission (États-Unis, Inde) Aerospace Expeditionary Force (DoD) American Federation of Labour – Congress of Industrial Organizations Atomic Force Miscroscope Action internationale contre la faim America On Line Applied Physics Laboratory, Johns Hopkins University Acide ribonucléique Advanced Research Projects Agency (États-Unis) Allied Rapid Reaction Corps (DoD) Antisatellites Satellites American Type Culture Center Asynchronous Transfer Mode Air Tasking Order (DoD) Adénosine triphosphate American Telephon and Telegraph Company Airborne Warning and Control System (DoD) Combinaison de British Aerospace et de Marconi Electronic Systems (Royaume-Uni)

536 BAMBI BDA BDS BMC-3 BMD BMDO BOC BTP BWC C2 C3I C4I C4ISR CAOC CCD CDC CDMA CE CED CEPT CERN CFH CIA CMDT CMUE CNES CNET CNN CNRS COMINT CONPAZ COPS COPS CSU CSUE CSUEO CTBT CWC DAN DARPA DCI DCI

INTRODUCTION AU SIÈCLE DES MENACES

Ballistic Missile Boost Intercept (États-Unis) Battle Dommage Assessment Boost Defense Segment (DoD) Battle Managment Command Control and Communication (DoD) Ballistic Missile Defense (DoD) Balistic Missile Defense Organization (DoD) Besoins opérationnels communs Bâtiments et Travaux Publics Biological Weapons Convention Command and Control Command, Control, Communication, Information Command, Control, Communications, Computer, Intelligence Command, Control, Communications, Computer, Intelligence, Surveillance, Reconnaissance. Combined Air Operation Center (US Air Force) Charge Coupled Device Centers for Disease Control (États-Unis) Code Division Multiple Access Commission européenne Communauté européenne de défense Commission européenne des postes et télécommunications Centre européen de recherches nucléaires Chlorofluorohydrocarbures Central Intelligence Agency (États-Unis) Compagnie malienne pour le développement textile (Mali) Comité militaire de l’UE Centre national d’études spatiales (France) Centre national d’études des télécommunications (France) Cable News Network Centre national de la recherche scientifique (France) Communication Intelligence (provenant de signaux de télécommunications) Coalition of Nongovernmental Organizations for Peace Comité de politique et de sécurité (UE) Comité politique et stratégique (UE) Congrès somalien unifié Centre satellitaire de l’UE Centre satellitaire de l’UEO Comprehensive Test Ban Treaty Chemical Weapons Convention Direct Action Network Defense Advanced Research Projects Agency (DoD) Defense Capabilities Initiative Director of Central Intelligence (États-Unis)

LISTE DES ABRÉVIATIONS

DDT DERA DGA DHL DIA DIRD DMSP DoD DoE DPG DRET DSCS DSN DSP DST DSTL DTAP EADS ECAP EDUCOR EKV ELINT EMUE EOGB ERINT ETA EZLN FAA FAO FBI FIA FIS FMI FMIL FORPRONU FPLP FRR GBI GBS GEO GEPALS GFIM

537

Dichloro-diphényl-trichloréthane : insecticide Defense Evaluation and Research Agency (Royaume Uni) Délégation générale pour l’armement (France) Compagnie créée par Adrian Dalsey, Larry Hilblom et Robert Lynn Defense Intelligence Agency (États-Unis) Dépenses internes de développement et technologie Defense Meteorological Satellite Program (DoD) Department of Defense (États-Unis) Department of Energy (États-Unis) Defense Planning Guidance (DoD) Direction des recherches et études technologiques (France) Defense Satellite Communication Architecture (DoD) Deep Space Network (NASA) Defense Support Program (DoD) Direction de la sécurité du territoire (France) Defense Science and Technology Laboratory (Royaume-Uni) Democracy Transition Assistance Program European Aeronautics Defense Space Company European Capability Action Plan Education Investment Corporation (basé à Johanesburg) Exoatmospheric Kill Vehicle Electronic Intelligence (renseignement provenant de signaux électroniques) État-major de l’UE Electrooptical Guided Bomb (USAF) Extended Range Interceptor (DoD) Euzkadi Ta Askatasuna Armée zapatiste de libération nationale Federal Aviation Administration (États-Unis) Food and Agriculture Organization (ONU) Federal Bureau of Investigation (États-Unis) Future Imagery Architecture (DoD) Front islamique du salut (Algérie) Fonds monétaire international Front Moro islamique de libération des Philippines Force de protection des Nations unies (d’abord en Croatie, puis en Bosnie-Herzégovine) Front populaire de libération de la Palestine Force de réaction rapide (OTAN) Ground Based Interceptor (DoD) Global Broadcasting System (DoD) Geostationary Earth Orbit (Orbite géostationnaire circulaire de rayon 36 000 km) Global Protection Against Limited Strikes (DoD) Groupe de forces interarmées multinationales

538 GIA GIEC GIFAS GIG GMD GPS GRU GSM HCR HIV HOE HP HPF HUMINT IAEA IBM ICBM IRBM IDA IDE IFOR III IISS IMINT INF INSEE INTAS

IP IPCC IRBM IRS ISAF ISI ISR ISRO ISTC ITRS

INTRODUCTION AU SIÈCLE DES MENACES

Groupe islamique armé (Algérie) Groupe intergouvernemental sur l’évolution du climat (cf. IPCC) Groupement des industries françaises de l’aéronautique et de l’espace Global Information Grid Ground Based Midcourse Segment (DoD) Global Position System (DoD) Glavnoye Razvedyvatelnoye Upzavleniyl (Renseignement militaire soviétique puis russe) Global System for Mobile Communication Haut-Commissariat aux réfugiés (ONU) Human Deficiency Virus Homing Overlay Experiment (DoD) Hewlett Packard High Performance Fonction Human Intelligence (renseignement obtenu par des personnes) International Atomic Energy Agency (Vienne) International Business Machines Intercontinental Ballistic Missile Intermediate Range Ballistic Missile Institute for Defense Analysis (États-Unis) Investissements Directs Etrangers Implementation Force (en Bosnie-Herzégovine) Integrated Information Infrastructure (DoD) International Institute for Strategic Studies Image Intelligence (renseignement provenant d’images) Intermediate Range Nuclear Forces Strategic Arms Reduction Talks Institut national de la statistique et des études économiques International Association (Association internationale pour la promotion de la coopération avec les scientifiques des nouveaux États indépendants de l’ancienne Union soviétique) Internet Protocol Intergovernmental Panel on Climate Change (cf. GIEC) Intermediate Range Balistic Missile Indian Remote Sensing Satellite (Inde) International Security Assistance Force Inter-Services Intelligence (Pakistan) Intelligence, Surveillance, Reconnaissance Indian Space Research Organization (Inde) International Science and Technology Center International Technology Road map for Semiconductors

LISTE DES ABRÉVIATIONS

IWGN JDAM JFACC JI JIC JPL JSF JSOW J-STARS JV-2010 JV-2020 KDS KFOR KGB KH KRL LEO LGB LTBT MAD MAK MANPADS MAP MASINT MAV MCA MD MDA MDS MIMI MIPS MIRV MIT MMWR MNS MNT MoD MONUC

539

Interagency Working Group ou Nanoscience Engeneering and Technology (États-Unis) Joint Direct Attack Munition (DoD) Joint Force Air Component Commander (US Air Force) Jemaale Islamiyah : Communauté islamique (Indonésie-Malaisie) Joint Intelligence Committee (Royaume-Uni) Jet Propulsion Laboratory (NASA) Joint Strike Fighter Joint Stand Off Weapon (DoD) Joint Surveillance Target Attack Radar System (DoD) Joint Vision 2010 (DoD) Joint Vision 2020 (DoD) Komitet Durjavna Sigurnost (Comité de sécurité d’État) ; service bulgare dissous en décembre 1989 Kossovo Force (ONU) Komitet Gosudarstennoy Bezopasnoti (Comité pour la sécurité de l’État, URSS) Keyhole (programme des satellites d’observation optique US) Khan Research Laboratories (Pakistan) Low Earth Orbit ; orbite terrestre de basse altitude Laser Guided Bomb (US Air Force) Limited Test Ban Treaty Mutual Assured Destruction Makhtab al-Khidmat, el Moudjahidin al-Arab, Bureau des services Man Portable Air Defense Systems Master Attack Plan (DoD) Measurement and Signatures Intelligence (renseignement provenant de caractéristiques physiques d’une cible) Miniaturized Aerial Vehicles Manufacturers Chemical Association Missile Defense (DoD) Missile Defense Agency (DoD) Midcourse Defense Segment (DoD) Ministry of Industry and Military Industrialization (Irak) Million Instructions per Second Multiple Independant Reentry Vehicle Massachussets Institute of Technology Morbidity and Mortality Weakly Report Mouvement national somalien Modèles Numériques de Terrain Ministry of Defense (Royaume-Uni) Mission de l’ONU en république démocratique du Congo

540 MPRI MPS MRBM MSTI MTCR NASA NBC NCW NDU NIE NIH NIMA NMD NNI NOAA NORAD NPIC NPOES NPT NRO NRP NSA NSF NTCR NTIC NTT OCCAR OCDE OGM OIAC OLP OMC OMI OMM OMS ONERA ONG ONU OODA

INTRODUCTION AU SIÈCLE DES MENACES

Military Procurement Ressources Inc. (États-Unis) Mouvement patriotique somalien Middle Range Ballistic Missile (DoD) Miniature Sensor Defense Technology Integration (BMDO, DoD) Missile Technology Control Regime National Aeronautics and Space Agency (États-Unis) Attaques à base d’engin nucléaire, bactériologique ou chimique Network CentricWarfare National Defense University (États-Unis) National Intelligence Estimate National Institute of Health (États-Unis) National Imagery and Mapping Agency (États-Unis) National Missile Defense (DoD) National Nanotechnology Initiative (États-Unis) National Oceanography and Atmospheric Sciences Agency (États-Unis) North American Aerospace Defense Command (DoD) National Photographic Interpretation Center (ÉtatsUnis) National Polar Orbiting Operational Environmental Satellite Program (États-Unis) Nuclear Non Proliferation Treaty National Reconnaissance Office (États-Unis) National Reconnaissance Program (États-Unis) National Security Agency (États-Unis) National Science Foundation (États-Unis) Non Target Cooperative Recognition (DoD) Nouvelles technologies de l’information et de la communication Nippon Telegraph and Telephon (Japon) Organisation conjointe de coopération en matière d’armement Organization for Economic Co-operation and Development Organismes génétiquement modifiés Organisation d’interdiction des armes chimiques (cf. OPCW) Organisation de libération de la Palestine Organisation mondiale du commerce Organisation maritime internationale (cf. WTO) Organisation météorologique mondiale (cf. WMO) Organisation mondiale de la santé (cf. WHO) Office national d’études et recherches aéronautiques (France) Organisation non gouvernementale Organisation des Nations unies Obervation, Orientation, Decision, Action

LISTE DES ABRÉVIATIONS

OPCW OSO OST OSTP OTAN PAC PAC-3 PAEC PC PCS PESC PESD PGM PIB PKK PME PNUE RAF RD RFA RFC RISC RMA RPDC RT RTS SACEUR SALT SAM SAR SBI SBIR SBIRS SBR SCADA SCALAPACK SDI SDIO SFOR SGI SIGINT SIV SMD SMS SPARC SPG

541

Organisation for the Prohibition of Chemical Weapons (cf. OIAC) Operational Support Office (US Air Force) Outer Space Treaty Office of Science and Technology Program (Étas-Unis) Organisation du traité de l’Atlantique Nord (NATO) Politique agricole commune (de l’UE) Patriot Advanced Capability 3 (DoD) Pakistan Atomic Energy Commission Personal Computer Personnal Communication Service Politique Extérieure de Sécurité Commune (UE) Politique Extérieure de Sécurité et de Défense (UE) Precision Guided Munitions (DoD) Produit Intérieur Brut Partiya Karkeren Kurdistan (Parti des travailleurs du Kurdistan) Petites et moyennes entreprises Programme des Nations unies pour l’environnement (ONU) Royal Air Force (Royaume-Uni) Recherche et Développement République fédérale d’Allemagne Request for Comments (Internet) Reduced Instruction Set Computing Revolution in Military Affairs (DoD) République populaire démocratique de Corée Recherche et Technologie Rapid Targeting System (US Air Force) Supreme Allied Command in Europe (OTAN) Strategic Arms Limitations Treaty Surface to Air Missile Synthetic Aperture Radar Space Based Interceptors (DoD) Small Business Innovation Research (États-Unis) Space Based Infra Red System (DoD) Space Based Radar (DoD) Supervising Control and Data Acquisition Scalar Linear Algebra Package Space Defense Initiative (États-Unis) Space Defense Initiative Organisation (DoD) Stabilization Force Silicon Graphics Inc Signals Intelligence (renseignement provenant de signaux électromagnétiques) Simian Immunity Deficiency Virus Sea-Based Midcourse Defense (DoD) Short Message Service Ordinateur de la société Sun Special Planning Group (DoD)

542 SPM SPOT

INTRODUCTION AU SIÈCLE DES MENACES

Scanning Probe Microscope Satellite probatoire pour l’observation de la Terre (CNES) SRBM Short Range Ballistic Missile (DoD) START Strategic Arms Reduction Talks STM Scanning Tunnel Microscope STTR Small Business Technology Transfer Program (États-Unis) SUN Microsystems Fabricant d’ordinateurs de San-José (Californie) SUPARCO Space Upper Atmosphere Pakistan Research Commission (Pakistan) TBM Theater Ballistic Missile Defense (DoD) TCA Transformational Communication Architecture (DoD) TCP Transmission Control Protocol TDMA Time Division Multiple Access TDS Terminal Defense Segment (DoD) THAAD Thater High Altitude Area Defense (DoD) TMD Theater Missile Defense (DoD) TSAT Transformational Satellite (DoD) UAV Unmanned Aerial Vehicle UCAV Unmanned Combat Aerial Vehicle UCK Ushtria Clirimtare E Kossovès (Kossovo) UE Union européenne UEO Union de l’Europe occidentale UFO UHF Follow-on (DoD) UKUSA UK-USA (Accord SIGINT classifié entre initialement États-Unis et Royaume-Uni) UMTS Universal Mobile Telecommunication System UNFPA United Nations Population Fund UNICEF United Nations International Children Emergency Fund UNISOM United Nations for Somalia UNSCOM United Nations Special Commission (pour l’Irak) USCINC SPACE US Commander in Chief Space USSPACECOM United States Space Command (DoD) VCR Video Cassette Recorder VLSI Very Large Scale Integration WAP Wireless Applications Protocol WHO World Health Organization (cf. OMS) WIFI Wireless Fidelity WMO World Meteorology Organization (cf. OMM) WTC World Trade Center (à New York City) WTO World Trade Organisation (cf. OMC) WWW World Wide Web (Web, Internet ou Net) XBR X Band Radar (Radar Bande X)

INDEX

Abdul Hakim : 412, 419 Abdullah, Kamahuddin : 370 Abou Baker Baachir : 406, 442 Abou Hamza, alias Mustapha Kamel : 402 Abou Katada al Filastini : 444 Abou Mousab : 444 Abou Tahiri, Bukari Sayed : 370 Abou Zahab, Mariam : 405 Abou, Hamza : 444 Abrahamson, James A. : 230 Achcar, Gilbert : 275 Adenauer, Konrad : 285 Adler, Alexandre : 396 Adonis : 394 Afroz, Mohamed : 415 Aïdid, Mohamed Farah : 170, 172173 Akhtar, Abdul Rahman : 400 Al-Anshari, Fauzan : 470 Al-Bahili, Ahmed : 388 Al-Banna, Hassan : 393, 406, 445 Albright, Madeleine : 299 Al-Harthi, Ali dit Abou Ali : 207 Alibekov, Kavatian alias Alibek, Ken : 338

Alibekov, Kavatian alias Alibek, Ken : 339 Allary, Michel Jean : 420 Allouni, Tayseer : 440 Al-Zawahiri, Ayman : 402, 423 Alzheimer, Aloïs : 508-509, 533 Amerine, Jason : 207 Amsel, Georges : 335 Andréani, G. : 266 Andropov, Youri V. : 54 Armitage, Richard : 379 Arnold, Hap : 90 Arquilla, John : 77 Arquilla, John : 73, 76-77, 424, 426 Aspin, Lee : 233 Atta, Mohamed : 414-415 Auger, Pierre : 279 Aushev, Rouslan : 204 Avoury, Phaedon : 44 Aziz, Tarek : 353 Aznar, José Maria : 288 Azzam, Abdullah : 400-402 Bacon, Francis : 84 Badinter, Robert : 178 Balawi, Abdullah Ahmed : 370 Balthasar : 449

544

INTRODUCTION AU SIÈCLE DES MENACES

Barchewski, Charlene : 78 Bardeen, John : 13 Barré, Rémi : 95 Barre, Syad : 170 Barroso, José Manuel Durao : 288 Baudelaire, Charles : 222, 385 Baumol, William : 110 Baverez, Nicolas : 270, 278 Beck, Ulrich : 479-480 Beghal, Djamel : 444 Begin, Menahem : 335 Bell, Alexander Graham : 28 Ben Al-Shaiba, Ramzi : 414 Ben Laden, Oussama : 49, 71, 75, 250, 327, 400-403, 405, 408, 412, 415, 423, 427, 439-443, 446 Ben Mohamed, Mahatir : 391 Benslama, Fethi : 391 Bentham, Jeremy : 477 Bergson, Henri : 439 Berners-Lee, Tim : 21 Bertram, Christophe : 266 Betts, Richard K. : 257 Bhabha, Homi : 367, 372 Bhutto, Ali Zulfikar : 368-369, 375, 399, 403 Bhutto, Benazir : 403 Bidault, Georges : 379 Bildt, Carl : 192 Bissel, Richard Jr. : 154 Blair, Tony : 286, 288, 292, 297, 317, 383 Blome, Nikolaus : 303 Both, Norbert : 187 Bouteflika, Abdel Aziz : 70 Boutros-Ghali, Boutros : 171 Bové, José : 49, 319 Boyd, John : 134 Boyer, Yves : 195 Boyle, William : 155 Brattain, Walter : 13 Braun, Werner von : 338 Brejnev, Leonid I. : 54, 228 Broad, William : 225 Brodie, Bernard : 223 Brooks, S.G. : 113 Bruguière, Jean-Louis : 410 Brundtland, Gro Harlem : 525

Bush, George H. (I) : 80, 86, 118, 170-171, 231-233, 291, 347, 363, 379, 385, 409 Bush, George W. (II) : 48, 99-102, 117-118, 148, 194, 202-203, 205, 208, 213-214, 216, 219, 229, 235, 241, 244-245, 253, 256-257, 274276, 284, 286, 288, 319, 324, 357, 364, 370, 377, 380-385, 410, 435, 445, 503-504, 522-524, 527 Bush, Vannevar : 84-86, 90 Butler, Richard : 352 Butt, M. : 142 Cardot, Patrice : 112 Carli, Pierre : 507 Carrington, Lord Seigneur : 178, 180 Carrus, Seth : 421 Carter, James (Jimmy) : 155, 190, 228-229 Case, Steve : 35 Castells, Manuel : 31, 426 Cebrowski, A.K. : 136 Cerf, Vincent : 20 Chah d’Iran, Mohamed Reza Pahlavi : 326, 337, 358, 397 Chamberlain, Neville : 283 Cheney, Richard (Dick) : 213, 379 Chirac, Jacques : 63, 188-189, 192, 203, 270, 283, 285-286, 288, 290, 297, 316, 335, 354, 524 Churchill, Winston : 142, 177 Clark, Wesley : 199 Clarke, Richard : 436 Clausewitz, Carl : 134 Cleaver, Harry : 425 Cléopâtre : 346 Clinton, William (Bill) J. : 48, 61, 78-79, 85-86, 96, 99, 102, 118, 160, 172, 190, 192, 233-234, 241-242, 352, 364, 379, 409, 412, 423, 436, 471 Cochrane, M.A. : 513 Cohen, William : 195, 234 Collombat, Benoît : 336 Cooper, Henry F. : 231-232

INDEX

Cordesman, Anthony : 350 Corley, John : 197 Cot, Jean : 179, 185 Covault, Craig : 168 Creveld, Martin Van : 76 Curl, Robert : 44 Cuvier, Georges : 452 Dadush, Uri : 440 Daladier, Edouard : 283 Daniel : 449, 533 Daniel, Sara : 219 Daoudi, Kamel : 444 Darmon, Pierre : 472 Dautray, Robert : 485 De La Gorce, Paul-Marie : 117 Delors, Jacques : 265 Descartes, René : 84 Dikwarna, Agus : 406 Dilger, Anton : 423 Dobriansky, Paula : 527 Douglas, Donald : 90 Drexler, K. Eric : 46, 49 Du Camp, Maxime : 284 Dudézert, Jean-Pierre : 427 Dugas, Gaétan : 464 Dulles, Foster : 290 Dumas, Roland : 178 Dumont, René : 82, 511 Dunlap, Charles Jr. : 126 Duplessy, Jean-Claude : 494 Dyke, Charles : 303 Eisenhower, Dwight : 86, 153 Eisenhower, Susan : 259 Eisenstadt, Michael : 358 El-Baradei, Mohamed : 332, 359, 384 Ellsworth, Robert : 300 Engels, Friedrich : 86 Erckmann et Chatrian : 82 Erikson, Erik H. : 528 Esterle, Laurence : 95 Everts, Steven : 282 Facon, Patrick : 142 Fajj Hassan : 443

545 Faligot, Roger : 432 Fall, Ndiougou : 527 Fauci, Anthony : 462 Fernandes, Frank : 92 Fernandes, George : 372, 386 Feynman, Richard : 43 Fischer, Joschka : 265 Fleming, Melissa : 442 Friedman, Thomas L. : 39, 52, 287 Fukuyama, Francis : 325 Fuller, Gary : 388 Gabbard, C. Bryan : 257 Gaillard, Florence : 197 Gandhi, Indira : 368, 372 Gandhi, Mahatma : 372 Gandhi, Rajiv : 399 Garmon, John B. : 129 Garrett, Laurie : 458 Garstka, John : 136 Gaulle, Charles de : 53, 177, 279, 285, 290, 365, 367 Ghauri, Muhammad : 374 Ghernaouti-Hélie, Solange : 428 Gibson, William : 22 Gifford, James M. : 168 Giraud, André : 336 Giscard d’Estaing, Valéry : 335 Glaspie, April : 346 Godeluck, Solveig : 32, 75 Goldschmidt, Bertrand : 279 Good, I.J. : 532 Gorbatchev, Mikhail S. : 53-55, 115 Gore, Al : 85, 471, 528-529 Gottlieb, Michael S. : 462, 464 Graham, Daniel : 229 Gramont, Agénor de : 284 Grant, Charles : 266, 317, 319 Griffin, Peter : 370 Grmek, Mirko D. : 464 Gromov, Boris : 204 Grübler, Arnolf : 87 Guénon, Jules : 278-279 Guevara, Ernesto : 425 Gunaratna, Rohan : 407-408, 412, 414

546

INTRODUCTION AU SIÈCLE DES MENACES

Hagglund, Gustav : 294 Hambali, alias Riduan Isamudin : 406-407 Hamre, John : 302 Handelmann, Stephen : 338 Harper, Tim : 48 Harris, Sheldon : 339 Harris, Sir Arthur : 142 Hartley, K. : 273 Harvey, Charles : 59 Hassan-i Sabah : 398 Hassner, Pierre : 187 Hastings, Alan : 453 Higgins, Kevin : 453 Hitler, Adolf : 283 Hohmann, Walter : 7 Holbrooke, Richard : 192 Honig, Jean Willem : 187 Hoon, Geoffrey : 316 Horner, Charles : 209 Hugo, Victor : 324 Huitema, Christian : 20 Huntington, Samuel : 389-390 Hussein, Imam : 399 Hussein, Saddam : 165, 167, 217, 219, 232, 283-286, 326-327, 335, 346-347, 349, 353, 356-357, 361, 376, 379, 383-385, 394-395, 409, 445 Ibn Abd el Wahab, Mohamed : 397, 445 Ibn Saoud, Mohamed : 397 Ibn Taïmiyya : 402, 445 Isaacson, Walter : 209 Ishii, Shiro : 337-338 Jackson, Bruce : 286 Jaffar, Dia Jaffar : 347 Jancovici, Jean-Marc : 482 Janjalani, Abdulrazak : 406 Janvier, Gilles : 189 Jayne, Edward R. : 226 Jeanne d’Arc : 319 Jean-Paul II : 412, 528 Jefferson, Thomas : 83 Jeremiah, David : 117

Johnson, Dana : 257 Johnson, Lyndon : 77, 226 Jones, James : 296 Jospin, Lionel : 106, 280, 316 Juppé, Alain : 106, 177, 185-186, 188 Kadhafi, Muammar al- : 371, 377, 384 Kadish, Ronald T. : 234-235, 241, 244-245, 248 Kagan, Robert : 282, 379 Kahn, Robert (Bob) : 20, 72 Kaiser, Robert : 275 Kamal, Hussein : 347-349, 352 Kandel, Robert : 499 Kantor, Mickey : 78 Karzaï, Hamid : 207, 215 Kaufman, Gail : 127 Kelkal, Khaled : 444 Kelly, Jim : 366 Kennedy, Edward (Ted) : 227 Kennedy, John F. : 154-155, 226 Kennedy, Paul : 113 Kepel, Gilles : 396, 403 Khalid Al-Fawwaz : 415 Khalilzad, Zalman : 379 Khan, Abdul Kadeer : 368-371, 373, 375 Khan, Ismaïl : 216 Khatami, Mohamed : 359, 361 Khomeyni, Ruhollah : 326, 337, 399 Khrouchtchev, Nikita S. : 154 Kilman, Scott : 522 Kim, Doe-Jong : 365 Kim, Il-Song : 363 Kim, Jong-Il : 255, 364 Kinkel, Klaus : 189 Kirnan, Vincent : 168 Kishtaini, Khalid : 393 Kissinger, Henry : 228 Klinsevitch, Franz : 204 Kohl, Helmut : 179, 182, 189 Koizumi, Junichiro : 364 Kokochine, André : 55, 253 Kondratiev, Nicolas D. : 533

INDEX

Kossyguine, Alexei N. : 227 Kristol, William : 379 Krop, Pascal : 432 Kroto, Harold : 44 Kupchan, Charles : 213 Lambeth, Benjamin : 249 Lanxade, Jacques : 187 Lappé, Mark : 460 Laubier, Lucien : 63-64 Lavoy, Peter : 367 Le Guelte, Georges : 332, 335 Leakey, Richard : 453, 457 Léger, Alexis : 283 Leglu, Dominique : 337, 339, 350, 366 Levitte, Jean-David : 189 Lewin, Roger : 453, 457 Lewis, Bernard : 398 Liikanen, Erkki : 111-112 Lincoln, Abraham : 83 Loeb, Vernon : 380 Logsdon, John : 257 Lovelock, James : 456 Lowndes, Jay : 168 Ludd, Ned : 523 Lugar, Richard : 331 Luttwak, Edward N. : 166 Maginot, André : 222, 224 Mahan, Alfred T. : 125, 225 Mahdi, Ali : 170, 173 Major, John : 183 Makeyev, Victor P. : 342 Malinovsky, Rodion Y. : 226 Malis, Christian : 262 Malthus, Thomas : 59, 61-62 Mann, Michael E. : 494 Marcos, Rafael Guillem : 425 Margulis, Lynn : 456 Marshall, George C. : 154, 217, 529 Martins Da Torre, Arnaud : 195 Marx, Karl : 86 Maspero, François : 71 Matak Mohamed, Mohamed : 370 Mc Elroy, Michael : 529 Mc Elroy, Neil : 226

547 Mc Farlane, Robert : 248 Mc Kinley, Cynthia : 257-258 Mc Leod, Alex : 177 Mc Luhan, Marshall : 457 Mc Namara, Robert : 154, 226-227, 230 Mc Neill, Dan : 214 Mc Pherson, Neal : 47 Meadows, Denis : 480 Meddeb, Abdelwahab : 393-394 Meiners, Kevin : 137, 140 Mérindol, Valérie : 112 Metcalfe, Robert : 21, 32, 134 Mierlo, Hans Van : 189 Milankovic, Milutin : 450 Milošević, Slobodan : 194-195, 200, 211 Misaji, Kitano : 337 Mitterrand, François : 178, 182, 185, 270, 279, 316, 336 Mladic, Ratko : 181 Mohtashami, Ali Akbar : 399 Molotov, Vyadislav M. : 382 Monahan, George L. : 231 Money, Arthur L. : 128 Monnet, Jean : 289 Monroe, James : 378 Montesquieu, Charles Secondat de : 83 Moore, Gordon (loi de) : 14-15, 19, 22, 24, 37-38, 40-42, 45, 49, 51, 5355, 61, 68, 72, 78, 81-82, 88, 113, 120, 122, 124, 138, 155, 230, 248, 279, 325, 327, 381, 533-534 Moravec, Hans : 49, 532 Morillon, Philippe : 183 Morris, Robert : 430 Moussaoui, Zacarias : 415, 419, 444 Mugabé, Robert : 519 Murawiec, Laurent : 119, 136, 143, 298 Musharraf, Pervez : 370-371, 375 Napoléon : 211, 479 Nasser, Gamal Abdel : 345 Naumann, Klaus : 201, 302-303 Navarro, Arnau : 300, 306

548

INTRODUCTION AU SIÈCLE DES MENACES

Necker, Jacques : 388 Nehru, Jawaharlal : 367 Neumann, John von : 531 Newton, Isaac : 531 Ngoupandé, Jean-Paul : 520 Nicoll, A. : 306 Nietzsche, Friedrich : 458 Nixon, Richard M. : 155, 227, 233, 338 Nozette, Stu : 232-233 Nunn, Sam : 331-332 O’Neill, Malcolm : 233 Oelschlaeger, Max : 85 Omar abd el Rahman : 401 Omar Mollah Mohamed : 403 Omar Sheikh : 416 Ornano, Michel d' : 335 Owen, David : 184 Owens, William : 121, 124, 126, 200 Pace, Scott : 257 Parkinson, Claire : 58 Pascal, Blaise : 534 Pascallon, Pierre : 311 Pasco, Xavier : 148 Pasetchnik, Vladimir : 338 Patry, Jean-Jacques : 217 Payne, James L. : 390 Pearl, Daniel : 416 Pennisi, Elizabeth : 513 Perkovich, George : 383 Perle, Richard : 202-203, 241, 379 Perrin, Françis : 335 Perry, William : 120-121, 124, 126, 200 Petit, Michel : 495, 497 Pills, Wolfgang : 345 Piscitello, M : 303 Plutarque : 323 Poe, Edgar Allan : 222 Pokrovski, Vadim : 467 Potter, John : 422 Poutine, Vladimir V. : 243, 274 Powell, Colin : 207, 248, 262, 273, 285-286, 299, 357 Powers, Gary : 153

Prebharkaran, Vellupilai : 398 Pressler, Larry : 369 Prithvi, Raj Chahan : 374 Quéau, Philippe : 32 Rabi, Isaac : 86 Raduege, Harry : 210-211 Raffarin, Jean-Pierre : 266, 289 Ramos, Fidel : 412 Ramses : 479 Raup, David : 455 Reagan, Ronald : 115, 230 Reagan, Ronald : 54, 87, 101, 202, 228-230, 233, 248, 353, 369, 463 Reid, Richard : 415 Ressan, Ahmed : 444 Revelle, Roger : 493 Richardot, Philippe : 211 Richburg, Keith : 275 Richelson, Jeffrey T. : 153 Rickhover, Hyman : 89 Ricks, Thomas : 380 Rifkin, Jeremy : 491 Riou, Bruno : 507 Ritter, Scott : 353-355, 357 Robertson, Lord George : 269, 299 Robinson, Clarence A. : 229 Rocard, Michel : 322 Roh, Moo-Hyun : 366 Ronfeldt, David : 73, 76-77, 424, 426 Roosevelt, Franklin D. : 84, 381 Roosevelt, Theodore : 283, 378 Rosnay, Joël de : 30 Roy, Olivier : 405, 409 Rumsfeld, Donald : 146, 148, 152, 216, 234, 249-253, 257, 277, 286, 288, 295, 299, 353, 358, 362, 379, 381 Russo, Patricia : 37 Rustan, Pedro (Pete) : 232 Rutkowski, Anthony : 21 Rütskoï, Alexandre : 204 Sachs, Jeffrey : 461 Sadate, Anouar el- : 401-402

549

INDEX

Sagdeev, Roald Z. : 54-55 Saïd : 348 Saint Siméon Stylite : 534 Saladin : 395 Salinas, Carlos : 424, 426 Samudra, Imam : 442 Sandler, T. : 273 Sapir, André : 266 Sarabhaï, Vikhram : 371-373 Sarewitz, Daniel : 85 Sartre, Jean-Paul : 283 Schanz, Dieter : 200 Schmitz, Peter : 314 Schröder, Gerhardt : 203, 265-266, 285-286 Schumpeter, Joseph : 37-38 Schwartzkopf, Norman : 169 Serfati, Claude : 273 Seversky, Alexandre de : 254 Shapiro, Robert (Bob) : 61 Sharif, Nawaz : 369 Sharon, Ariel : 445 Shiva, Vandana : 62 Shockley, William : 13 Short, Michael : 195 Shultz, George : 353 Siwiec, Marek : 276 Smalley, Richard : 44 Smith, George : 155 Smith, Leighton : 193 Smith, Ronald : 41 Smith, Stephen : 520 Smithson, Amy : 339 Solana, Javier : 214, 284, 288, 293, 296 Soljenitsyne, Alexandre I. : 233 Spinoza, Baruch : 7 Staline, Joseph V. : 275, 382 Stoltenberg, Thorvald : 184 Suharto, Mohamed : 406-407 Sungkar, Abdullah : 406 Sur, Serge : 261 Switak, Amy, : 127 Sylla, Lucius Cornelius : 323, 325, 446

Taradjlic, Hakija : 183 Tardy, Thierry : 175, 177 Tarquin le Superbe : 265 Taylor, Terry : 351 Teller, Edward : 229-230, 248 Tenet, George : 205, 362 Ternisien, Xavier : 445 Thatcher, Margaret : 233 Thurow, Roger : 522 Tito, Josip Broz dit : 176, 178 Tocqueville, Alexis de : 51, 53 Trabelsi, Mourad : 443 Truman, Harry S : 84 Turki, Faisal ben Abdulaziz : 400 Turner, Ted : 332 Tuur, Abd er-Rahman Ahmed Ali : 173 Tyler, Patrick E. : 354

Taha, Rihab Rachid : 350 Talbot, Strobe : 227

Yazid, Calife : 399 Youssef, Ramzi Ahmed : 412

Ulam, Stan : 531 Vance, Cyrus : 180, 184 Védrine, Hubert : 83, 203, 208 Velikov, Eugène P. : 54-55 Versailles, David : 112 Vieira de Mello, Sergio : 219 Villepin, Dominique de : 188, 283, 285 Vinokur, John : 203 Warden, John : 131-132, 140, 165, 195, 197, 218 Washington, George : 83 Watson, Thomas : 52 Welch, Jack : 123 Welch, Larry : 236 West, Alan : 420 White, John P. : 272 Whitman, Walt : 322 Wilson, Edward : 454-456 Witkowski, Raymond : 333 Wohlfort, W.C. : 113 Wolfowitz, Paul : 117, 241, 379 Worden, Simon (Pete) : 229

550

INTRODUCTION AU SIÈCLE DES MENACES

Zedillo, Ernesto : 426 Zelenov, Eugène : 204 Zia ul-Haq : 369, 375, 399-400

Zimmerman, Philip : 438 Zoelick, Robert : 523 Zorlu, Akim : 215

REMERCIEMENTS

Ce livre n’a pas été écrit dans la solitude. L’auteur appartient à des institutions qui se consacrent au savoir, à la réflexion, à la recherche : l’Académie des sciences, le Centre national d’études spatiales, le Jet Propulsion Laboratory, le Collège interarmées de défense. Les pages qui suivent ne représentent en rien la position officielle de ces grands organismes, mais elles doivent beaucoup aux discussions que j’ai pu mener avec quelques-uns de leurs membres, aux informations qu’ils m’ont permis d’obtenir et au soutien qu’ils m’ont apporté. Les contacts que j’entretiens fréquemment avec mes chers élèves et confrères à l’Académie des sciences, Gérard Mégie et MarieLise Chanin m’ont permis de ne pas m’éloigner de la discipline qui fut la mienne, la physique de l’atmosphère ; mes amis du CNES, Jacques Arnould, Céline Bouhey, Patrice Brudieu, Aline Chabreuil, Florence Daguier, Alain Dupas, Hélène Ben Aïm, Yvon Klein, Albert Le Goué, Bertrand de Montluc, Vincent Sabathier ainsi que Xavier Pasco de la Fondation pour la recherche stratégique ont bien voulu relire et souvent corriger certains passages. Quant aux nombreux officiers supérieurs et généraux de l’armée française qui m’ont si généreusement fait part de leur expérience, je leur demande, tout en les assurant de ma vive gratitude, la permission de ne pas les nommer, car je ne voudrais pas nuire à leur carrière en révélant leur participation à une entreprise dont certains aspects pourraient paraître « politiquement incorrects ».

552

INTRODUCTION AU SIÈCLE DES MENACES

La maison Odile Jacob a comme pour mes précédents ouvrages encouragé mes efforts avec sympathie et efficacité ; je prie en particulier Odile Jacob et Bernard Gotlieb de recevoir mes plus chaleureux remerciements. Mon amicale reconnaissance va aux secrétaires successives qui se sont battues avec mes manuscrits et en sont venues à bout : Françoise Hubert, Khadidja Naitress, Françoise Merian et Jeannine Nioche, et à Marie-Hélène Guérin sans qui ce livre aurait eu du mal à exister.

TABLE

Prologue ..............................................................................

7

Chapitre premier – LE MOTEUR DE L’HISTOIRE .........

13

La loi fondamentale ................................................................. Vers le couplage composants/informatique/ télécommunications ................................................................. La connexion universelle ......................................................... Les États-Unis au centre de la société mondiale de l’information ........................................................................ Triomphe de la démesure ........................................................ Le rebond .................................................................................. La loi de Moore montera-t-elle jusqu’au ciel ? ........................

13

30 33 38 42

Chapitre II – LES INVARIANTS .......................................

51

Rapidité ..................................................................................... Saturation ................................................................................. Pustulation ................................................................................ Réticulation .............................................................................. La faille .....................................................................................

51 55 64 72 79

Chapitre III – LES RACINES DE L’HYPERPUISSANCE La science, frontière infinie ..................................................... Les relais ................................................................................... L’effort de recherche et développement (RD) ......................... Le fossé se creuse .....................................................................

15 19

83 83 88 95 109

554

INTRODUCTION AU SIÈCLE DES MENACES

Chapitre IV – CYBERWAR I : LA THÉORIE ...................

115

La posture des États-Unis ........................................................ Naissance d’un nouveau paradigme militaire ........................ Les fondements du nouveau paradigme : la guerre de l’information ........................................................ Les concepts de base ................................................................ L’officialisation de la doctrine ................................................. Coup d’œil sur les systèmes spatiaux employés par le DoD ... Conclusion en forme d’anticipation ........................................

115 120

Chapitre V – CYBERWAR II : LA PRATIQUE .................

165

La première guerre du Golfe (Desert Storm) ........................... L’affaire de Somalie ................................................................. L’implosion de la Yougoslavie. Première période : la guerre de Bosnie ................................................................... L’implosion de la Yougoslavie. Seconde période : l’opération Allied Force au Kosovo ........................................... La guerre contre les talibans .................................................... Coup d’œil sur le moteur de l’évolution .................................. Conclusion ................................................................................ Post-scriptum. La seconde guerre d’Irak (2003) .....................

165 170

Chapitre VI – LE BUNKER AMÉRIQUE .........................

221

La préhistoire de la défense antimissiles ................................ La « guerre des étoiles », ou Strategic Defense Initiative ................................................. La Missile Defense Agency (MDA) et ses programmes .................................................................... La guerre dans l’espace .............................................................. Conclusion ................................................................................

222

Chapitre VII – PUISSANCE ET JOUISSANCE ................

261

Politique de puissance .............................................................. L’Europe refuse la politique de puissance .............................. La défense de l’Europe après la chute de la Soviétie ..................................................... L’Europe de la défense ............................................................. Aujourd’hui et demain ............................................................. Conclusion ................................................................................

261 263

Chapitre VIII – LA MENACE ............................................

323

121 127 144 149 163

175 194 202 209 211 217

229 234 249 259

270 289 317 320

LA PROLIFÉRATION PAR LES ÉTATS

La législation internationale .................................................... Quelques exemples de proliférateurs ......................................

328 335

555

TABLE

Les pays proliférants ................................................................ La préemption .......................................................................... Conclusion ................................................................................

345 378 384

NETWAR

Les troupes ................................................................................ Netwar : naissance et méthodes ............................................... Perspectives ..............................................................................

387 403 439

Chapitre IX – ÉCRIT SUR LE MUR .................................

449

LE SIÈCLE DES ÉPIDÉMIES

L’équilibre dynamique de la biosphère ................................... La sixième extinction ............................................................... La contre-attaque ..................................................................... L’armée en marche ...................................................................

450 453 457 461

LE SIÈCLE DES DÉSASTRES

L’énergie .................................................................................... L’exploitation des sols .............................................................. L’alimentation des hommes .....................................................

482 510 518

FUIR ...................................................................................

531

Liste des abréviations (ordre alphabétique) .....................

535

Index ...................................................................................

543

Remerciements ..................................................................

551

DU MÊME AUTEUR CHEZ ODILE JACOB

Vénus dévoilée. Voyage autour d’une planète, 1987. Le Chiffre et le Songe. Histoire politique de la découverte, 1993. Le Lion et le Moucheron. Histoire des marranes de Toulouse, 2000.

Cet ouvrage a été transcodé et mis en pages chez Nord Compo (Villeneuve-d’Ascq)

sciences

INTRODUCTION AU SIÈCLE DES MENACES

« Si l’affrontement des peuples riches et des peuples pauvres, comme celui de Caïn et d’Abel, remonte à la nuit des temps, il prend de nos jours un caractère plus destructeur avec la création du village global par la technologie. Le progrès stupéfiant des moyens de communication dans les trente dernières années permet la formation de réseaux multiples, nouvelle arme des plus démunis, qui portent leur combat dans la cybersphère et acquièrent ainsi une puissance formidable. À leurs attaques, les pays nantis ne fournissent qu’une riposte militaire, dans le dépérissement universel de la pensée politique et l’obsolescence grandissante des structures de sécurité collective. Trois menaces pèsent sur le XXIe siècle : les conflits armés, dans la perspective inévitable d’un recours aux armes de destruction massive, l’expansion d’épidémies, favorisée par la mondialisation, et l’épuisement des ressources naturelles, consécutif à la surpopulation et au pillage de la Terre. Tout ne conspiret-il pas pour produire une déflagration comme le monde n’en a jamais connu ? » J. B. Jacques Blamont démonte pièce à pièce la machine infernale que, grâce au progrès scientifique auquel nous avons tant cru, nous sommes en train de léguer à nos enfants...

JACQUES BLAMONT Membre de l’Académie des sciences, professeur émérite à l’université Paris-VI, Jacques Blamont est l’un des pères de l’aventure spatiale française. Il a notamment publié Vénus dévoilée, Le Chiffre et le Songe et Le Lion et le Moucheron.

En couverture : © David Ridley/Corbis.