Les clés secrètes de l’Univers: Émergence de l’Univers, de la vie et de l’Homme
 9782759825646

Citation preview

Les clés secrètes de l’Univers

Ce livre est dédié à une dynastie d’astrophysiciens commençant par George Gamow, l’un des inventeurs du Big Bang, se poursuivant par son émule Hubert Reeves, puis par l’élève de ce dernier, Michel Cassé. Tous trois de grands pédagogues sachant transmettre leur passion au plus grand nombre.

Les clés secrètes de l’Univers Émergence de l’Univers, de la vie et de l’Homme

MICHEL GALIANA-MINGOT

17, avenue du Hoggar – P.A. de Courtabœuf BP 112, 91944 Les Ulis Cedex A

SPOT Sciences Collection destinée à un large public qui invite le lecteur à découvrir à travers des essais toute une palette des sciences : histoire, origines, découvertes, théories, jeux…

Dans la collection « L’histoire du cerveau », Voyage à travers le temps et les espèces, Y. GAHÉRY, ISBN : 978-2-7598-2479-3 (2021) « La pensée en physique », Diversité et unité, J.P. PÉREZ, ISBN : 978-2-7598-2481-6 (2021)

Retrouvez l’auteur sur son site https://mgm-ec.fr Composition et mise en pages : Flexedo

Imprimé en France ISBN (papier) : 978-2-7598-2534-9 ISBN (ebook) : 978-2-7598-2564-6

Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute repré­ sentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou ­reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon ­sanctionnée par les articles 425 et suivants du code pénal. © EDP Sciences, 2021

SOMMAIRE

Préface......................................................................................... Préambule..................................................................................... Rassembler les connaissances dans tous les domaines.................... Utiliser les dernières avancées de notre époque............................ En quête de sens...................................................................... La question du sacré................................................................. Avertissement au lecteur..................................................................

15 19 24 28 29 31 33

Partie 1 Du Big Bang chaud à l’Univers refroidi 1.  La naissance de la cosmologie.................................................. Albert Einstein, le fondateur de la cosmologie.............................. Einstein et la courbure de l’espace-temps..................................... La courbure de l’espace explique la force de gravitation................. Comment les astres se meuvent-ils dans l’espace ?......................... Les modèles cosmologiques........................................................ Trois pionniers s’attaquent à la modélisation du cosmos................. Le premier indice de l’expansion de l’Univers................................ Lemaître prédit l’expansion du cosmos......................................... Edwin Hubble confirme l’existence des galaxies............................. Hubble confirme et mesure l’expansion de l’Univers....................... La loi de Hubble-Lemaître.......................................................... Que nous enseigne ce chapitre ?................................................. 2.  L’idée du Big Bang : l’atome primitif de Lemaître...................... Que s’est-il passé un beau jour, lorsqu’en un endroit minuscule, une explosion fulgurante a traversé l’espace en créant un univers gigantesque ?............................................. Repasser la bande du film à l’envers............................................ Pour Lemaître, l’Univers a connu un commencement ponctuel et chaud.................................................................................. L’idée de l’atome primitif va s’imposer dans la douleur................... Le cosmos est passé par un stade hyperconcentré......................... Le mur de Planck, une limite de la connaissance........................... Le mur de Planck recèle une signification profonde quant aux limites de la science en général...................................

37 38 40 42 45 49 50 52 54 56 59 60 62 65 65 67 68 69 72 74 76 9

Sommaire

Que peut-on dire de réaliste sur le Big Bang ?.............................. Au moment du mur de Planck : une bulle d’énergie porteuse d’information................................... 3.  Les trois premières minutes de l’Univers : la création de la matière et des forces........................................... Expansion et refroidissement, le moteur de la complexité............... L’expansion commence par un épisode très rapide : l’inflation......... Les particules matérielles sont « immatérielles »........................... Comment la matière classique émerge de l’immatériel.................... Phase 1. La naissance des particules dans la bulle d’énergie primordiale.............................................. Phase 2. La formation des protons et des neutrons à partir des quarks.................................................................... Phase 3. L’annihilation matière-antimatière.................................. Phase 4. L’agrégation des noyaux atomiques................................. Les forces et leurs particules...................................................... Que déduire de ce chapitre ?...................................................... 4.  L’Univers refroidi et la « photo » du Big Bang........................... 380 000 ans après le Big Bang, c’est la naissance des atomes......... La première preuve du Big Bang................................................. Le cosmos devient transparent.................................................... Voir loin, c’est voir le passé....................................................... Le rayonnement fossile est détecté par hasard.............................. Le paparazzi du rayonnement fossile........................................... Que nous disent les rides du temps ?........................................... Que retenir de ce chapitre ?.......................................................

79 81 85 86 88 92 94 97 99 100 104 104 107 109 110 111 113 115 117 120 123 127

Partie 2 L’écosystème galactique 5.  La gravitation à l’œuvre pour structurer le cosmos..................... Comment la gravitation a sculpté l’Univers................................... La naissance des étoiles............................................................ Les étoiles s’assemblent en structures plus grandes : galaxies, amas…...................................................................... Les étoiles meurent................................................................... Le trou noir, un endroit où l’espace-temps se déchire.................... Randonnée imaginaire dans un trou noir...................................... Les trous noirs nous envoient des ondes gravitationnelles.............. Les planètes............................................................................. Que conclure de ce chapitre ?..................................................... 6.  Les forces microscopiques à l’œuvre pour forger les éléments et les molécules........................................................................... Les étoiles, ateliers de Vulcain.................................................... Les étoiles ensemencent l’espace en mourant............................... 10

Les clés secrètes de l’Univers

133 134 137 141 143 146 150 153 157 159 161 162 165

Sommaire

L’étoile, un système complexe émergent...................................... L’étoile, ajustée entre l’ordre et le chaos...................................... La complexité se démultiplie de nouveau grâce aux molécules........ Où va se produire l’explosion de la chimie ?.................................. L’Univers crée sans cesse de l’information.................................... Que retenir de ce chapitre ?....................................................... 7.  Les grands mystères de l’Univers.............................................. La matière noire....................................................................... La densité de l’Univers est précisément ajustée sur une valeur critique............................................................... L’énergie sombre....................................................................... Coup de tonnerre dans l’astrophysique......................................... Le devenir de l’Univers..............................................................

168 172 173 176 177 183 185 186 189 195 197 201

Partie 3 L’apparition de la vie sur Terre 8.  Les ingrédients de la vie.......................................................... Darwin avait tout compris.......................................................... Définir la vie............................................................................ Sur Terre, les conditions étaient réunies pour permettre la vie........ Quand la vie est-elle apparue ?................................................... Une innovation : les molécules apprennent à parler....................... Les polymères ou pourquoi faire simple quand on peut faire compliqué ?................................................. L’immense diversité offerte par les polymères : un océan de possibilités............................................................ La catalyse, accélérateur des réactions chimiques.......................... Le repliement des protéines....................................................... Les enzymes, redoutables catalyseurs........................................... Où en sommes-nous dans la recherche de nos origines ?................ 9.  L’étincelle de vie..................................................................... La création spontanée d’information............................................ L’autocatalyse.......................................................................... L’hypercycle, première étape de la protovie.................................. L’émergence des protocellules..................................................... Le protométabolisme................................................................. Le germe de la vie : l’ensemble autocatalytique............................ L’étincelle ayant mis le feu aux poudres....................................... À la frange entre l’ordre et le chaos............................................ Tous les êtres vivants se maintiennent au stade juste sous-critique. Une nouvelle vision de la sélection naturelle................................ La vie a émergé de l’inerte......................................................... 10.  L’émergence des gènes........................................................... Que sont les gènes ?.................................................................

207 207 211 215 218 220 223 227 229 231 235 238 239 241 244 246 248 253 256 258 261 263 266 268 271 273 11

Sommaire

Les protéines reproduites en série à partir d’un patron : l’ARN........ Le code génétique.................................................................... La reproduction des cellules....................................................... Pourquoi la recherche des origines de la vie représente-t-elle un si grand défi ?.............................................. L’énigme de l’œuf et de la poule.................................................

275 279 283 284 287

Partie 4 Des premiers êtres monocellulaires à l’Homme 11.  Trois milliards d’années de vie monocellulaire......................... La théorie la plus simple et la plus fructueuse.............................. L’évolution darwinienne, une martingale toujours gagnante............ Qu’est-ce qu’une bactérie ?......................................................... Les bactéries dominent la biosphère............................................ Le vivant poursuit-il une finalité vers la complexité ?.................... Les virus : des fossiles de la vie la plus primitive.......................... La cellule eucaryote, un saut important vers la complexité............. Les bactéries et les cellules se mettent à exploiter la lumière......... La catastrophe de l’oxygène....................................................... L’apparition des êtres multicellulaires.......................................... Les cellules se différencient....................................................... L’être multicellulaire se structure................................................ L’être multicellulaire se reproduit................................................ Le génome de l’être multicellulaire est un ordinateur..................... 12.  Des bactéries aux primates..................................................... Trois moteurs à l’œuvre pour élaborer les êtres les plus complexes... L’évolution est-elle déterministe ?............................................... Les premiers êtres multicellulaires............................................... Le développement de l’embryon récapitule l’histoire des espèces..... Plantes, champignons et animaux............................................... Les grandes extinctions rebattent les cartes................................. La sortie de l’eau...................................................................... Un poisson à l’origine des tétrapodes.......................................... Dinosaures d’hier et d’aujourd’hui................................................ L’épanouissement des mammifères.............................................. Le retour dans l’eau.................................................................. Notre famille : l’ordre des primates.............................................. L’apparition des singes bipèdes, les hominines.............................. 13.  Homo, son cerveau, sa conscience........................................... En quête des chaînons manquants, ou chercher une aiguille dans une botte de foin........................... L’ère des Australopithèques........................................................ Les premiers hommes................................................................ Homo neanderthalensis............................................................... 12

Les clés secrètes de l’Univers

293 294 297 299 303 307 311 313 316 317 320 321 322 323 328 331 331 332 333 336 338 339 341 343 345 346 348 349 352 355 357 361 363 365

Sommaire

Homo sapiens........................................................................... Le cerveau humain, un réseau de dimension astronomique............. Cerveau et intelligence artificielle............................................... La conscience, un phénomène émergent ?.................................... La conscience perceptive........................................................... La conscience réflexive..............................................................

366 367 371 373 376 377

Partie 5 Le futur de l’humanité et le sens de l’Univers 14.  Le futur de l’humanité........................................................... Qu’adviendra-t-il de notre milieu naturel, cosmique et terrestre ?.............................................................. Quels cataclysmes pourraient éradiquer l’humanité ?...................... La civilisation a gelé l’évolution darwinienne chez Homo sapiens.................................................................... L’arrêt de la sélection naturelle est-il une bonne chose ?................ L’évolution humaine se poursuit désormais au niveau culturel......... L’évolution culturelle : Darwin toujours à l’œuvre ?........................ Sur quoi peut déboucher l’explosion culturelle ?............................ L’Homme symbiotique................................................................ Intelligence artificielle ou augmentée ?....................................... Jusqu’où peut aller l’IA ?............................................................ Un hyper-ordinateur serait-il doté de conscience ?........................ La civilisation colonise la Galaxie................................................ 15.  La nature intime et le sens de l’Univers.................................. La grande saga récapitulée......................................................... Une propriété évidente : l’Univers est intelligible.......................... L’Univers est stratifié................................................................. L’Univers matriochka................................................................. L’Univers est fait pour fabriquer la complexité à partir de la simplicité............................................................. L’Univers est une machine à créer de l’information........................ L’Univers combine finement la diversité et l’unité.......................... L’extension extrême de l’Univers dans l’espace et le temps............. L’Univers est très singulier et improbable..................................... Le principe anthropique............................................................. La conception divine de l’Univers est contrainte par l’histoire naturelle............................................................... La conception athée de l’Univers est, elle aussi, contrainte............ L’idée du multivers.................................................................... Que nous enseigne le multivers ?................................................ L’Univers a-t-il un sens ?............................................................ Remerciements............................................................................... Lexique........................................................................................

381 382 386 390 392 395 399 401 403 406 410 411 415 419 420 423 425 429 434 436 438 442 444 446 450 455 458 461 463 467 469 13

PRÉFACE

Homme triple, de direction (il est droit), de décision (il est décidé) et de réflexion (il est érudit), Michel Galiana-Mingot déroule devant nous le tapis étoilé et fleuri de la cosmobiologie. Cet honnête homme du xxie siècle descend le temps comme un fleuve et engrange connaissance sur connaissance depuis la source de la matière jusqu’à l’embouchure de la vie et de la conscience. Avec une maestria digne d’Hubert Reeves, il partage sans compter les bontés du ciel et de la vie. Rien n’est laissé au hasard, ou plus exactement, la part qui revient au hasard est légitimée. Son but est clair : « partager une vision holistique en parcourant l’histoire du Big Bang à l’Homme : un éclairage qui donne une nouvelle perspective à l’Univers et à la vie. Imaginez que vous êtes né comme moi, dans une vallée des Alpes. Vous avez l’habitude de vous déplacer à basse altitude là où se trouve votre école, votre maison, les commerces, etc. Pensez qu’un jour, votre père achète deux tickets au téléphérique des Grands Montets et vous amène en quelques minutes, à 3 300 mètres d’altitude. De là, il vous montre la vallée où vous habitez, puis celle où se trouve votre cousine, celle où vous allez en promenade dans la forêt, 15

Préface

et au loin, la ville. Les autres montagnes qui vous semblaient si grandes, apparaissent maintenant plus petites et ont changé de forme… J’ai éprouvé ce sentiment en décryptant patiemment tous les mystères de l’Univers pendant des décennies. » Bref, il ne faut pas se faire de la cosmologie une montagne ! C’est tout à la fois un beau morceau de science, une épopée et une fable. Cet univers rafraîchissant, four éteint il y a 13,8 milliards d’années, se donne le luxe de s’observer lui-même à travers les yeux de Michel Galiana-Mingot qui a plus de souvenirs que s’il avait 14 milliards d’années, ceci dans toutes les phases de son évolution. Du Big Bang et la percée de la lumière, jusqu’à la diaspora universelle, en passant par la vie et l’œuvre des étoiles, des cellules et des êtres métaphysiques, le périple couvre toutes les étapes, ceci avec une précision lucide dans le choix et la description des transitions de phases et mutations qualitatives, pour ne pas dire des sauts et des révolutions. Il est heureux qu’un ancien directeur de Sony Europe se mêle de cosmologie, de biologie et de métaphysique. Je forme le vœu que le monde économique, militaire et politique s’en inspire. On demande bien à l’homme de sciences d’avoir une conscience politique ! Pourquoi nos responsables syndicaux et chefs d’entreprise, nos maires, nos sénateurs et députés n’auraient-ils pas une conscience cosmologique ? Nos consciences stellaires s’offusqueraient alors ­d’entendre parler de guerre des étoiles. Il faut donc considérer Les Clés secrètes de l’Univers comme un ouvrage salutaire pour la société dans une période où, fragilisée et crédulisée, elle se donne parfois à des philosophes et démiurges de bazar. La partie métaphysique, dûment estampillée, ni théiste, ni athéiste, ni panthéiste, évoque le débat entre Einstein et le philosophe Tagore, dont voici la fin : Tagore. – La science a prouvé que la table, comme un objet solide, est une apparence. Ainsi, ce que l’esprit humain perçoit 16

Les clés secrètes de l’Univers

Préface

comme une table, n’existerait pas si cet esprit était absent. Dans le même temps, il faut admettre que le fait que la réalité physique ultime ne soit qu’une multitude de vibrations localisées de forces électriques, appartient aussi à l’esprit humain. Dans l’appréhension de la vérité, il est un conflit éternel entre l’esprit humain universel et le même esprit confiné dans l’individu. Le processus de réconciliation est perpétuellement en chemin en notre science, notre philosophie et notre éthique. En tout cas, s’il est une vérité absolue n’ayant rien à voir avec l’humanité, alors pour nous, elle est absolument non existante. Il n’est pas difficile d’imaginer un esprit pour lequel les choses ne se passent pas dans l’espace, mais seulement dans le temps, comme les séquences de notes dans la musique. Pour un tel esprit, cette conception de la réalité est proche de la réalité musicale dans laquelle la géométrie de Pythagore ne peut avoir de sens. La réalité du papier est infiniment différente de celle de la littérature. Pour l’esprit dont est dotée une mite mangeant le papier, la littérature est absolument inexistante, mais pour celui de l’Homme, elle présente une vérité de plus grande valeur que le papier lui-même. D’une manière similaire, s’il existe une réalité dénuée de toute relation sensorielle ou rationnelle avec l’esprit humain, elle restera inexistante pour nous tant que nous restons des êtres humains. Einstein. – Alors, je suis plus religieux que vous. La valeur scientifique et pédagogique de cette somme de savoirs fait de Michel Galiana-Mingot un nouveau guide des égarés. Michel Cassé, astrophysicien

17

PRÉAMBULE

Le monde selon l’abbé Georges Lemaître, inventeur du Big Bang : « Il ne s’agit pas du déroulement, du décodage d’un enregistre­ ment ; il s’agit d’une chanson dont chaque note est nouvelle et imprévisible. Le monde se fait, et il se fait au hasard. »

Vous vous intéressez aux mystères de l’Univers, de la vie et de l’Homme. Moi aussi. Vous n’êtes pas un scientifique professionnel. Moi non plus. Comment en suis-je venu à écrire ce livre et que peut-il vous apporter ? Étudiant à l’École polytechnique, je ressentais un penchant pour l’astrophysique, une science naissante à l’époque, pour la biologie et pour la psychanalyse. L’intérêt que je portais aux hommes m’a poussé vers une voie différente : le management. J’ai eu la chance d’entrer jeune dans une entreprise fascinante, le groupe Sony, dont j’ai dirigé les activités en France puis en Europe pendant 22 ans. J’ai retrouvé dans cette société beaucoup de mes centres d’intérêt. Particulièrement créative, elle a marqué l’histoire avec le premier poste de radio de poche à transistors dans les années 1950, puis le téléviseur Trinitron, le Walkman, le magnétoscope à cassettes et nombre d’autres innovations. 19

Préambule

La créativité était une réelle obsession pour son fondateur, Akio Morita. Fabriquer toujours la même chose ou faire comme les concurrents, ne présentait aucun intérêt pour lui. Il avait compris que beaucoup d’hommes sont fondamentalement inventifs pourvu qu’on leur donne suffisamment de liberté pour s’exprimer. Dès lors, Sony était une entreprise où existaient très peu de règlements ou de procédures contraignantes. En contrepartie, on s’attendait à ce que chaque employé soit créatif dans son domaine. Je me souviens d’une conversation de Morita avec un comptable : il lui demandait ce qu’il avait inventé de nouveau pour traiter la comptabilité ! C’est dans ce milieu extrêmement fertile que j’ai pu développer mes talents de manageur et découvrir comment des équipes se mobilisent pour réaliser de grandes choses. Comme président de la filiale française, j’ai participé avec bonheur à cette aventure incessante vers l’innovation. À Paris, Sony avait établi un petit laboratoire travaillant sur des sujets plutôt désintéressés, au moins pour le court ou moyen terme. Réunie par un brillant scientifique, Luc Steels, une poignée de jeunes chercheurs se consacrait à différents thèmes autour du concept d’émergence qui sera omniprésent dans cet ouvrage. Il s’agit de ces phénomènes élaborant la complexité à partir d’éléments simples. Un membre de l’équipe avait inventé un logiciel pour composer de la musique selon un modèle donné : le chercheur jouait un morceau de quelques secondes à la guitare et l’ordinateur poursuivait tout seul, aussi longtemps qu’on le voulait, en déroulant une musique exactement du même style. On avait l’impression que le joueur continuait à improviser. Cette technique reposant sur la géométrie fractale, est aujourd’hui utilisée pour représenter automatiquement des paysages dans les dessins animés et les jeux vidéo. Un autre chercheur analysait les musiques que vous aimez et y décelait un équilibre finement ajusté entre régularité (des mesures parfaitement cadencées et harmonieuses comme chez Bach) et ruptures de rythme ou dissonances comme dans le jazz. Cette méthode montrait comment votre esprit trie parmi les styles 20

Les clés secrètes de l’Univers

Préambule

musicaux en recherchant un ajustement fin entre l’ordre et le chaos, en quelque sorte un curseur qui vous est propre. Cela permettait ensuite d’identifier d’autres musiques susceptibles de vous plaire. Ce concept d’ajustement critique sera récurrent dans ce livre. Enfin, je me souviens du chercheur qui avait simulé par informatique, la façon dont deux personnages créent un langage entre eux. Encore un exemple d’émergence de la complexité. Une expérience similaire a été menée chez Facebook en 2019, avec des ordinateurs bien plus performants. Le protocole a tellement bien marché que les deux robots ont rapidement inventé un langage très sophistiqué qu’eux seuls comprenaient. Facebook a décidé promptement d’arrêter l’expérience, probablement pour ne pas jouer aux apprentis sorciers. Aujourd’hui, je me rends compte que chez Sony, nous connaissions les premiers balbutiements de l’intelligence artificielle. Curieusement, par les hasards de la vie, cette histoire va m’amener à l’astrophysique. À l’époque où l’on présentait les appareils d’électronique grand public lors d’expositions à mon sens très ennuyeuses, j’avais conçu un événement d’un style radicalement différent, Sony World, en fixant comme règle qu’aucun matériel ne serait posé sur un présentoir. Seuls leurs usages ou leurs applications seraient mis en lumière auprès des visiteurs. Aussi, chaque département de la société devait montrer ce que nous faisions de mieux avec nos produits, en collaborant avec les clients les plus créatifs. Alors même que j’étais à l’origine de cette opération et en avais défini les lignes directrices, j’ai été le plus surpris du résultat quand tout a été prêt la veille de l’ouverture : une myriade d’idées merveilleuses, présentées par tout un écosystème de clients et de collaborateurs enthousiastes. J’avais l’impression d’avoir semé des graines et de découvrir, quelques semaines plus tard, de magnifiques floralies. En cinq jours, nous avions reçu 65 000 personnes, toutes des leaders d’opinion et des journalistes. Parmi une centaine d’applications exposées, la plupart sont aujourd’hui devenues choses courantes. Je me souviens des plus frappantes. 21

Préambule

Nous avions reproduit la cabine d’un Airbus avec un fort bruit de réacteur. On s’installait dans un des fauteuils de passager et l’on revêtait un casque de Walkman. Dès cet instant, on plongeait dans un silence absolu. Alors, un morceau de musique classique commençait doucement. Aujourd’hui, les casques réducteurs de bruit sont en vente partout. Une autre attraction illustrait les débuts de la photographie électronique : on s’asseyait sur une chaise et une minute après, on repartait avec un exemplaire de Paris Match où l’on figurait en photo de couverture à côté de Johnny Hallyday, son bras sur l’épaule. Ailleurs, un ordinateur permettait de déformer une photo comme on le souhaitait : les visiteurs pouvaient se faire tirer le portrait et ensuite le modifier à leur goût. Qui un nez plus court, qui une bouche plus grande, etc. Enfin, je citerai l’application m’ayant le plus marqué : nos caméras étaient utilisées par un institut océanographique pour observer au microscope les animaux et les plantes minuscules peuplant les océans. Ici, on entrait dans une pièce obscure où des chercheurs étaient installés avec leurs échantillons et leurs appareils. Les images étaient diffusées par un projecteur (encore une nouveauté de l’époque). Jamais je n’oublierai les couleurs et les formes de ces anémones, protistes et autres phytoplanctons en mouvement perpétuel. J’en arrive maintenant à l’astrophysique. Parmi les personnalités invitées, figurait Michel Cassé, physicien des étoiles et volontiers poète. Je l’ai ensuite rencontré plusieurs fois et j’ai pu lui poser différentes questions qui me turlupinaient lorsque j’étais étudiant à l’X. En écoutant ses explications claires et pleines de mystère, je me suis rendu compte que beaucoup de problèmes avaient été résolus depuis, mais aussi, que chaque réponse impliquait deux ou trois autres interrogations plus fondamentales. J’ai éprouvé une irrésistible envie de mieux comprendre ces énigmes, puis de m’attaquer aux nouvelles questions qu’elles soulevaient. On appelle cela une régression infinie. J’ai décidé de m’y consacrer d’abord avec les écrits de Michel, 22

Les clés secrètes de l’Univers

Préambule

puis ceux d’Hubert Reeves, Stephen Hawking, etc. Cette rencontre a changé ma vie. La science est devenue un hobby dévorant tout mon temps libre. Il m’a fallu me remettre à la mécanique quantique et à la relativité générale quelque peu oubliées. Ensuite, je me suis tourné vers les mystères de la vie, dont j’ai vite compris qu’ils étaient encore plus épais que ceux du Big Bang ou de la formation des galaxies. Après ces 30 ans d’études, que puis-je vous apporter ? Loin de moi l’idée de me comparer aux auteurs scientifiques que vous et moi avons pu lire. En revanche, plus j’avançais dans mes lectures, plus un nouveau paradigme se dessinait à mes yeux. Les mécanismes fondamentaux ayant créé la matière, les astres, la vie et l’Homme, se révélaient reposer sur des bases communes. On peut les résumer sous le terme très large d’émergence. Mon but est de vous faire partager cette vision holistique en parcourant l’histoire du Big Bang à l’Homme : un éclairage qui donne une nouvelle perspective à l’Univers et à la vie. Imaginez que vous êtes un enfant né comme moi, dans une vallée des Alpes. Vous avez l’habitude de vous déplacer à basse altitude là où se trouvent votre école, les maisons, les commerces, etc. Pensez qu’un jour, votre père achète deux tickets au téléphérique des Grands Montets et vous amène en quelques minutes à 3 300 mètres d’altitude. De là, il vous montre la vallée où vous habitez, puis celle où se trouve votre cousine, celle où vous allez en promenade dans la forêt et au loin, la ville. Les autres montagnes qui vous semblaient si grandes, apparaissent maintenant bien plus petites et ont changé de forme. En un instant, vous revoyez tous les endroits connus, sous une nouvelle perspective que vous n’auriez jamais imaginée. J’ai éprouvé ce sentiment en décryptant patiemment tous les mystères de l’Univers pendant des décennies. Je vous propose aujourd’hui une excursion du même genre, en quelques heures seulement : un ticket de téléphérique pour escalader le Mont Complexité ! Si vous êtes prêt à affronter le soleil brûlant, le vent froid et le vertige, nous ferons l’ascension ensemble. Qu’est vraiment le Big 23

Préambule

Bang ? Comment un monde aussi riche a-t-il pu se former à partir de rien ou presque ? La vie a-t-elle pu émerger d’elle-même, sans intervention divine ? Qu’est-ce qui distingue l’Homme de l­’animal ? Qu’allons-nous faire de notre futur ? L’Univers a-t-il un sens ? J’aborderai toutes ces questions en racontant l’histoire naturelle du Big Bang à aujourd’hui, et en recherchant les fils conducteurs. J’ai poursuivi cette démarche dans un esprit bien particulier, se résumant en trois phrases : 1. Rassembler les connaissances scientifiques dans des domaines aussi distincts que l’astrophysique, la mécanique quantique et la biologie. 2. Utiliser les dernières avancées de notre époque et notamment les sciences nouvelles dites de la complexité. 3. À travers tout cela, rechercher un sens commun, qui nous parle. RASSEMBLER LES CONNAISSANCES DANS TOUS LES DOMAINES J’ai choisi une présentation chronologique de l’Univers et du vivant, du Big Bang à nos jours. Les principaux chapitres seront l’origine du cosmos, sa structuration en galaxies, étoiles et planètes, l’apparition de la vie, l’évolution naturelle des espèces, l’hominisation, le devenir de l’humanité et enfin, le sens de notre monde. Cette approche historique permet d’identifier les caractéristiques majeures de la nature, récurrentes dans le temps. La science s’organise aujourd’hui autour de trois axes principaux : l’infiniment petit, l’infiniment grand et l’infiniment complexe. Dans chacun d’eux, apparaissent d’importantes limites à notre savoir. Une façon de les repousser consiste à tirer parti de tout ce que nous connaissons dans tous les domaines pour en extraire la substantifique moelle. Effectivement, bien qu’il s’agisse de sciences très différentes, en naviguant dans ces trois axes, nous identifierons de nombreux mécanismes communs. Voici pour commencer, quelques commentaires sur ces trois axes de la connaissance. Que nous disent-ils ? Que taisent-ils ? 24

Les clés secrètes de l’Univers

Préambule

L’infiniment petit est éclairé essentiellement par la physique des particules, dite quantique. Lorsque Max Planck, Albert Einstein, Niels Bohr et d’autres pionniers l’ont élaborée, ils ont découvert dans les petites échelles, un monde nouveau particulièrement étrange. Ils ont ouvert un immense champ du possible. Nous leur devons tous les appareils électroniques devenus chaque jour plus indispensables à notre vie. Cette révolution historique a déclenché une très forte accélération du changement dans la société. Le développement explosif de l’ordinateur et celui d’Internet bouleversent profondément l’activité humaine. Cependant, en pénétrant le monde microscopique, nous sommes tombés sur un gros os : il obéit à des règles parfaitement contre-­ intuitives. Par exemple, Einstein le premier a conçu qu’une particule se comporte aussi comme une onde. À ce titre, elle emplit l’espace et ne peut pas être localisée précisément. Elle est donc un objet dual ayant les propriétés d’une onde dans certaines expériences et d’un objet ponctuel dans d’autres. Cette structure étrange, désormais amplement prouvée, ne peut s’appréhender par le sens commun. Seuls des outils mathématiques très sophistiqués permettent d’en rendre compte : il faut manier les espaces de Hilbert, l’opérateur hamiltonien, les matrices hermitiennes, etc. Autrement dit, comprendre l’infiniment petit semble réservé à ceux qui maîtrisent les mathématiques supérieures. C’est malheureusement le prix à payer pour pénétrer ce qui est contre-intuitif et très différent du monde macroscopique dont nous sommes coutumiers. Pour cette raison, je ne ferai qu’effleurer cette science, lorsque cela sera strictement nécessaire. Une autre limite de la physique quantique : elle s’applique à un tout petit nombre de particules élémentaires à la fois, ou au mieux, à de petites molécules. Il ne faut pas lui demander d’aller au-delà de ce qu’elle peut apporter. Elle n’est pas faite pour expliquer des objets et phénomènes de taille importante : un cerveau humain, une étoile, une galaxie… Si l’on évoque la mécanique quantique pour décrire l’Univers à grande échelle ou le monde du vivant, on s’enlise facilement dans les excès du réductionnisme, consistant à tout ramener aux particules. 25

Préambule

Voyez un enfant rire ou pleurer : chercheriez-vous à interpréter cela à partir de la physique ? Non, car il est bien plus que l’ensemble des atomes qui le composent. Il en va de même de tout événement macroscopique un peu complexe. Allez donc prévoir le développement d’un simple orage avec ses vents, son électricité et ses précipitations, en partant des seules équations de la mécanique quantique ! Nous verrons que cette physique décrit fidèlement les premières minutes ayant suivi le Big Bang. Pour comprendre la suite à de plus grandes échelles, il nous faudra faire appel à d’autres méthodes dont certaines sont d’invention récente. Que dire de l’infiniment grand ? Là, nous abordons un domaine des sciences totalement différent, cependant nous arriverons à une conclusion similaire : une théorie brillante et remarquablement exacte, mais abstraite et limitée. Il s’agit de la relativité générale, l’outil permettant d’analyser le cosmos dans sa globalité. En la publiant en 1915, Albert Einstein nous a propulsés dans l’infiniment grand. Elle décrit l’une des quatre forces régissant la nature : la gravitation. Or c’est précisément elle qui structure l’Univers à grande échelle, en amas galactiques, galaxies, étoiles et systèmes planétaires. Ainsi, la relativité générale, née à la même époque que la mécanique quantique, a permis l’éclosion d’une nouvelle science, la cosmologie. Grâce à elle, nous avons pu forger une image fidèle et compréhensible du cosmos à grande échelle, mais elle montre aussi des limites. Comme sa sœur quantique, la théorie d’Einstein requiert une solide formation en mathématiques : elle repose sur le calcul tensoriel, les matrices, la géométrie riemannienne. En outre, il faut avoir l’esprit formé (ou déformé !) à réfléchir dans quatre dimensions au lieu de trois. Elle offre donc une vision très abstraite du monde. L’exactitude a un prix : la complexité du calcul. Aussi, dans la majorité des applications quotidiennes, nous utilisons toujours la mécanique newtonienne du xviie siècle, bien plus simple et tout aussi exacte dans les conditions prévalant sur Terre. 26

Les clés secrètes de l’Univers

Préambule

Enfin, la relativité présente une limite fondamentale : son incompatibilité avec la mécanique quantique. Ce fait a été pressenti par Einstein dès le début. Il a rapidement pris ses distances avec cette science pour rechercher une grande théorie unificatrice qu’il ne trouvera jamais. Ce désaccord entre nos modèles de l’infiniment petit et de l’infiniment grand résiste obstinément aux théoriciens depuis près d’un siècle. Il a provoqué une véritable crise de la physique théorique. Pour expliquer les phénomènes cataclysmiques tels le Big Bang et les trous noirs, il est impératif de combiner les deux théories. L’impossibilité de les unifier jette donc un voile obscur sur la nature exacte du cosmos à l’époque des plus hautes énergies. Cette incohérence fondamentale entre nos sciences les plus modernes et abouties est un exemple frappant de leurs limites. Nous garderons cela à l’esprit lorsque nous entamerons la description de l’Univers. Reste le troisième axe, celui de l’infiniment complexe. À l’origine, il s’agit essentiellement de l’étude du vivant : la biologie, la génétique, l’évolution. Là aussi, la science a atteint un degré de technicité très élevé : il faut dominer les concepts de transcription des protéines, de code génétique et de catalyse. Ce domaine de la connaissance traite d’objets tellement divers et ramifiés à l’infini, que l’on n’a jamais pu les résumer sous forme de théories mathématiques comme pour les deux axes précédents. Dès lors, l’approche scientifique du vivant est restée très expérimentale : observer les phénomènes, les rapprocher, les classer et rechercher des liens de causalité entre eux. Même si ces sciences de la vie sont très ardues, elles ont l’avantage de toucher à des organismes bien concrets, observables à l’œil nu ou au microscope, plutôt qu’à des concepts excessivement abstraits. Cette différence fondamentale entre les axes de l’infiniment petit et de l’infiniment grand d’une part, et de l’infiniment complexe d’autre part, fait que la communauté scientifique s’est divisée en physiciens d’un côté et biologistes de l’autre : deux communautés demeurant aujourd’hui encore, très séparées. Cette situation a quelque peu évolué. Plus nous en apprenons sur le cosmos, plus nous découvrons que le monde minéral est lui aussi 27

Préambule

infiniment complexe. Il s’y développe des phénomènes impossibles à décrire par les mathématiques, ressemblant beaucoup à ceux de la biologie. À titre d’exemple, plus nous observons les galaxies, plus elles apparaissent comme des écosystèmes faits d’un bestiaire riche et très diversifié : gaz plus ou moins chauds, pouponnières d’étoiles, trous noirs centraux hypermassifs, supernovas fertilisant l’espace, etc. Le mouvement incessant de cette multitude de corps célestes et les événements les affectant, rappellent beaucoup le domaine du vivant. Il devient de plus en plus ardu d’expliciter tous ces objets et phénomènes à partir des théories déjà évoquées, sans tomber dans le réductionnisme. Dès lors, les méthodes scientifiques ayant réussi dans la biologie, deviennent maintenant pertinentes pour analyser plus avant toute la variété du cosmos. Nous ne pouvons comprendre profondément ce qu’est l’Univers en nous cantonnant à des théories trop abstraites. Nous devons nous montrer éclectiques et modestes : jouer sur l’ensemble des approches offertes par la science, rester conscients de leurs limites et ne pas hésiter à revenir à l’empirisme de nos aïeux. UTILISER LES DERNIÈRES AVANCÉES DE NOTRE ÉPOQUE Comment transcender ces limites de la physique quantique et de la relativité ? De nouvelles approches se développent depuis les années 1990. On parle des sciences de la complexité et de l’auto-organisation. Ces démarches reposent sur deux vérités universelles. Selon la première, les éléments simples tendent à s’assembler spontanément en d’autres beaucoup plus complexes. Cette caractéristique majeure du monde reviendra comme un leitmotiv à travers tous les chapitres de l’histoire naturelle. La seconde dit que les systèmes complexes émergeant ainsi, tendent à posséder leur propre logique. L’exemple le plus frappant est sans aucun doute l’être vivant. Certes, il est fait de particules obéissant aux lois de la physique, mais cela ne suffit pas pour le décrire. Il est un tout qui représente bien plus que ses parties. Une fois né, il impose ses lois aux atomes 28

Les clés secrètes de l’Univers

Préambule

dont il est fait. Par exemple, vos gènes commandent en permanence toute la chimie de votre corps. On peut en dire autant d’une galaxie : une fois constituée, elle détermine elle-même largement le comportement de ses propres composants, astres, nuages ou trous noirs. Ces nouvelles sciences s’intéressent aux phénomènes émergents : comment le simple fabrique le complexe ? Elles sont universelles et s’appliquent indifféremment aux trois axes de la connaissance déjà mentionnés. Même si elles sont encore balbutiantes, elles commencent à offrir des clés de compréhension donnant beaucoup de sens aux choses. Nous y aurons recours fréquemment. Ces clés seront amplement expliquées au fur et à mesure que nous les découvrirons et les utiliserons : – La frontière entre l’ordre et le chaos – Les états critiques auto-organisés – Les transitions de phase et les brisures de symétrie – La création d’information et les bouffées de complexité – L’émergence et la causalité descendante au sens de Christopher Langton – L’autocatalyse – Le possible adjacent – L’algorithme de la sélection naturelle Elles apparaîtront de façon récurrente tout au long du grand voyage nous menant du Big Bang à l’Homme. EN QUÊTE DE SENS Le troisième objectif que je me suis assigné est la quête de sens. Les immenses progrès des sciences au xxe siècle ont poussé notre compréhension du monde jusqu’à la frontière avec la métaphysique. Ignorer ces domaines, comme beaucoup de matérialistes l’ont fait, devient difficile aujourd’hui. Newton avait expliqué comment la Lune pouvait tourner autour de la Terre sans tomber dessus. Il avouait aussi ses limites : « Je vous ai dit comment elle tourne, mais non pourquoi ». En essayant d’appliquer 29

Préambule

sa mécanique au cosmos dans sa totalité, il était tombé sur des contradictions. De nos jours, les limites de la science ont été poussées bien plus loin. La relativité générale a débouché sur l’idée d’expansion de l’Univers, puis sur son corollaire, l’existence d’un début : le Big Bang. En s’attachant à décrire l’origine même du monde, la physique côtoie désormais quotidiennement la métaphysique. Cette proximité du spirituel fait certainement partie de vos propres motivations. J’y toucherai nécessairement en recherchant le sens des choses. Je ne partage pas l’idée du physicien Steven Weinberg, pour qui « Plus l’Univers semble compréhensible et plus il semble absurde ». Bien au contraire, je vois un sens de plus en plus profond se dessiner au fur et à mesure que l’Homme décrypte son cadre de vie. Pour dégager clairement ce sens, il faut embrasser tous les aspects et toutes les échelles de temps et d’espace, d’une façon holistique, c’est-à-dire comme un ensemble unique. Voir le tout avant ses constituants, tel sera mon souci. Cette vue m’a poussé à englober l’astrophysique et le vivant dans une seule démarche, en déroulant la grande histoire de A à Z. L’approche historique est clairement la plus signifiante. Je dirais avec Roberto M. Unger1, qu’il est temps de réinventer la philosophie naturelle, dans l’esprit pratiqué au xixe siècle. Elle est tombée en désuétude lorsque les mathématiques avancées ont envahi la physique théorique. Ressortons-la des placards. Certes, j’évoquerai les théories abstraites quand elles seront utiles, cependant sans formules et avec le moins possible de mots techniques. Quelques paragraphes plus difficiles, destinés au lecteur de formation scientifique, seront marqués par ce symbole qui suggère une piste noire au ski :

Vous aurez tout loisir de les sauter ou de les lire en diagonale. Malgré cela, vous pourrez poursuivre la lecture de l’ouvrage sans problème. 1.  The singular Universe and the reality of time: A Proposal in Natural Philosophy. Roberto Mangabeira Unger & Lee Smolin. 2014. 30

Les clés secrètes de l’Univers

Préambule

LA QUESTION DU SACRÉ En abordant l’origine de l’Univers ou celle de la vie, on touche forcément à la métaphysique et l’on approche de près le sacré. Si vous êtes croyant, vous penserez souvent : et Dieu dans tout cela ? Il me paraît utile de préciser comment je traiterai la question. Tout d’abord, le cheminement de ma pensée sera fondé sur les sciences : sur des faits démontrés et non sur des croyances. Ainsi, dans tous les raisonnements réellement scientifiques que je présenterai, je ne me référerai jamais à un être supérieur. Je rechercherai toujours des raisons factuelles aux choses matérielles et non des raisons spirituelles. Pour illustrer cela a contrario, seriez-vous satisfait si le chapitre sur l’hominisation, le passage du singe à l’Homme, se résumait à une seule phrase disant qu’une intervention divine avait fait apparaître la conscience chez un primate ? Ainsi, je m’emploierai à traiter les domaines les plus mystérieux par la science et non en invoquant le doigt du Seigneur : les origines de l’Univers, de la vie et de l’Homme. Pour autant, faut-il en déduire que j’écarte d’emblée le divin de la réflexion sur la nature ? Certainement pas, Dieu m’en garde. Si vous êtes croyant, vous rencontrerez probablement l’idée de Dieu en filigrane, même si ce n’est pas l’objet de cet ouvrage. Je donne une description scientifique des choses, sans jamais me référer explicitement à la religion. Le fond de ma pensée est qu’il ne faut pas chercher le Seigneur là où il n’est pas ! Plus j’étudie l’histoire cosmique, plus je suis convaincu qu’une fois le Big Bang lancé, elle s’est déroulée sans intervention divine. Là aussi, l’approche chronologique est particulièrement signifiante. Elle nous dit que la nature a suivi une progression vers la complexité qui, au plan matériel au moins, s’est produite sans chef d’orchestre. L’évolution obéit essentiellement à quelques lois physiques et au hasard. Si Dieu existe, il a sa place en amont, mais pas dans la gestion du quotidien. Peut-être a-t-il conçu les règles de départ d’un univers fécond et propice à l’apparition de la complexité et d’êtres conscients ? 31

Préambule

Si tel est le cas, il semble qu’une fois ces grands principes établis, il ait laissé la nature se débrouiller toute seule. Dans cet esprit, on rapporte la conclusion d’une visite de Stephen Hawking au Vatican. Le pape Jean-Paul II lui aurait dit en le raccompagnant sur le perron : « Alors, M. Hawking, nous sommes bien d’accord : après le Big Bang, c’est vous, et avant, c’est nous ! » Sans aucun doute, le présent ouvrage impose une contrainte sérieuse à la conception de Dieu en reléguant son intervention à un stade primordial et lointain. Je serai amené à imposer une restriction tout aussi sévère à la pensée athée. En effet, je dirai à quel point l’Univers semble ajusté pour être compatible avec l’existence d’êtres complexes. Par là, j’entends que si l’on changeait un tant soit peu les paramètres de la physique, par exemple la masse des particules ou l’intensité des forces, le monde serait tout autre et l’émergence de la vie serait difficilement envisageable. Tout naturellement, le croyant voit en cet ajustement très fin, le résultat d’une création divine. Pour l’athée, l’explication est plus difficile. Si un seul univers existe, il n’est pas crédible qu’une situation si singulière et improbable ait pu émerger toute seule par une simple chance. Le hasard tout puissant, comme envisagé jadis par Jacques Monod, ne peut en aucun cas engendrer un univers d’une telle sophistication sur un seul coup de dés. En revanche, le hasard devient une explication plausible si l’on admet l’existence de beaucoup d’autres mondes : disons des milliards de milliards, tous différents. Alors, le nôtre pourrait représenter un tirage gagnant parmi cette multitude. J’introduirai ainsi la notion d’univers multiples comme la seule alternative plausible à la Création divine, à mon sens.

32

Les clés secrètes de l’Univers

AVERTISSEMENT AU LECTEUR

Ce livre est un remède efficace pour résoudre les questions que vous vous posez sur l’Univers, l’apparition de la vie, l’émergence de l’Homme et son devenir. Hélas, il comporte aussi des effets indésirables : répondre à une question peut en appeler trois ou quatre nouvelles. Statistiquement, cet effet multiplicateur frappe plus d’un lecteur sur deux. L’auteur ne pourra être tenu pour responsable si vous vous posez plus de questions après avoir lu ce livre qu’avant. En poursuivant la lecture, vous reconnaissez être pleinement conscient de ce risque.

33

1 La naissance de la cosmologie

« Jusque-là, l’espace-temps était vide et plat, Einstein y mit la matière, l’espace-temps se courba et lui fit sa révérence. » Michel Cassé2

J’ai pris le parti d’écrire l’histoire naturelle de A à Z en adoptant l’ordre chronologique. Avant de partir de la lettre A, l’origine de l’Univers, quelques explications sont nécessaires quant à la vision révolutionnaire apportée par Einstein en 1915 avec sa théorie de la relativité générale, sur laquelle repose toute la cosmologie. Pendant longtemps, l’image que l’on se faisait du cosmos, était celle d’une sphère entourant la Terre, sur laquelle étaient fixées les étoiles. Puis, on avait abandonné cette conception et commencé à explorer la Voie lactée, vue cette fois, comme un volume et non comme une voûte 2.  Du Nouveau dans l’Invisible. Jean Audouze, Michel Cassé, Jean-Claude Carrière. 2017. 37

Partie 1. Du Big Bang chaud à l’Univers refroidi

(une surface). Le monde s’arrêtait là : les centaines de milliards de galaxies existant par ailleurs étaient invisibles, en dehors de quelques taches floues appelées nébuleuses, dont la nature était mystérieuse. Les progrès scientifiques importants naissent toujours d’une interaction entre théorie et expérimentation. Cela s’est produit avec la relativité dans le premier tiers du xxe siècle. D’une part, Einstein a conçu l’outil mathématique permettant d’appréhender l’Univers dans sa globalité, d’autre part, les télescopes de puissance accrue ont permis de voir au-delà de la Galaxie. L’horizon de la connaissance a soudainement changé d’échelle. Une nouvelle science est née : la cosmologie. Il lui faudra encore une quarantaine d’années pour acquérir ses lettres de noblesse. Nous allons voir d’abord comment Einstein a donné l’impulsion de départ. Partant de la relativité générale, nous retracerons la découverte, il y a près d’un siècle, d’un Univers bien plus grand qu’on ne le pensait et de surcroît, en expansion. Cette invention fondamentale en a induit une autre : celle du Big Bang que nous traiterons au chapitre suivant. ALBERT EINSTEIN, LE FONDATEUR DE LA COSMOLOGIE Nous verrons que l’Univers s’organise à partir de quatre forces : trois intervenant au niveau microscopique et une, la gravitation, œuvrant à grande échelle. Cette dernière est omniprésente autour de nous : c’est elle qui fait tomber les corps au sol. Elle est aussi le chorégraphe régissant le ballet des astres dans le cosmos. Nous allons donc nous intéresser prioritairement à elle. La théorie de la gravitation d’Isaac Newton date de 1666. Il réalise cet exploit à l’âge de 23 ans, pendant un long séjour dans la propriété familiale à la campagne, où il se réfugie lors de la grande peste frappant Londres. Selon l’anecdote célèbre de la pomme tombant de l’arbre, il imagine et décrit ce qui provoque cette chute : les corps massifs s’attirent entre eux par le jeu d’une force à distance semblable à l’attraction magnétique s’exerçant entre des aimants. Il avoue 38

Les clés secrètes de l’Univers

La naissance de la cosmologie

lui-même ne pas trop comprendre pourquoi une sorte d’élastique invisible semble attirer les masses l’une vers l’autre. L’important est que sa formule mathématique de l’attraction gravitationnelle fonctionne bien. Elle explique non seulement la chute de la pomme, mais aussi les mouvements des astres. À titre d’application, Newton démontre par un raisonnement particulièrement détaillé et rigoureux, comment la Lune tourne à distance de la Terre sans tomber sur elle. Il édicte ainsi une loi physique s’appliquant universellement à toutes les masses. Étant aussi un grand théologien, il voit dans ce type de loi de la nature, une des recettes utilisées par le Créateur pour élaborer le monde. Un sentiment religieux similaire sous-tendra la curiosité insatiable d’Einstein. Une fois sa théorie bien établie, il s’interroge sur le cosmos pris dans sa globalité : si l’on considère tous les astres le composant, peuton prévoir leur comportement collectif ? S’ils s’attirent tous entre eux comme le dit la loi de la gravitation, vont-ils s’effondrer les uns sur les autres en un grand crash cosmique ? Newton écarte une telle prophétie car dans le ciel, les astres paraissent en équilibre stable. Il le justifie d’une façon plutôt expéditive en disant : « Les étoiles ne tombent pas car, dans un univers infini, il n’y a pas de point où tomber. » Il précise néanmoins que localement, de tels effondrements se produisent. Il explique ainsi la formation des étoiles et des planètes : la matière cosmique, libre dans l’espace, s’attire par gravitation et finit par s’agréger çà et là, pour former les astres. Cette dernière prédiction est juste, cependant la première, celle d’un univers globalement en équilibre stable, ne l’est pas. En effet, nous verrons que le cosmos ne peut pas se trouver dans un état immobile, comme une bicyclette ne peut se tenir toute seule verticale à l’arrêt. Il est forcément dynamique : soit en expansion, soit en contraction. Einstein commettra la même erreur que Newton. Il l’admettra plus tard, en la qualifiant de la plus grave de sa carrière. Ainsi, la mécanique newtonienne n’offre pas une vue pertinente de la façon dont l’ensemble de la matière de l’Univers se comporte. La 39

Partie 1. Du Big Bang chaud à l’Univers refroidi

relativité générale va combler cette lacune. Pour Einstein, la gravitation liant les masses entre elles, ne s’interprète plus comme une force, c’est-à-dire une espèce d’élastique invisible qui tirerait les masses l’une vers l’autre. Il apporte une vision révolutionnaire, reposant sur la notion très abstraite de déformation de l’espace-temps. Nous allons voir de plus près de quoi il s’agit. Bien plus générale et exacte que la thèse newtonienne, celle d’Einstein peint un tableau radicalement nouveau du cosmos. Elle va permettre pour la première fois de l’appréhender comme un tout et de simuler son évolution passée et future. EINSTEIN ET LA COURBURE DE L’ESPACE-TEMPS En 1906, Einstein publie la relativité restreinte, théorie présentant l’espace et le temps sous une forme liée. Auparavant, on distinguait l’espace à trois dimensions et le temps, comme deux choses indépendantes. Désormais, on découvre qu’ils forment un bloc. L’espacetemps devient un tout à quatre dimensions. Plus tard, en 1915, il publie la relativité générale, qui complète la précédente. Il y traite de la force de gravitation, qu’il assimile à une courbure de l’espace-temps. Pour illustrer la notion d’espace courbe, nous allons ignorer le temps, non essentiel à la compréhension. Nous allons partir de la notion familière d’espaces à une, deux ou trois dimensions (fig. 1) : – Un espace à une seule dimension est une ligne. Elle peut être droite ou courbe. On notera qu’un petit insecte vivant à l’intérieur de cette ligne, pourrait s’y déplacer dans un sens ou dans l’autre, mais n’aurait aucun moyen de percevoir si elle est droite ou courbe. Il avancerait ou reculerait, voilà tout. – Un espace à deux dimensions est une surface plate ou courbe. On peut aussi imaginer un petit insecte aplati vivant dans son épaisseur. Il pourrait s’y déplacer, mais sans possibilité d’en sortir. Ne voyant la surface que de l’intérieur, il ne saurait pas si elle est plate ou non. Au contraire, un être humain l’observant de l’extérieur, verrait tout 40

Les clés secrètes de l’Univers

La naissance de la cosmologie

de suite si elle présente une courbure. Prisonnier de son espace bidimensionnel, l’insecte ne peut s’en rendre compte. – Enfin l’espace à trois dimensions est celui dans lequel nous vivons. Comme nous sommes situés dans son intérieur, à l’image des insectes déjà mentionnés, nous ne percevons pas s’il est courbé ou non. Pour s’en rendre compte, il nous faudrait disposer d’une quatrième dimension d’espace pour voir les trois autres de l’extérieur.

Figure 1 | Espaces plats/espaces courbes. La même chose existe en 4 dimensions mais on se la représente difficilement.

N’étant pas sensibles à une quatrième dimension, nous sommes condamnés à vivre dans notre espace tel le petit insecte enfermé dans sa surface. Voilà pourquoi la relativité générale est si difficile à comprendre. Notre cerveau est le fruit de centaines de millions 41

Partie 1. Du Big Bang chaud à l’Univers refroidi

d’années d’évolution depuis nos ancêtres poissons. L’Homme et tous ses ascendants ont toujours vécu dans un monde à trois dimensions spatiales. Dès lors, des notions telles que la quatrième dimension ou la courbure de l’espace nous sont peu compréhensibles. Le grand apport d’Einstein a été d’imaginer qu’une déformation invisible pouvait affecter l’espace, puis d’en tirer toutes les conséquences. Un jour où son fils cadet lui demandait pourquoi il était si célèbre, il lui avait répondu : « Quand un scarabée aveugle rampe à la surface d’une branche incurvée, il ne se rend pas compte que le chemin qu’il suit l’est aussi. J’ai eu la chance de remarquer ce que le scarabée n’avait pas vu. » LA COURBURE DE L’ESPACE EXPLIQUE LA FORCE DE GRAVITATION Pour la suite, nous allons tout simplement admettre ce qui est difficile à appréhender : notre espace à trois dimensions est affecté ici et là de courbures, invisibles pour nous. La première preuve de cette courbure, et par là même, de la théorie de la relativité, survient dès 1919. L’astronome Arthur Eddington, ami d’Einstein, conçoit une expérience à mener lors de l’éclipse solaire totale prévue cette année-là. L’objectif est de montrer que la présence du Soleil courbe l’espace autour de lui, ce qui doit dévier la lumière des étoiles lorsqu’elle passe à proximité de l’astre (fig. 2). L’éclat éblouissant de notre étoile étant occulté par la Lune, il s’agit d’observer précisément la position des étoiles dont la lumière frôle la périphérie du disque solaire. Selon la relativité générale, par sa forte masse, le Soleil doit imprimer une déformation à l’espace, obligeant la lumière de ces étoiles à suivre un chemin légèrement courbe. Cela doit se manifester par un léger décalage dans leur position apparente, entre deux photos : – l’une prise pendant l’éclipse ; – et l’autre prise six mois auparavant, la nuit, quand notre étoile n’était pas présente à cet endroit du ciel. Pour être plus précis, Einstein avait évalué ce décalage angulaire à 1,75 seconde d’arc. Les observations d’Eddington au moment de 42

Les clés secrètes de l’Univers

La naissance de la cosmologie

l’éclipse valident très exactement la courbure calculée. La théorie de la relativité générale est ainsi brillamment confirmée. À Londres, le Times en fait son gros titre : « Une révolution dans les sciences – Nouvelle théorie de l’Univers – Les idées newtoniennes battues en brèche ».

Figure 2 | Au moment de l’éclipse, les deux étoiles ne semblent pas se trouver à leur place. Elles paraissent plus écartées.

Selon cette expérience historique, il existe bien autour du Soleil une distorsion de l’espace puisque la lumière ne voyage pas en ligne droite. D’après la relativité, cette courbure est à l’origine de la gravitation. En l’espèce, Newton dirait qu’une force a dévié la lumière vers l’étoile. Pour Einstein, il n’en est rien : la lumière change de direction tout simplement en suivant cette déformation, comme un ruisseau descend toujours par l’endroit où il y a le plus de pente. Le ballet des astres dans le cosmos s’explique de la même façon. Pourquoi la Lune tourne-t-elle autour de la Terre ? Parce que la masse de notre planète creuse une dépression dans l’espace, qui piège la Lune. Comme cette déformation nous est invisible, imaginons une analogie en deux dimensions : la membrane élastique d’un trampoline (fig. 3). 43

Partie 1. Du Big Bang chaud à l’Univers refroidi

Elle est tendue et plate. Si nous déposons une lourde boule en son centre, elle va se creuser. Maintenant, si nous lançons sur cette surface une balle de tennis, elle va suivre une trajectoire courbe à cause de la déformation de la membrane : elle sera attirée dans la dépression. Si la balle de tennis a tendance à se rapprocher de la boule, il ne s’agit pas comme le disait Newton, d’une force poussant les deux masses l’une vers l’autre. En fait, la balle suit tout simplement la courbure de la membrane. L’idée de génie d’Einstein a été de voir dans la force de gravitation, l’effet provoqué par cette distorsion.

Figure 3 | Un trampoline creusé par une masse : l’analogue d’un champ gravitationnel.

Cette analogie décrit parfaitement pourquoi la Lune tourne autour de la Terre. Elle n’est en rien attirée par notre planète, elle est simplement piégée dans le creux imprimé par la Terre à l’espace. Elle suit son orbite telle une bille de roulette suivant le chemin conique qu’on lui impose (fig. 4). Seule différence, la Lune ne subit pratiquement pas de frottement et donc, pourra tourner des milliards d’années avant de tomber. On appelle champ gravitationnel cette déformation engendrée par tout corps céleste quel qu’il soit. Aucun n’échappe aux règles de la relativité générale. Poussières, gaz, cailloux, planètes, trous noirs ou galaxies, tous suivent la même loi. Nos propres corps sont sensibles à cette courbure que nous ne voyons pas : si nous sommes cloués au sol par notre poids, c’est simplement que nous ressentons le creux invisible imprimé par la Terre à l’espace, et que nous tendons à y tomber. 44

Les clés secrètes de l’Univers

La naissance de la cosmologie

Figure 4 | La Lune a été piégée par le champ gravitationnel terrestre.

COMMENT LES ASTRES SE MEUVENT-ILS DANS L’ESPACE ? L’astrophysicien J. A. Wheeler a clairement exprimé la façon dont s’organisait la chorégraphie des corps célestes : « La matière dit à l’espace comment se courber, et l’espace dit à la matière comment se déplacer. » La première partie de la phrase est illustrée par l’image du trampoline : une boule fait apparaître un creux dans la membrane. Elle lui impose une distorsion. Quant à la suite, elle tombe sous le sens : une fois l’espace courbé, toutes les masses situées dans les environs vont suivre naturellement cette courbure. En poursuivant l’analogie du trampoline, imaginons une balle de tennis lancée sur la membrane (fig. 5). Selon sa vitesse et sa direction au départ, elle pourra suivre trois types de trajectoires : – 1er cas : son trajet s’infléchit vers la boule, mais la courbure de la surface (champ de gravitation) est insuffisante pour la capturer. Elle 45

Partie 1. Du Big Bang chaud à l’Univers refroidi

subit simplement une déviation et poursuit son chemin. Cela vient de se produire dans le Système solaire : au moment où j’écris ces lignes, un astéroïde venu d’une autre étoile est passé près du Soleil, puis a poursuivi sa course dans l’espace interstellaire en solitaire, quelque peu déviée. –  2e cas : la balle de tennis est piégée et vient heurter la boule. Les étoiles filantes en sont un exemple. Il s’agit de petits grains de roche venus de l’espace interplanétaire, souvent de la taille d’un petit pois, qui sont captés par le champ gravitationnel de la Terre. Ils y tombent et brûlent dans l’atmosphère avant d’arriver au sol. Une trajectoire de ce type a été suivie par l’astéroïde responsable de la mort des dinosaures et d’une grande partie de la faune et de la flore, il y a 66 millions d’années. –  3e cas : il s’agit du cas intermédiaire entre les deux autres. Capturée par la courbure (champ gravitationnel), la balle de tennis s’approche de la boule et se met à tourner autour d’elle indéfiniment (en l’absence de frottement). Ce principe explique pourquoi des astres sont en orbite : la Lune autour de la Terre, celle-ci autour du Soleil, et lui-même en rotation avec la Galaxie.

Figure 5 | Trois types de trajectoires dans la courbure d’un champ gravitationnel.

46

Les clés secrètes de l’Univers

La naissance de la cosmologie

Ces trois scénarios ont joué un rôle dans la formation de la Lune. Il est à peu près établi qu’elle est née d’une collision entre la Terre et un autre astre environ dix fois moins lourd, de la taille de Mars. Le télescopage s’étant produit presque tangentiellement à la surface du globe, une grosse quantité de matière aurait été arrachée et lancée dans l’espace. Une partie aurait échappé au champ de gravitation terrestre pour suivre sa course dans le vide interplanétaire (1er cas ci-dessus). Une autre partie serait retombée au sol (2e cas). Enfin, la partie restante aurait été piégée en orbite autour de la Terre (3e cas). Toujours sous l’influence de la gravitation, cette masse de roche en rotation se serait finalement rassemblée en un astre, la Lune. En résumé, il faut considérer l’espace, non comme un cadre rigide, mais tel un substrat malléable se courbant en fonction des masses présentes. Cette déformation est parfaitement invisible. Elle échappe même à notre entendement. Pourtant, elle est bien là ! Depuis la preuve éclatante apportée par l’expérience d’Eddington, on se demande comment Einstein a développé une telle intelligence, au point qu’à sa mort en 1955, on a prélevé son cerveau pour l’analyser. Il a été découpé en morceaux envoyés dans différents laboratoires. Des particularités mineures ont été décelées sans beaucoup d’intérêt… Entrer dans les formules mathématiques n’est certainement pas l’objectif de ce livre. Je vais néanmoins écrire l’équation d’Einstein, non pas dans le but d’expliquer la relativité générale, mais simplement de souligner sa beauté, ainsi que la complexité qu’elle recèle. Le grand mathématicien Paul Dirac qui, peu après la découverte d’Einstein, a mis en forme le cadre mathématique rigoureux de la mécanique quantique, disait : « Les lois de la physique doivent présenter une beauté mathématique ». Selon lui, si une équation n’est pas belle, il y a peu de chances qu’elle reflète avec exactitude une loi de la nature. La beauté des mathématiques est de condenser en quelques symboles les choses les plus complexes et les plus raffinées. À ce titre, nous pensons inévitablement à l’équation connue de tous,

… 47

Partie 1. Du Big Bang chaud à l’Univers refroidi



E = mc2 Elle nous dit avec une simplicité incroyable que la matière (m) est une forme d’énergie (E). Le rapport entre les deux n’est autre que… le carré de la vitesse de la lumière (c2). L’équation de la gravitation régissant l’Univers entier, représentée en figure 6, est nettement plus élaborée et tout aussi belle. Elle lie trois objets : Gij représente la courbure de l’espace-temps provoquée par les masses. Tij représente la vitesse et l’énergie des masses. gij représente les distances dans l’espace et le temps. Comme la précédente, cette équation exprime une réalité très profonde : – la répartition des masses dans l’espace-temps lui imprime une courbure ; – une masse donnée se déplace alors, en fonction de cette déformation.

Figure 6 | L’équation qui régit l’Univers.

En travaillant sur la relativité générale, Einstein se heurta à une difficulté technique majeure : une courbure se définit non pas par un chiffre, mais par plusieurs. Il fallait donc manier des blocs de chiffres. Ne disposant pas d’une formation suffisante en mathématiques, il appela à son secours un camarade d’études devenu mathématicien : « Grossmann, j’ai besoin de ton aide sinon je vais devenir fou. » Son



48

Les clés secrètes de l’Univers

La naissance de la cosmologie



ami vint le soutenir pour transcrire ses idées sous forme mathématique. En cherchant bien, il trouva une obscure théorie développée au xixe siècle, épousant parfaitement son projet : la géométrie non euclidienne de Riemann. Elle lui permit de dérouler tout le formalisme de la relativité avec une grande pureté. Sachant que pour définir une courbure en un point donné, il faut plusieurs nombres, les trois symboles utilisés, G, T, et g représentent en fait des tableaux de 4 ou 16 chiffres. Il s’agit d’objets mathématiques appelés tenseurs. Einstein n’était pas lui-même familier du calcul tensoriel, mais Marcel Grossmann lui tint le stylo. Lorsqu’il publia enfin la relativité générale en 1915, le savant était épuisé et malade.

LES MODÈLES COSMOLOGIQUES Ce principe de courbure de l’espace s’applique-t-il aussi à très grande échelle ? Oui, bien sûr. La Galaxie creuse son propre puits liant entre elles ses 300 milliards d’étoiles dans une magnifique spirale illuminée. À très grande distance, les galaxies ressentent aussi la distorsion imprimée par leurs voisines : voilà pourquoi elles tendent à se regrouper en amas. Parfois, elles s’attirent deux à deux et fusionnent. En poussant le raisonnement plus loin, le cosmos tout entier créet-il un trou dans lequel il pourrait s’effondrer lui-même comme l’avait envisagé Newton ? Là où ce dernier n’avait pas trouvé de réponse théorique, Einstein va le faire. Son équation permet d’étudier la courbure d’ensemble de l’Univers et de là, son devenir. Par les seules mathématiques, on peut simuler toutes sortes de mondes hypothétiques : – finis ou infinis ; – plats (sans courbure) ou plus ou moins courbes ; – stables ou bien en expansion ou encore en contraction. Chacun possède sa propre dynamique dans le temps. On peut imaginer beaucoup d’univers-jouets et calculer leur évolution. 49

Partie 1. Du Big Bang chaud à l’Univers refroidi

L’équation du cosmos fait désormais partie de la science et a été vérifiée mille fois. En revanche, les prévisions faites en manipulant des modèles-jouets sont purement spéculatives. Einstein ­s’énervait parfois que l’on pût ainsi utiliser son équation à l’excès. Si elle présentait de nombreuses solutions, seules certaines avaient un sens physique à ses yeux. À ce titre, il a toujours rejeté les idées de Big Bang et de trou noir, même si elles reposaient avec exactitude sur ses propres équations. Les solutions décrivant ces deux phénomènes étaient pour lui exactes mathématiquement, cependant ineptes physiquement. Il refusait d’assumer la paternité de telles monstruosités, ce en quoi il se trompait gravement car le Big Bang ainsi que les trous noirs sont aujourd’hui des vérités démontrées. L’important, c’est qu’Einstein ait procuré à l’humanité le moyen d’étudier différents types d’univers possibles et de rechercher le modèle s’approchant le plus du nôtre. TROIS PIONNIERS S’ATTAQUENT À LA MODÉLISATION DU COSMOS Le premier à utiliser ses propres équations pour modéliser l’Univers est Einstein lui-même. Il ne lui avait pas échappé qu’il venait d’inventer l’outil idoine pour le faire, réussissant là où Newton avait échoué. Les premiers modèles cosmologiques sont issus de sa plume, dès l’année 1917. Ils reposent sur l’idée d’assimiler les milliards de galaxies à un gaz de particules, puis de calculer les effets globaux de la gravitation. À cette époque, personne n’est conscient qu’une nouvelle science vient de naître : la cosmologie. Même Einstein, qui pourtant en est le père, n’y met aucune priorité. Il préfère se tourner vers la mécanique quantique, science nouvelle en pleine éclosion, dont il est lui-même l’un des fondateurs. La cosmologie restera un domaine anecdotique jusque dans les années 1960 où elle sera enfin considérée comme une science. Après la publication de la relativité générale en 1915, très peu de scientifiques l’assimilent. Pour évangéliser le monde de la recherche, Einstein bénéficie heureusement du support d’Eddington, un poids lourd de l’astronomie. Un jour, lors d’une interview, un journaliste 50

Les clés secrètes de l’Univers

La naissance de la cosmologie

demande à ce dernier : « On dit qu’il n’y a que trois personnes au monde qui comprennent la relativité et que vous en faites partie. Est-ce vrai Sir ? » Comme le savant restait pensif, le journaliste insiste : « Voyons Sir. Ne soyez pas modeste ! » Eddington lui répond : « Oui… C’est vrai, j’en fais partie, mais je ne pensais pas à cela. Je me demandais simplement qui pouvait bien être le troisième. » L’idée d’utiliser l’équation de la relativité générale pour modéliser le cosmos tente d’autres grands esprits. Le second à s’y attaquer est un jeune et brillant mathématicien russe, Alexandre Friedmann. Il découvre, dès 1922, que le modèle d’univers proposé par Einstein n’est pas stable. Ce dernier avait dépeint un cosmos statique et immuable, erreur commise par Newton avant lui. Friedmann reconnaît que la solution calculée par Einstein est juste, mais selon lui, elle ne peut persister dans la durée. Pour prendre une analogie, d’un point de vue théorique, un crayon peut tout à fait se maintenir vertical, posé sur sa pointe. Il s’agit d’une solution valide des équations de la physique. Néanmoins, à la moindre vibration même infinitésimale, cet équilibre se rompt. Si la solution crayon vertical existe bien, elle ne peut perdurer au-delà d’un temps très court. De la même façon, la solution univers stationnaire d’Einstein est instable. Dès lors, pour Friedmann, le cosmos se trouve nécessairement en expansion ou en contraction. On peut le comparer à une pierre jetée en direction du ciel : elle peut monter ou redescendre mais pas rester immobile en l’air. Cette découverte lui vaut une polémique amère avec le grand savant. Elle s’éteindra avec la mort prématurée de Friedmann par maladie en 1925. Enfin le troisième pionnier à enfourcher ce même cheval, la modélisation de l’Univers, est le chanoine et savant belge Georges Lemaître. Il mène ses études à Cambridge où il côtoie Eddington, puis au MIT aux États Unis où il travaille pour une autre sommité de l’astro­nomie, l’Américain Vesto Slipher. Ce dernier étonne le jeune doctorant par une de ses découvertes faite quelque temps auparavant, en 1912. Il observait les nébuleuses, ces taches un peu floues remarquées par 51

Partie 1. Du Big Bang chaud à l’Univers refroidi

Charles Messier, l’astronome de Louis XV. On pensait qu’elles faisaient partie de la Voie lactée, mais on sait aujourd’hui qu’il s’agit de galaxies lointaines. Slipher avait observé un fait curieux : ces objets célestes s’éloignent tous de nous. Pour comprendre la surprise de Slipher, imaginez un ornithologue qui observerait les oiseaux aux jumelles et les verrait tous voler en lui tournant le dos, quelles que soient les directions et les distances ! Il se demanderait pourquoi tous décampent : un danger, un bruit ou une odeur les poussant à fuir ? Cette découverte de la fuite des nébuleuses, incomprise à l’époque, deviendra une pierre angulaire de la cosmologie. Il est utile de voir comment l’astronome était parvenu à une conclusion aussi surprenante. LE PREMIER INDICE DE L’EXPANSION DE L’UNIVERS Les étoiles apparaissant comme de simples points brillants, la seule façon de comprendre comment elles sont faites est d’analyser le plus finement possible la lumière qu’elles nous envoient. Pour cela, on utilise la notion de spectre lumineux découverte par Newton au xviie siècle. En faisant passer la lumière blanche dans un prisme, il la voit se décomposer selon les couleurs de l’arc-en-ciel. Il en conclut qu’elle est une superposition de toutes ces couleurs. Chacune correspond à une longueur d’onde bien précise. Dès la première moitié du xixe siècle, les astronomes appliquent ce principe pour observer les étoiles. Ils décomposent leur lumière avec un prisme, puis mesurent l’intensité pour chaque longueur d’onde. Ils obtiennent ainsi leur spectre lumineux (fig. 7). Grâce à ce procédé, ils reconnaissent des caractéristiques propres à chaque étoile. De façon similaire, l’ornithologue identifie un oiseau particulier dans la forêt, par son simple cri. C’est son oreille interne qui analyse les composantes de l’onde sonore. Des appareils savent aussi le faire, tels ceux embarqués dans les sous-marins : ils sont capables de reconnaître tout autre sousmarin par le seul bruit de son hélice. En astronomie, nous parlons d’ondes lumineuses et non sonores, mais le principe est le même. Le point important est que le spectre des étoiles fait apparaître des raies 52

Les clés secrètes de l’Univers

La naissance de la cosmologie

noires dites raies d’absorption. Elles sont très utiles car ce sont des signatures des éléments chimiques : tout atome ou toute molécule présent à la surface de l’étoile, laisse ainsi des traces qui s’intercalent à des endroits précis entre les couleurs. La composition chimique peut se lire à distance comme une sorte de code-barres.

Figure 7 | Le spectre lumineux d’une étoile et ses raies d’absorption.

Revenons à Vesto Slipher. En 1918, il étudie le spectre des nébuleuses et découvre une bizarrerie : les longueurs d’ondes (les couleurs) mesurées sont décalées par rapport à celles observées sur Terre. Comme le montre la figure 8, le décalage est systématiquement orienté vers les grandes longueurs, c’est-à-dire vers le rouge.

Figure 8 | Les couleurs du spectre sont séparées par des raies noires. Dans le spectre des nébuleuses, les couleurs, ainsi que ces raies, sont décalées vers le rouge.

53

Partie 1. Du Big Bang chaud à l’Univers refroidi

Il en comprend la signification : les longueurs d’onde des différentes couleurs se sont toutes allongées car ces nébuleuses s’éloignent de nous à grande vitesse. L’explication tient à l’effet Doppler-Fizeau bien connu depuis le siècle précédent. C’est le principe utilisé par les radars pour mesurer la vitesse des voitures. En voici une illustration dans la vie courante. Lorsque vous entendez passer une ambulance, le son de la sirène change à son passage : il devient plus grave quand le véhicule est passé et se détourne de vous (fig. 9). En d’autres termes, si une source sonore s’éloigne, la longueur d’onde du son reçu s’allonge.

Figure 9 | Effet Doppler-Fizeau : les ondes sonores se compriment quand l’ambulance s’approche et se dilatent lorsqu’elle s’éloigne.

Le même principe s’applique aux ondes lumineuses. Si la source s’éloigne, la lumière reçue se décale vers les grandes longueurs d’onde : le rouge. Ainsi, Vesto Slipher observe que la quarantaine de nébuleuses qu’il a suivies s’éloignent toutes de nous à grande vitesse. À l’époque, la découverte paraît très obscure car on ne connaît pas vraiment la nature de ces objets célestes. Pourtant, elle ne passera pas inaperçue pour son élève Lemaître : elle le mettra sur la voie de l’expansion de l’Univers. LEMAÎTRE PRÉDIT L’EXPANSION DU COSMOS En 1927, le jeune scientifique qui n’était pas au courant des travaux de modélisation de Friedmann, s’attelle à la même tâche que lui, toujours à partir de l’équation d’Einstein. La même année, il 54

Les clés secrètes de l’Univers

La naissance de la cosmologie

prend la responsabilité d’un foyer d’étudiants chinois à l’université catholique de Louvain, mariant ainsi ses activités de mathématicien et d’ecclésiastique. À l’instar de Friedmann, il découvre à son tour que le cosmos ne peut pas rester stable comme l’avait postulé Einstein : soit il se dilate, soit il se contracte. Rapprochant cela des observations de son professeur Slipher, il comprend que l’Univers est en expansion. Lemaître fait preuve d’une très grande perspicacité dans son interprétation de ce phénomène. Pour son ancien professeur, les nébuleuses (en fait, les galaxies) s’éloignent de la Terre comme le feraient des fusées. Pour Lemaître, elles ne s’échappent pas, mais l’espace-temps lui-même est en expansion. En d’autres termes, le contenant se dilate et entraîne le contenu. À titre d’illustration, on compare souvent le cosmos à un pudding avec des raisins. La pâte est ­l’espace-temps, les raisins sont les galaxies. Au four, la pâte se dilate de sorte que tous les raisins s’éloignent les uns des autres. Il n’existe pas de centre particulier depuis lequel les raisins s’éloignent. En fait, on peut imaginer un centre situé n’importe où, le résultat est toujours le même : tout raisin s’éloigne de tout autre. Telle la pâte du pudding, l’espace lui-même s’agrandit. Il entraîne les galaxies dans une fuite les unes par rapport aux autres, un mouvement dit de récession. Alors si tout est en expansion, notre propre Galaxie s’agrandit-elle aussi ? Et la Terre ? Et nous autres êtres humains, grandissons-nous aussi avec l’espace ? La réponse est non : l’expansion concerne l’espace vu globalement, mais non les galaxies, pas plus que nous-mêmes. Par analogie, si la pâte du pudding se dilate, les raisins eux, gardent leur taille. De la même façon, les étoiles, les planètes et les hommes conservent leurs dimensions car ce sont des systèmes gravitationnellement liés : la gravitation y est suffisamment intense pour maintenir leur ­intégrité. De même, nos propres organismes sont liés par la force électro­ magnétique (la chimie) qui empêche toute expansion, sauf si l’on ne fait pas attention à son régime alimentaire. La question de savoir si 55

Partie 1. Du Big Bang chaud à l’Univers refroidi

les astres et nous-mêmes nous dilatons, frise d’ailleurs l’absurde : si c’était le cas, comment nous en rendrions-nous compte ? Venant de décrire la dynamique de l’Univers, Lemaître cherche à faire connaître ses thèses dans un contexte où la cosmologie n’a pas encore acquis ses lettres de noblesse. Le physicien Richard Feynman commentait ainsi le sort réservé par la communauté scientifique à toute nouvelle théorie : dans un premier temps, on l’ignore, puis on tire dessus à boulets rouges, et enfin, si elle survit, on considère qu’elle va de soi ! Lemaître réussit à franchir la première étape, mais non la seconde, celle des critiques. Il envoie ses calculs à Einstein. Il le rencontre au Congrès Solvay qui, chaque année, réunit le Gotha de la science, et lui demande de plaider sa cause, celle de l’Univers en expansion. L’inventeur de la relativité qui, tel Newton, avait postulé que le cosmos était stable, persiste dans l’erreur et lui répond sèchement : « Vos calculs sont justes Lemaître, mais votre intuition physique est abominable. » Comme nous allons le voir, cette critique était particulièrement fausse et injuste. Bien au contraire, l’ecclésiastique faisait preuve d’un sens très aigu de la nature physique de l’Univers. Le cours de l’histoire ne fera que confirmer ses vues. Lemaître a été l’une des rares personnalités aussi visionnaires qu’Einstein et capables de lui tenir tête ! EDWIN HUBBLE CONFIRME L’EXISTENCE DES GALAXIES En science, rien ne sert d’émettre des théories si elles ne passent pas le crible de l’observation. Voilà pourquoi les physiciens se divisent en deux catégories : les théoriciens et les expérimentateurs. Les premiers font avancer la pensée, en se trompant souvent. Les seconds sont là pour valider. Einstein résumait cela par une boutade : « Théoriquement, la théorie et la pratique sont la même chose, mais en pratique ce n’est pas le cas ». Parallèlement au théoricien hors pair qu’est Lemaître, l’un des expérimentateurs les plus remarquables de l’histoire des sciences entre en scène : Edwin Hubble. 56

Les clés secrètes de l’Univers

La naissance de la cosmologie

Ce grand sportif toujours tiré à quatre épingles obtient de larges créneaux horaires sur le télescope le plus perfectionné de l’époque, pour un projet d’importance. Au moment où, sur un autre continent, Lemaître gratte des pages de calcul tensoriel pour trouver des solutions à l’équation d’Einstein, l’expérimentateur passe ses nuits à scruter les galaxies dans le froid du Mont Wilson à 1 700 mètres d’altitude en Californie. Il est extraordinaire de penser que l’activité de ces deux grands esprits converge en fait vers la même découverte par deux voies totalement différentes. À l’exemple de Vesto Slipher, Hubble observe les nébuleuses, ces taches floues dont on ne connaît pas encore la nature exacte. Muni d’un télescope plus puissant que son prédécesseur, il identifie bien les colonies d’étoiles situées très au-delà de la Voie lactée. Nuit après nuit, il mesure la luminosité de ces taches et leur décalage vers le rouge. Ces données sont soigneusement consignées et classées par un assistant très consciencieux : un muletier rencontré sur les sentiers étroits du Mont Wilson, auquel l’astronome a accordé sa confiance. Le projet de Hubble est de mesurer l’éloignement des étoiles et particulièrement des plus lointaines, situées dans d’autres galaxies. Cela a toujours été un casse-tête pour les astronomes. Très éloignées de la Terre, elles nous apparaissent comme des points : dès lors, comment estimer leur distance ? L’idée venant naturellement à l’esprit est que plus elles sont loin, moins nous les voyons briller. En mesurant leur éclat, nous pourrions donc évaluer leur distance. Malheureusement, cette approche ne donne rien de précis car leur brillance intrinsèque (à éloignement égal) varie nettement d’un astre à l’autre. Par exemple, dans la catégorie des étoiles du type de notre Soleil, certaines émettent des milliers de fois plus de lumière que lui, d’autres beaucoup moins. Comparer ainsi des choux et des navets ne mène pas bien loin. Hubble a convaincu l’administration du télescope le plus puissant du monde de lui accorder d’importants créneaux de travail. Son projet consiste à résoudre un problème difficile en astronomie : mesurer la 57

Partie 1. Du Big Bang chaud à l’Univers refroidi

distance des étoiles. En s’appuyant sur une découverte récente, il entreprend d’observer un type bien particulier, les Céphéides. Elles se reconnaissent parmi les autres grâce à une signature : leur éclat présente une alternance de hauts et de bas, selon un cycle régulier toujours semblable, permettant de les identifier facilement. Par ailleurs, et c’est là le point important, on sait calculer l’énergie lumineuse qu’émet une telle étoile. Dès lors, en observant sa brillance effective dans le ciel, on peut estimer de combien sa lumière s’est atténuée en cheminant vers nous et en déduire sa distance. En jouant le rôle de chandelle étalon, elle fournit une estimation fiable de son éloignement, simplement par la mesure de sa luminosité. Un dernier avantage des Céphéides est de se voir de loin car certaines rayonnent 10 000 fois plus que le Soleil. Grâce à la résolution élevée du plus grand télescope du monde, Hubble va pouvoir les distinguer très loin au sein des nébuleuses et évaluer ainsi leur distance. En 1925, armé de cette nouvelle méthode, il commence par montrer que les nébuleuses sont bien des galaxies lointaines. La découverte est d’importance car elle met fin à la polémique dite du grand débat, entre tenants et détracteurs de l’existence d’autres galaxies. Pour les derniers, ces taches étaient des nuages ou de petits groupes d’astres localisés dans la Voie lactée. Au contraire pour les premiers, il s’agissait d’autres galaxies, situées bien plus loin. Parmi les partisans historiques de cette dernière thèse, la bonne, figurent deux esprits distingués : Emmanuel Kant3 au xviiie siècle, puis Edgar Allan Poe4 au siècle suivant. Hubble mesure l’éloignement de la nébuleuse d’Andromède, la galaxie la plus proche. Il trouve une distance bien supérieure à ce que l’on pensait : 1 million d’années-lumière, soit dix fois le diamètre de la Voie lactée ! La messe était dite. L’existence de galaxies autres que la nôtre était prouvée. Il fallait désormais les étudier.

3.  Histoire générale de la nature et théorie du ciel. Emmanuel Kant. 1755. 4.  Eureka. Edgar Allan Poe. 1848. 58

Les clés secrètes de l’Univers

La naissance de la cosmologie

HUBBLE CONFIRME ET MESURE L’EXPANSION DE L’UNIVERS À partir de là, en 1929, il s’attaque à une vingtaine d’autres galaxies et observe à chaque fois, deux données : – leur éloignement : il y localise les étoiles-étalons, les Céphéides, comme il venait de le faire pour Andromède, et mesure leur brillance ; –  leur vitesse de fuite : reprenant les travaux de son professeur, Vesto Slipher, onze ans auparavant, il examine leur spectre lumineux (du violet au rouge). Il évalue leur décalage vers le rouge, indication directe de la vitesse à laquelle elles s’éloignent de nous. En notant soigneusement toutes ces observations, il constate que plus une galaxie est distante, plus elle fuit rapidement. Le cosmos est bien en expansion dans toutes les directions comme dans l’exemple du pudding. Plus on observe loin, plus ce que l’on voit s’échappe vite (fig. 10).

Figure 10 | Plus une galaxie est lointaine, plus vite elle s’éloigne.

59

Partie 1. Du Big Bang chaud à l’Univers refroidi

Le coefficient de proportionnalité entre distance et vitesse a été baptisé constante de Hubble. Ce nombre, affiné par la suite, joue un rôle déterminant dans l’évolution de l’Univers (fig. 11).

Figure 11 | La constante de Hubble. Unité de distance : 1 mégaparsec (Mpc) = 3,26 millions d’années-lumière

Donner le nom de Hubble à cette constante est tout à fait mérité, mais c’est aussi ignorer que Lemaître avait déjà calculé ce coefficient deux ans auparavant, par des considérations plus théoriques. Il avait trouvé une valeur très proche, à 15 % près, partant de données indirectes bien moins fiables. N’étant pas adoubé par le gourou Einstein, Lemaître travaille dans l’ombre. Ses écrits restent inconnus au moment où Hubble triomphe. Il était juste de saluer la convergence des deux grands esprits, le théoricien et l’expérimentateur, ce que la communauté scientifique a fait récemment en désignant la fuite des galaxies sous le nom de loi de Hubble-Lemaître. LA LOI DE HUBBLE-LEMAÎTRE Les conclusions de Hubble se résument ainsi : – Toutes les galaxies s’éloignent les unes des autres (mouvement de récession). 60

Les clés secrètes de l’Univers

La naissance de la cosmologie

– Plus elles sont lointaines, plus leur vitesse de fuite est élevée. – Le coefficient de proportionnalité entre distance et vitesse de récession est un nombre appelé constante de Hubble. – Il est identique dans toutes les directions de l’espace, cela prouvant l’homogénéité de l’expansion. Cette loi est vraie à grande échelle, mais ne l’est pas localement. Par exemple, la galaxie la plus proche de la nôtre, Andromède, est affectée d’un décalage vers le bleu et non vers le rouge. La raison est qu’elle se rapproche de nous à la vitesse vertigineuse de 430 000 km/h. Pourquoi ce mouvement à contre-courant des autres ? Tout simplement parce que la Voie lactée et Andromède sont suffisamment proches pour s’attirer mutuellement : elles se ruent l’une vers l’autre à une vitesse supérieure à celle de l’expansion. Selon les calculs, les deux galaxies devraient entrer en collision d’ici 4,5 milliards d’années. Il est urgent de développer les voyages humains intergalactiques ! La loi de Hubble-Lemaître est d’un intérêt pratique considérable, car elle permet de connaître instantanément l’éloignement de tout objet céleste : étoile, trou noir (par ses effets), nuage gazeux ou galaxie. Il suffit de mesurer son décalage vers le rouge. Les astronomes le mesurent par le nombre z, représentant le pourcentage de dilatation de la longueur d’onde observée. Par exemple, pour un astre de coefficient z = 0,5, la longueur d’onde reçue s’est agrandie de 50 % du fait de l’expansion de l’Univers. Grâce à la loi de Hubble-Lemaître, ce coefficient z sert de mesure de l’éloignement des objets célestes. Voici quelques valeurs de z : z = 0 : Pas de décalage. C’est le cas des astres proches, ne s’éloignant pas de nous, le Soleil par exemple. z = 1 : Une telle galaxie nous envoie une lumière dont la longueur d’onde a augmenté de 100 % (a doublé). Elle se trouve à mi-distance entre nous et les confins de l’univers observable, soit à environ 7 milliards d’années-lumière d’ici. z = 5 : Ce décalage spectral affecte les galaxies observées aux confins du cosmos, à une distance de l’ordre de 12,7 milliards d’années-

… 61

Partie 1. Du Big Bang chaud à l’Univers refroidi



lumière. La longueur d’onde de la lumière qui nous parvient s’est multipliée par 6 du fait de l’expansion de l’Univers. z = 11,9 : C’est le décalage vers le rouge de la galaxie la plus lointaine et la plus ancienne que le satellite Hubble n’ait jamais observée. Elle se trouve à 13,3 milliards d’années-lumière de nous et date donc de 500 millions d’années après le Big Bang. z = 1 000 : Ce décalage spectral est le plus grand que nous puissions mesurer : c’est celui du rayonnement fossile émis peu après le Big Bang, lorsque l’Univers était 1 000 fois plus petit qu’aujourd’hui (voir chapitre 4).

QUE NOUS ENSEIGNE CE CHAPITRE ? Avec Einstein, Lemaître et Hubble, naît une révolution dans les sciences et la pensée humaine. On s’aperçoit que le cosmos, supposé être immuable, a sa propre dynamique. La découverte de l’expansion conduit à une vision radicalement nouvelle de l’Univers : il possède une naissance, une vie et probablement aussi dans le futur, une mort. La façon dont le génie d’Einstein est venu soudainement illuminer la scène de l’astronomie, me fait penser à une histoire racontée jadis. Deux hirondelles, un couple légendaire de policiers à vélo, portant une cape et un képi noirs, patrouillent par une nuit sans lune. Sous un réverbère, ils trouvent un clochard un peu imbibé, tournant sans cesse dans le cône de lumière. Ils lui demandent : « Pourquoi es-tu là à tourner sans arrêt ? » Il répond : « Je cherche mon porte-monnaie, je l’ai perdu. » Un policier : « Mais… qui te dit que ton porte-monnaie est là ? Il peut être ailleurs… n’importe où ? » Le clochard répond : « Oui, mais ailleurs, je ne vois pas ! » La science fonctionne un peu de cette manière : les chercheurs explorent le domaine du connu pour y trouver quelque nouveauté. De temps en temps, une découverte majeure élargit soudainement le cercle de lumière de la connaissance et ouvre un champ immense de nouvelles opportunités. 62

Les clés secrètes de l’Univers

La naissance de la cosmologie

Dans les sciences de la complexité, on appelle cela pénétrer le possible adjacent. Par rapport au domaine du possible (l’aire illuminée par le réverbère), il existe tout autour des territoires proches n’attendant qu’un peu de lumière pour être explorés. Certaines percées dans ces zones d’ombre peuvent déclencher une cascade d’innovations. La relativité générale fut une telle opportunité pour Friedmann, Lemaître et beaucoup de théoriciens dans leur sillage. La construction d’un télescope aussi puissant que celui du Mont Wilson en fut une autre pour Hubble. Chacun, par ses propres moyens, s’engouffra dans un nouveau domaine du possible adjacent : la cosmologie. La découverte de l’expansion du cosmos va s’avérer cruciale et apporter à son tour un flot de conséquences. Cette idée qui avait échappé à Einstein, a mis Lemaître sur la voie du Big Bang. Plus fondamentalement, nous verrons que l’expansion est le véritable moteur de l’Univers. Il va alimenter la montée vers la complexité.

63

2 L’idée du Big Bang : l’atome primitif de Lemaître

« Qu’est-ce que l’homme dans la nature ? Un néant à l’égard de l’infini, un tout à l’égard du néant, un milieu entre rien et tout. » Blaise Pascal

QUE S’EST-IL PASSÉ UN BEAU JOUR, LORSQU’EN UN ENDROIT MINUSCULE, UNE EXPLOSION FULGURANTE A TRAVERSÉ L’ESPACE EN CRÉANT UN UNIVERS GIGANTESQUE ? Cette phrase est une boutade : elle résume à peu près tout ce qu’il ne faut pas dire sur le Big Bang : – il ne s’est pas créé un jour. Lors du Big Bang, le temps n’existait pas ou bien était d’une autre nature qu’aujourd’hui ; – le Big Bang ne s’est pas produit en un endroit particulier, pour la simple raison qu’il n’y avait pas d’endroit préexistant : rien autour, aucun contenant, aucun espace dans lequel on puisse se situer. Le 65

Partie 1. Du Big Bang chaud à l’Univers refroidi

cosmologiste Jean-Pierre Luminet5 illustre cette idée en raillant : « Il valait mieux ne pas être là au moment de l’explosion, pour ne pas être criblé de particules » ; – au niveau du cosmos, la notion de minuscule n’a pas plus de sens que celle de gigantesque. Petit ou grand par rapport à quoi ? Ces formulations maladroites nous viennent naturellement à l’esprit car elles sont d’inspiration anthropomorphique, c’est-à-dire biaisées par notre propre nature et nos perceptions coutumières. Pour comprendre quelque chose à nos origines, il est recommandé de s’en abstraire. Que pouvons-nous dire et ne pas dire à propos du Big Bang, à la lumière des dernières avancées de la pensée scientifique ? Avant d’y répondre, il est utile de distinguer deux types de théories. Les premières sont purement hypothétiques et font l’objet de débats. Elles sont nées de l’imagination de grands théoriciens, mais elles ne se sont pas encore confrontées à l’expérimentation. Je les qualifierai de spéculatives. Il ne faut pas voir en ce mot quoi que ce soit de péjoratif : pour être spéculatives, ces thèses n’en sont pas moins scientifiques. Elles reposent généralement sur des extrapolations de ce qui est connu et prouvé. En revanche, elles ne sont étayées par aucune preuve. Le présent chapitre doit être compris dans cet esprit : rien n’est sûr quant à l’origine du Big Bang. Les secondes sont les théories déjà passées au crible de l’expérience et admises unanimement par la communauté scientifique. Le chapitre suivant, consacré à l’après-Big Bang, entrera progressivement dans ce domaine de la physique bien établie. Si la naissance de l’Univers reste parfaitement mystérieuse, sa prime enfance est largement éclairée par les sciences.

5.  Jean-Pierre Luminet est un astrophysicien français. Ses explications sur la relativité sont lumineuses. https://blogs.futura-sciences.com/luminet/qui-suis-je/ 66

Les clés secrètes de l’Univers

L’idée du Big Bang : l’atome primitif de Lemaître

REPASSER LA BANDE DU FILM À L’ENVERS L’idée du Big Bang est une spéculation née d’un fait réel : la découverte de l’expansion montre que l’Univers change. Elle laisse donc penser qu’il a connu un début. Si l’on remonte le temps, en passant le film à l’envers, on voit le cosmos se contracter. En reculant suffisamment loin, on arrive probablement à une origine ponctuelle ou en tous cas, extrêmement concentrée par rapport aux échelles actuelles. La notion de Big Bang découle tout naturellement de celle d’expansion, par extrapolation vers le passé. Curieusement, le premier à émettre cette idée d’une origine ponctuelle est Edgar Allan Poe, dont nous avons déjà parlé. Il entretenait des contacts avec la communauté astronomique et s’intéressait à de nombreux sujets, dont l’origine du monde. Dans son dernier ouvrage substantiel6, il énonce différentes prédictions scientifiques pour le moins surprenantes. Il est vraiment dommage qu’il soit mort si jeune, l’année suivant la parution de ce livre, car il aurait certainement eu beaucoup à dire dans le domaine de l’astronomie. E. Poe imagine l’Univers né tout entier d’une seule particule primordiale. Depuis cette origine, il dépeint une expansion accompagnée de création de matière : « À partir de cette particule, considérée comme centrale, supposons qu’elle ait pu irradier de façon sphérique dans toutes les directions, un nombre considérable, mais fini, de petits atomes, jusqu’à des distances immesurables, mais finies, au sein de l’espace précédemment vide. » Il conçoit aussi qu’en certains endroits, les atomes vont s’agréger pour former des soleils et des planètes : il parle de condensation et de coalescence, termes repris récemment en cosmologie. Tout cela est étonnant si l’on pense qu’au xixe siècle, on ne voyait quasiment rien en dehors de la Voie lactée, on ne connaissait pas l’expansion du cosmos et on ne savait même pas si la matière était faite d’atomes. Lorsque la thèse de l’expansion commence à faire son chemin en 1927, l’idée d’origine qui en découle est généralement rejetée. Le 6.  Ibid. 67

Partie 1. Du Big Bang chaud à l’Univers refroidi

grand astronome Eddington la qualifie de « répugnante ». Il partage ainsi le point de vue de son ami Einstein, qui voit et verra longtemps le phénomène du Big Bang comme dénué de sens physique. Il est tout à fait singulier que le premier chercheur à y croire et à en offrir une description complète, soit Lemaître, un ecclésiastique. On penserait naturellement qu’il y voie la main de Dieu et pourtant ce n’est pas le cas : son approche est exclusivement scientifique et il situe l’intervention divine sur un plan différent. Après son service militaire au front pendant la première guerre mondiale, le chanoine se penche sur les équations de la relativité générale d’Einstein en vue d’étudier le cosmos. À une époque où l’on comptait sur les doigts des deux mains ceux qui comprenaient la théorie, il sait très vite en tirer les bonnes conclusions. Elle va lui servir de projecteur pour visionner le film à l’envers : remonter le temps à la recherche de nos origines. POUR LEMAÎTRE, L’UNIVERS A CONNU UN COMMENCEMENT PONCTUEL ET CHAUD Pourquoi ponctuel ? Parce que l’on ne voit pas ce qui arrêterait le film en cours de route. Cette assertion a été confirmée depuis. Pourquoi chaud ? Cela s’explique aisément par les lois de la thermodynamique : – plus on comprime un gaz, plus il chauffe : si vous gonflez le pneu d’un vélo, la pompe chauffe ; – à l’inverse, plus on détend un gaz, plus il refroidit : si vous videz une bombe de spray, elle produit du froid. Cette loi tient à la fréquence des chocs entre les molécules : plus on les tasse dans un petit volume, plus elles s’entrechoquent et plus il y a de chaleur. Le même raisonnement s’applique aux corps célestes comme à la matière de l’Univers naissant. Lemaître nomme cette origine chaude, l’atome primitif, appellation proche de la particule primordiale d’Edgar Poe. On est en 1931.

68

Les clés secrètes de l’Univers

L’idée du Big Bang : l’atome primitif de Lemaître

L’IDÉE DE L’ATOME PRIMITIF VA S’IMPOSER DANS LA DOULEUR À l’instar de toute théorie nouvelle et originale, elle se heurte à de vives réactions au sein de la communauté scientifique. Certaines critiques sont d’ordre rationnel, d’autres volent moins haut : elles visent la personnalité de son inventeur et sa qualité d’ecclésiastique. Le tout premier à s’opposer à ses vues est Einstein lui-même. Il admet que la thèse de Lemaître résulte bien de ses équations, mais refuse obstinément que l’on pousse les calculs jusqu’à des solutions « monstrueuses » du type du Big Bang ou des trous noirs. On notera au passage que, sur le plan relativiste, remonter vers le Big Bang avec des densités croissantes, revient à fabriquer un énorme trou noir. Le savant qualifie ces idées de non physiques, ce en quoi il se trompe gravement : le Big Bang et les trous noirs sont bien des réalités, l’avenir le montrera. Comme l’expansion de l’Univers mène à l’idée d’atome primitif, certains détracteurs s’attachent à la remettre en cause. Ils cherchent des alternatives pour rendre compte du décalage vers le rouge des galaxies. Il pourrait être dû au fait que la lumière « se fatigue » quand elle provient de très loin… Cependant aucune explication crédible n’est trouvée dans ce sens. D’autres admettent bien l’expansion mais refusent la notion d’une origine dans le temps. Ils imaginent alors un monde se dilatant certes, mais dont l’augmentation de volume serait en permanence compensée par une création spontanée de matière. Ainsi pourrait-il grandir éternellement, tout en présentant toujours la même densité et le même aspect. L’astronome britannique Fred Hoyle pousse assez loin l’élaboration d’un tel modèle, dit stationnaire. Dans cet univers, on observerait bien le décalage vers le rouge car il serait en expansion, cependant il conserverait la même apparence depuis la nuit des temps et pour l’éternité. Dès lors, nul besoin d’évoquer un quelconque atome primitif. L’ironie veut que Fred Hoyle, le plus grand opposant à l’idée d’une origine, soit lui-même l’inventeur du mot Big Bang. Il avait imaginé 69

Partie 1. Du Big Bang chaud à l’Univers refroidi

ce nom pour ses interviews radiophoniques dans un but de pure dérision, et pourtant, l’histoire retiendra l’appellation. Il défendra son modèle stationnaire avec âpreté jusqu’en 1965, année de la découverte du rayonnement fossile, la preuve irréfutable de l’existence du Big Bang. D’autres détracteurs de Lemaître sont moins élégants. Certains font allusion à sa qualité de prêtre et suggèrent qu’il se soit livré à un amalgame de mauvais goût entre science et religion. Il aurait exploité les équations d’Einstein, non pas de manière objective, mais avec l’intention de trouver une preuve scientifique à la Genèse. Ces critiques parfois explicites, plus souvent implicites, contrarient beaucoup l’ecclésiastique. Il y répond de façon remarquablement limpide, en énonçant qu’il n’identifie aucunement l’atome primitif à un acte de création. Pour lui, rien ne dit que ce soit l’origine de l’Univers. Il y voit plutôt une transition d’un état métaphysique vers un état physique, avec à la clé la naissance de l’espace et de la matière. À la fois théologien et savant, il a choisi d’étudier l’atome primitif par la voie des sciences et non celle de la religion. La Genèse, selon lui, se produit bien en amont. Il croit au Dieu caché d’Isaïe, absent de notre monde et laissant sa Création, la nature et l’Homme, œuvrer en toute autonomie. Dans ce sens, la transition telle que l’abbé la conçoit, est un événement naturel comme un autre. Cette position tranche avec celle d’Einstein, lui-même pourtant croyant. Lorsque Lemaître aborde avec lui la question de l’atome primitif, il l’interrompt en disant : « Ah, non. Cela suggère trop la Création ! » Curieusement, Einstein souhaite réserver ce domaine à la spiritualité, alors que l’abbé s’y intéresse scientifiquement, « sous la protection de Dieu » bien sûr. Il cherche avant tout à éviter de « mélanger foi et raison » pour ne pas créer un « conflit imaginaire ». L’équilibre délicat qu’il établit entre physique et croyance religieuse sera soudainement ébranlé par le pape Pie XII lui-même. En découvrant la thèse de l’atome primitif, ce dernier y voit la fusion tant souhaitée des sciences et de la religion. Dans un discours en 1951, 70

Les clés secrètes de l’Univers

L’idée du Big Bang : l’atome primitif de Lemaître

il énonce que l’idée catholique de la Création s’inscrit maintenant harmonieusement dans les théories scientifiques. Il rencontrera Lemaître l’année suivante, lequel aura ainsi l’opportunité de préciser sa pensée : laisser chacun des deux domaines à sa place, la science pour expliquer le matériel et la religion pour le spirituel. Toutes ces oppositions aux thèses du chanoine perdureront tant que l’hypothèse de l’atome primitif restera spéculative. Elles s’éteindront progressivement dans les années 1960 avec l’accumulation de confirmations physiques sur l’existence du Big Bang. La preuve définitive sera apportée par la détection du rayonnement fossile en 1965, un an avant sa mort. Les réticences à accepter le concept du Big Bang sont tellement fortes et naturelles, qu’il est utile d’en dire un mot. Elles peuvent se regrouper en trois catégories : 1. Les considérations spirituelles. Les détracteurs clament, à juste titre, que la cause du Big Bang n’est pas décrite par les sciences, si ce n’est au mieux, de façon spéculative. Si Albert Einstein avait parlé français, il aurait pu dire : rien n’est établi, ce qui est l’anagramme de son nom ! À l’instar de Pie XII, ces opposants se réservent le droit d’y voir l’acte de Création, ce à quoi la science n’a pas grand-chose à répondre. 2. Beaucoup de sceptiques ne se font pas à l’idée que l’ensemble de l’Univers ait pu se concentrer dans un volume quasi ponctuel. Je me souviens de mon propre étonnement et de mes doutes lorsque, encore enfant, j’ai découvert cette thèse pour la première fois. Pourtant, même si ses origines restent mystérieuses, il est aujourd’hui prouvé que le monde a connu par le passé une échelle parfaitement microscopique en comparaison de ce qu’il est devenu. 3. Enfin, la remontée vers notre passé intime nous place devant une contradiction entre nos propres théories scientifiques. En deçà d’une longueur minimum, appelée mur de Planck, nos théories deviennent incohérentes. Il s’agit d’une limite fondamentale de la connaissance, aujourd’hui infranchissable. 71

Partie 1. Du Big Bang chaud à l’Univers refroidi

Avant de parler positivement des origines, nous répondrons à ces deux derniers types de réticences : la petite taille de l’Univers primitif et le mur de Planck. LE COSMOS EST PASSÉ PAR UN STADE HYPERCONCENTRÉ L’Univers observable actuel représente une sphère de 13,8 milliards d’années-lumière de rayon. Comment imaginer qu’à l’origine, il ait pu être concentré en une dimension quasi ponctuelle ? Pour s’en convaincre, il faut d’abord s’interroger sur les notions de petit et de grand. Essayez de définir ces mots dans l’absolu, vous n’y parviendrez pas. Vous chercherez en vain des repères et vous réaliserez que toutes les définitions reviennent toujours à dire, peu ou prou : petit signifie plus petit que moi, et grand, l’inverse. En d’autres termes, ces mots relèvent de l’anthropomorphisme. Or le monde n’a pas déterminé son évolution en prenant la taille de l’homme comme référence ! Je recommande de se méfier des termes grand ou petit, même si par commodité, il m’arrive souvent de les utiliser. En cosmologie, plutôt qu’évoquer des dimensions, on préfère parler de facteur d’échelle. Il s’agit simplement du rapport entre les distances à une époque et à une autre, selon le stade où en est l’expansion. Ceci peut s’illustrer de façon simple à partir de la notion familière d’échelle des cartes géographiques. En écrivant ces pages, j’ouvre Wikipédia à la page États-Unis et je vois ce pays représenté par une image de 5 cm de large sur mon écran. Comme il mesure en réalité 5 000 km, j’en déduis que je vois une carte à l’échelle du cent-­ millionième. Entre la perception d’une personne vivant sur place, et la mienne sur mon écran, il existe un facteur d’échelle de cent millions (fig. 12).

72

Les clés secrètes de l’Univers

L’idée du Big Bang : l’atome primitif de Lemaître

Figure 12 | Le facteur d’échelle.

De la même façon, selon l’époque à laquelle on observe l’Univers, au moment du Big Bang ou bien aujourd’hui, ou encore dans 50 milliards d’années, on le voit à des échelles différentes à cause de l’expansion. L’important est de comprendre que dans tous ces cas de figure, il est toujours un tout (c’est la définition du mot Univers !), même si l’échelle change. Dans cet ordre d’idées, si le cosmos est infini de nos jours, alors il l’était déjà lors du Big Bang. Pour reprendre l’image de la carte géographique : si je réalise une carte au cent-millionième, d’un paysage dont la taille est infinie, ma carte sera elle-même infinie. Quoi de plus logique ? 73

Partie 1. Du Big Bang chaud à l’Univers refroidi

L’idée que l’Univers ait pu être extrêmement concentré à ses débuts, est naturellement contre-intuitive. Il faut savoir dépasser le sens commun et admettre tout simplement qu’entre l’époque du Big Bang et aujourd’hui, l’échelle dans laquelle se mesurent les distances a totalement changé. LE MUR DE PLANCK, UNE LIMITE DE LA CONNAISSANCE La remontée vers les origines par les équations d’Einstein se heurte à un grave problème théorique resté sans solution. Les calculs ont permis à Lemaître de repasser le film à l’envers en direction du point de départ. Au fur et à mesure de ce voyage, on voit la densité de l’Univers, son énergie et sa température augmenter. Les échelles de temps se raccourcissent aussi, comme les distances. En effet, en relativité, l’espace et le temps sont liés par la vitesse de la lumière : plus l’échelle des longueurs raccourcit, plus celle du temps bat vite. Le jeune Univers a un pouls très rapide. Cette course vers les débuts se termine de façon inattendue. En visionnant le film à l’envers, la pellicule casse un mètre avant la fin de la bobine. Aimeriez-vous lire un roman policier et découvrir en approchant de la solution de l’énigme, que les trois dernières pages du livre ont été arrachées ? Vous comprenez l’état d’âme des scientifiques constatant que tout près du Big Bang, lorsque les distances (et les temps) passent en dessous d’une certaine valeur, surgit une impossibilité : la relativité devient inconciliable avec une autre théorie, la mécanique quantique. Ce fait mérite quelques explications tant il est déterminant pour la suite de ce livre. Les années 1930 ont connu le grand essor de cette nouvelle physique de l’infiniment petit, une science tout aussi exacte et féconde que la relativité. Elle a décrit le comportement des particules élémentaires, imprimé un essor considérable à la chimie, et donné naissance à l’électronique. Elle a révolutionné notre conception du monde en offrant une image très originale des particules, en rupture totale avec la physique classique : 74

Les clés secrètes de l’Univers

L’idée du Big Bang : l’atome primitif de Lemaître

– en raison du flou quantique, on ne peut localiser une particule avec précision dans l’espace. Cette incertitude n’est en rien liée à la qualité des instruments utilisés. Elle est une propriété fondamentale de la nature, de même que les notions suivantes ; – selon les expériences, le même objet revêt la forme d’une particule ou bien d’une onde ; – grâce à cette propriété, une particule peut passer en plusieurs endroits à la fois ; – elle existe simultanément dans plusieurs états (excité, polarisé…)  ; – si l’on mesure son état, elle choisit une des possibilités, au hasard, selon certaines probabilités… Ce comportement fortement contre-intuitif est aujourd’hui bien connu et maîtrisé, à défaut d’être réellement compris. Hélas, on n’est jamais parvenu à appliquer ces concepts à la gravitation décrite par Einstein. Or en remontant le temps, à un certain stade, l’Univers de plus en plus concentré atteint l’échelle microscopique où les phénomènes quantiques ne peuvent plus être ignorés. Là, c’est l’impasse : on se heurte à une incompatibilité totale entre les deux théories. L’obstacle résiste depuis près d’un siècle. Dans la vie courante (celle des scientifiques tout au moins), les deux théories sont utilisées dans des domaines distincts : le macroscopique pour l’une, le microscopique pour l’autre. En revanche, à l’approche du Big Bang, les deux théories s’avèrent indispensables : la relativité car le champ de gravitation devient immense, et la mécanique quantique à cause de l’échelle microscopique. En simulant le passé jusqu’à ses débuts, nous sommes arrêtés par cette impossibilité appelée mur de Planck, en référence au fondateur de la mécanique quantique. Curieusement, la nature semble jeter un voile pudique sur nos origines en nous cachant notre passé le plus ancien et intime. Jean d’Ormesson7 avait évoqué cet échec de façon imagée : « La toute puissante physique mathématique qui nous a révélé tant de secrets, hoquette, bafouille, perd pied et 7.  Comme un chant d’espérance. Jean d’Ormesson. 2014. 75

Partie 1. Du Big Bang chaud à l’Univers refroidi

s’arrête pile. Tout se passe comme si un malin génie jaillissait tout à coup au seuil de notre univers sur le point de voir le jour, en brandissant une pancarte : “Au-delà de cette limite, votre science n’a plus cours”. » LE MUR DE PLANCK RECÈLE UNE SIGNIFICATION PROFONDE QUANT AUX LIMITES DE LA SCIENCE EN GÉNÉRAL Si l’on ignore les phénomènes extrêmes tels que le Big Bang ou les trous noirs, le mur de Planck ne gêne pas trop les scientifiques. Il intervient à une échelle extraordinairement petite, appelée longueur de Planck. Elle représente 1,62 · 10– 33 cm, ce qui signifie environ : 0,000 000 000 000 000 000 000 000 000 000 001 cm. Une échelle très inférieure à tout ce que l’on peut mesurer, ne veut pas dire grand-chose sur un plan matériel. En revanche, sur un plan logique, il s’agit d’une impasse fondamentale. Depuis les années 1930, on tente de casser ce mur, mais pour l’instant, cela reste un vœu pieux et il faut bien parler de crise majeure de la physique théorique. À mon sens, cette impossibilité nous rappelle tout simplement qu’il existe une limite à ce que l’être humain peut dire du réel. Les deux théories, vérifiées par l’expérimentation à moins d’un cent-milliardième près, sont toutes deux très efficaces, mais ne sont pas pour autant la réalité. Elles sont des modèles forgés par l’esprit humain pour appréhender le réel, avec un domaine d’applicabilité large et néanmoins limité. Le physicien Richard Feynman disait à ses étudiants « ce que je vous raconte là, c’est une espèce de saga conventionnelle que les physiciens racontent à leurs étudiants, lesquels à leur tour la raconteront à leurs étudiants, et ainsi de suite. » Il sous-entendait qu’il fallait y voir une image de la réalité, transmise de cerveau à cerveau, et rien de plus. De telles constructions cérébrales ne sont pas le propre de l’Homme. Elles se retrouvent à un degré plus élémentaire dans le règne animal, 76

Les clés secrètes de l’Univers

L’idée du Big Bang : l’atome primitif de Lemaître

en particulier chez les mammifères. Elles prennent naissance dans la partie extérieure du cerveau, formée de multiples couches de neurones et dotée de circonvolutions, appelée néocortex. Je me souviens du jour où j’ai vu un écureuil hésiter avant de sauter d’un arbre à un autre, relativement distant. Il est resté immobile quelques secondes en position de bondir, puis s’est jeté dans le vide. Que faisait-il pendant ce temps de réflexion ? Sans aucun doute, il jaugeait si la courbe de son saut aboutirait bien sur l’autre arbre. Il comparait ce qu’il voyait, le contexte réel des deux arbres, avec un modèle balistique gravé dans son néocortex. L’écureuil dispose par instinct et par expérience, de cette faculté de simuler, de prédire et donc… de décider ! Nous fonctionnons de la même manière, en forgeant des modèles utiles et précis pour guider toutes nos actions. Cependant, il ne faut jamais oublier que ce sont des constructions de l’esprit. La description einsteinienne de la gravitation est plus exacte que celle de Newton et a permis d’en reculer les limites. Le prix à payer a été celui d’une grande complexité mathématique. La mécanique quantique est un autre modèle encore plus sophistiqué. Si ces œuvres de l’esprit collent très précisément à la réalité, elles restent des artéfacts intellectuels et, qui plus est, désespérément abstraits. Selon Niels Bohr, la physique ne traite pas du monde lui-même, mais seulement de ce que nous sommes capables d’en dire. Cette conception de la réalité a fait l’objet de très intenses débats entre Einstein et lui. L’incohérence entre mécanique quantique et relativité est d’une nature très fondamentale, ce qui en a fait une réelle impasse. Einstein l’avait pressenti dès les années 1920. Il avait d’abord considéré la première théorie comme fausse. Puis, il avait dû admettre la justesse des prédictions qu’elle offrait. Il s’était alors violemment insurgé contre son côté probabiliste : pour lui, une théorie digne de ce nom devait exprimer des certitudes et non des probabilités. Il la qualifiait d’incomplète et s’opposait avec fermeté (mais amicalement) à Niels Bohr, lequel lui a toujours tenu tête avec raison.

… 77

Partie 1. Du Big Bang chaud à l’Univers refroidi



Pourquoi, cette incohérence ? Il se trouve que les deux théories reposent sur des bases tout à fait contradictoires : – La relativité est déterministe : une cause entraîne un effet et un seul. La mécanique quantique est essentiellement probabiliste : une particule revêt potentiellement plusieurs états, plus ou moins probables. On ne peut pas prévoir exactement lequel va se manifester. – La relativité est locale : on peut exactement évaluer la position d’un objet, à condition de disposer d’instruments suffisamment précis. Pour la seconde, une particule est plus ou moins étalée dans l’espace. Aucun appareil, aussi précis soit-il, ne peut résoudre cette incertitude. – La relativité est causale : les phénomènes influent les uns sur les autres par des signaux ne pouvant dépasser la vitesse de la lumière. En mécanique quantique, on observe des effets instantanés à distance, car deux particules éloignées peuvent se comporter tel un seul et unique objet si elles ont interagi auparavant. Plusieurs tentatives d’unification des deux théories ont été développées depuis les années 1980. La plus connue, la théorie des cordes, a pour l’instant échoué, enfoncée dans la complexité mathématique. On raconte que sur le campus de Princeton, on reconnaissait de loin les spécialistes de cette discipline, au grand carton à dessin qu’ils portaient toujours sous le bras : il fallait des feuilles de papier de cette taille pour écrire les équations ! D’autres voies de recherche existent pour unifier la physique, telle la gravité quantique à boucles. Certains, à l’exemple de Stephen Hawking, croient en l’avènement d’une telle théorie du tout, englobant nos deux grandes théories. D’autres, tels le cosmologue Lee Smolin8, y voient un rêve de nature quasi religieuse. Pour ma part, je parie que si l’une de ces tentatives aboutit, elle nous enfoncera de nouveau un peu plus loin dans la complexité mathématique et l’abstraction. Elle deviendra un modèle encore plus théorique et éloigné du sens commun que la physique actuelle. De plus, elle présentera certainement à son tour, ses propres limites… Le physicien brésilien Marcelo Gleiser dit : « Et comme, en dépit de nos fantastiques instruments, nous ne disposerons jamais



8.  Rien ne va plus en physique. Lee Smolin. 2010. 78

Les clés secrètes de l’Univers

L’idée du Big Bang : l’atome primitif de Lemaître



d’une information complète à propos du monde, notre vision de la réalité sera toujours limitée. Nous serons toujours tel un poisson dans un bocal, même si notre bocal grandit tout le temps. » Aussi sophistiquées soient-elles, nos deux grandes théories ont montré leurs limites. Dieu merci, il existe beaucoup d’autres façons d’appréhender le réel et d’accroître notre champ de vision, notamment en nous inspirant des sciences du vivant ou en utilisant les simulations par ordinateur, ce à quoi nous nous emploierons plus loin.

QUE PEUT-ON DIRE DE RÉALISTE SUR LE BIG BANG ? Nous avons expliqué tout ce qu’il ne faut pas en dire, tout ce qui est contre-intuitif et finalement tout ce qui échappe à la science. Alors que reste-t-il de vrai et de tangible ? La prédiction de Lemaître est aujourd’hui bien vérifiée : l’Univers provient sûrement d’une origine extrêmement dense et chaude. Ensuite, le déroulement de l’après-Big Bang, décrit au prochain chapitre, appartient en très grande partie au domaine où la science est bien assise. En revanche, ce qui précède le mur de Planck reste spéculatif : pas de preuves, que des conjectures. Parmi celles-ci, je citerai les trois principales approches existant à ce jour. La première, d’inspiration religieuse, voit dans le Big Bang la main de Dieu. On peut l’assimiler à la Création. On peut aussi dire, comme Lemaître, qu’il s’agit du passage entre un état, peut-être métaphysique, et la réalité physique. À mon sens, la science n’élucidera pas ce point de façon décisive avant longtemps, voire jamais. La crise de la physique actuelle le suggère et la fameuse théorie unificatrice tant recherchée depuis maintenant près d’un siècle, me semble relever de l’utopie. S’agissant des origines, le champ reste donc libre au niveau spirituel et chacun peut développer ses propres croyances sur la question. Nous reviendrons sur ces idées à la fin de ce livre. La deuxième approche tente de remonter en deçà du mur de Planck par le biais des mathématiques. De grands esprits s’y sont 79

Partie 1. Du Big Bang chaud à l’Univers refroidi

attelés : depuis Stephen Hawking ou Roger Penrose, jusqu’aux frères Bogdanoff. Ces thèses consistent généralement à envisager l’origine comme un état où toutes les données deviennent infinies. On désigne sous le nom de singularité initiale, cette situation extrême échappant à nos théories. Il est utile de noter que le même terme est utilisé pour évoquer un autre mystère : celui de l’intérieur des trous noirs. Dans les deux cas, la singularité est un endroit où l’espace-temps semble s’évanouir ou se déchirer. On cherche alors à décrire ce phénomène par les mathématiques, ce qui aboutit à s’éloigner de tout sens commun. À ce jour, ces démarches théoriques n’ont rien produit de crédible. Enfin, la troisième approche de nos origines consiste à se limiter aux faits prouvés : l’Univers a été d’une densité et d’une chaleur extrêmes. Partant de là, l’idée est d’en chercher des interprétations. C’est l’esprit de ce livre. Si l’on m’interroge sur l’avant Big Bang, j’aime avouer mon ignorance en répondant à la façon de saint Augustin. Il expliquait qu’avant la Création, il y avait Dieu, et si on lui demandait ce qu’il y avait eu avant Dieu, il répondait : « Un enfer pour les gens posant ce genre de question ». Sous un angle plus scientifique, certains considèrent le Big Bang chaud comme une simple transition depuis un monde précédent s’étant effondré sur lui-même, puis redéployé. On peut d’ailleurs imaginer un tel scénario se répétant dans le temps. On parle alors d’univers cyclique. On imagine volontiers qu’à chaque épisode chaud, le cosmos « fait un reset », de sorte que les lois de la nature se redéfinissent sur de nouvelles bases. Ainsi, chaque version peut être très différente de la précédente. Selon d’autres interprétations, il existerait un méta-univers, dont le nôtre serait une toute petite partie. Il engendrerait en permanence une « mousse » de nouveaux univers se formant et se défaisant en permanence, à travers autant de Big Bangs. Enfin, d’autres thèses énoncent que les bébés-univers naissent dans l’intérieur des trous noirs. Difficile d’aller le vérifier ! Nous reprendrons ces thèmes dans le dernier chapitre. 80

Les clés secrètes de l’Univers

L’idée du Big Bang : l’atome primitif de Lemaître

Pour poursuivre notre récit chronologique, nous partirons du mur de Planck, en deçà duquel tout se brouille. Nous considérerons qu’à ce moment-là, existaient simplement deux choses : – une bulle d’énergie pure extrêmement chaude et chargée d’information ; – la force de gravitation. AU MOMENT DU MUR DE PLANCK : UNE BULLE D’ÉNERGIE PORTEUSE D’INFORMATION Prise comme point de départ, cette bulle est souvent qualifiée de vide car elle ne contenait aucune particule : et pour cause, la matière n’était pas encore créée ! Faut-il en déduire qu’il y avait de l’énergie et rien d’autre ? Bien au contraire. On emploie volontiers le terme de faux vide car, à vrai dire, il était plutôt bien rempli : il contenait déjà potentiellement tout ce qui existe aujourd’hui ! Outre l’énergie, il était déjà doté de toutes les lois de la nature que les physiciens passent leur temps à décrypter depuis Galilée : la loi de la gravitation, celles de la chimie ou de la thermodynamique. Ainsi, la bulle d’énergie initiale était dotée d’information. Ce point n’est pas sans rappeler l’ADN des êtres vivants : dans l’œuf fécondé, une molécule d’ADN suffit pour construire intégralement le nouvel être dans toute sa complexité. De la même façon, lors du Big Bang, la substance initiale est dotée des propriétés essentielles permettant l’éclosion d’un monde très sophistiqué. Il est intéressant de pousser la comparaison un peu plus loin. Nous verrons que l’être vivant se développe à partir de deux mécanismes : – celui de la genèse, au sens de l’œuvre du génome ; – et celui de l’épigenèse, venant de la confrontation de l’organisme avec l’environnement. Un exemple : l’élaboration du cerveau humain. La genèse offre dès la naissance, un « précâblage » des neurones, suffisant pour assurer les fonctions vitales du bébé comme la respiration, la digestion ou la perception de la douleur. En outre, ce précâblage est organisé pour 81

Partie 1. Du Big Bang chaud à l’Univers refroidi

se développer et se façonner au gré de l’expérience, lorsque le jeune cerveau se confrontera à l’environnement. C’est l’épigenèse. Les deux mécanismes se retrouvent à tous les niveaux de l’organisme. En voici un second exemple : le tube digestif. Sa constitution, disons la « tuyauterie », est déterminée par les gènes. Ensuite, par épigenèse, il s’y établit naturellement un microbiote de plusieurs milliers d’espèces, propre à chaque individu. L’enfant hérite des germes transmis par sa mère lors de l’accouchement et en acquiert de nouveaux apportés par son alimentation. Nous avons découvert récemment à quel point ce microbiote, de nature épigénétique, était important pour la santé. Pour terminer cette description du vivant, nous dirons que la genèse est très déterministe : voilà pourquoi deux vrais jumeaux se ressemblent toujours. Au contraire, l’épigenèse laisse une immense part au hasard : l’expérience cérébrale du nouveau-né ou l’exposition de son tube digestif aux germes, sont des facteurs aléatoires. Revenons maintenant au développement de l’Univers. Par analogie, nous pouvons comparer les lois de la nature présentes dans la bulle d’énergie primordiale, à une forme de génome. Elles vont déterminer toutes les grandes lignes de son devenir, comme une forme de genèse. Si nous poursuivons la comparaison avec l’être vivant, le jeune Univers ferait-il aussi l’objet d’une épigenèse ? Que peut signifier sa confrontation à l’environnement, s’il est lui-même tout par définition ? Quel environnement pourrait influencer son développement ? Pourtant, une forme d’épigenèse va se produire car il va se confronter à l’environnement qu’il crée lui-même ! Cette idée paraissant un peu théorique, nous allons en donner une illustration concrète : la création de la Terre. Sur le plan de la genèse, sa formation résulte des lois de la physique et de la chimie. Elles ont permis aux éléments minéraux de se former dans la région de l’espace où nous nous trouvons. Elles ont agrégé la matière pour former le Soleil et ses satellites. Pour expliquer plus précisément ce 82

Les clés secrètes de l’Univers

L’idée du Big Bang : l’atome primitif de Lemaître

qu’est notre planète, beaucoup d’autres facteurs interviennent, dont la nature est épigénétique. En fait, il s’est créé un environnement complexe autour de la Terre : la présence d’un soleil nous chauffant à une certaine température, les perturbations chaotiques du système planétaire provoquées par la grande masse de Jupiter, et le bombardement cométaire ayant apporté l’eau des océans il y a 4 milliards d’années. Tous ces facteurs environnementaux ont joué au moins autant que les lois de la nature pour faire exister notre planète. Ils relèvent largement du hasard et contribuent à une sorte d’épigenèse. Cette analogie est très pertinente car elle révèle comment le monde fonctionne d’une façon très générale : Nous ne pouvons pas réduire l’évolution de l’Univers au seul effet des lois de la nature. – Le hasard joue un rôle prépondérant. – Les lois physiques servent à le contraindre. Les lois de la nature étaient présentes dans la bulle d’énergie originelle, comme l’ADN l’est dans l’œuf nouvellement fécondé. À partir de là, elles vont encadrer l’évolution et laisser se développer par le jeu du hasard, un environnement extraordinaire de beauté et de complexité. Le croyant pourra voir dans cet ADN initial l’œuvre de Dieu. L’agnostique ou l’athée pourront s’émerveiller et s’interroger sur le fait qu’une aussi excellente recette de cuisine ait pu être gravée dans une simple bulle d’énergie.

83

3 Les trois premières minutes de l’Univers : la création de la matière et des forces

« Comment la nature aurait-elle pu exprimer plus violemment son horreur du vide qu’en lui substituant un univers ? » Edgar Gunzig, cosmologiste

Ce que nous allons voir dans ce chapitre repose largement sur le modèle standard, théorie très exacte et fertile décrivant le comportement des particules sur les bases de la mécanique quantique. Nous passerons ainsi très vite du champ des spéculations à celui de la science bien établie. Pour être plus précis, dès que la température du cosmos sera descendue à 100 millions de milliards de degrés, nous entrerons dans le domaine validé par l’expérimentation. En effet, cette température correspond aux énergies manipulées aujourd’hui dans le grand accélérateur de particules du LHC à Genève. 85

Partie 1. Du Big Bang chaud à l’Univers refroidi

Cet appareil, digne d’un roman de Jules Verne, est un anneau sousterrain de 27 km de circonférence, dans lequel on accélère des particules (des protons) dans les deux sens, à des vitesses très proches de celle de la lumière. On provoque alors leur collision. Un seul couple de protons lancés à une telle allure l’un sur l’autre, déclenche un feu d’artifice de 20 000 nouvelles particules que l’on analyse ensuite dans le détail avec le concours de l’informatique. En raison des énergies mises en jeu, il s’agit d’une superbe machine à remonter le temps : outre la validation du modèle standard, elle confirme la majorité du scénario du Big Bang. Le prix Nobel de physique Steven Weinberg a décrit très précisément les trois premières minutes de l’Univers9. On aurait pu aussi bien lui attribuer un prix Nobel d’« histoire », car il est parvenu à retracer avec exactitude une tranche de trois minutes de notre passé, située 13,8 milliards d’années avant Jésus Christ ! EXPANSION ET REFROIDISSEMENT, LE MOTEUR DE LA COMPLEXITÉ Dans l’histoire naturelle présentée ici, une loi apparaît omniprésente : le simple fabrique le complexe. On ne sait pas vraiment pourquoi cette caractéristique très singulière est universelle. Par exemple, savez-vous que tout Internet repose simplement sur un logiciel et un petit manuel de règles ? S’il s’engage à les respecter, tout opérateur de télécom peut se brancher sur le réseau et apporter ses propres lignes et ses clients à un édifice reliant désormais plus de la moitié de la population mondiale. Toute cette infrastructure s’est construite sans chef d’orchestre, sans investissement étatique, sans autorité régulatrice… Bien sûr beaucoup d’intelligence a été mise au départ dans le logiciel et le fascicule. L’Univers est ainsi fait : à partir d’un petit nombre d’ingrédients (quelques sortes de particules) et de règles (les lois de la physique), il développe une immense diversité à grande échelle. 9.  Les Trois premières minutes de l’Univers. Steven Weinberg. 1988. 86

Les clés secrètes de l’Univers

Les trois premières minutes de l’Univers…

Ce chapitre va nous emmener dans les ateliers de Vulcain, là où par une chaleur extrême, juste après l’origine, se sont forgés les quelques types de particules suffisants pour élaborer tout ce que vous pouvez voir autour de vous, aussi bien à l’œil nu qu’à travers télescopes et microscopes. Tout commence à l’échelle de Planck, à un moment très proche de l’origine, soit à : 10– 43 seconde (1/1 000 000 000…e de seconde, avec 43 zéros). Nous l’avons déjà dit : il ne sert à rien de chercher à comprendre ce que signifie un temps si petit, à partir de nos points de repère habituels. Le pouls de l’Univers au moment du Big Bang battait beaucoup plus vite qu’aujourd’hui. C’est tout ! Nous nous situons à cette époque, dans des niveaux d’énergie tout aussi incommensurables. La température atteignait : 1032 degrés (1 000 000 000… avec 32 zéros). Quel pouvait bien être le destin d’une bulle d’énergie aussi chaude ? Refroidir bien sûr ! Il ne faut pas comparer son refroidissement à celui d’une casserole que l’on retire du feu. L’ustensile de cuisine baisse en température car il échange sa chaleur avec un environnement plus froid. En revanche, dans le cas de notre bulle d’énergie, il n’existe aucun environnement autour d’elle avec lequel elle puisse échanger. Elle refroidit pour une autre raison : l’expansion, qui rappelle la détente d’un gaz. Comme nous l’avons déjà évoqué, l’expansion est une caractéristique absolument nécessaire à l’existence du monde. Elle est l’analogue du principe de Carnot pour les moteurs thermiques : ils ne peuvent produire du travail que s’ils disposent d’une source chaude (l’essence qui brûle) et d’une source froide (l’atmosphère). Le cosmos fonctionne effectivement ainsi. Sa source chaude provient tout naturellement du Big Bang, quant à sa source froide, elle naît de l’expansion. Un passé chaud et un futur froid, voici la recette qui fait avancer la nature. 87

Partie 1. Du Big Bang chaud à l’Univers refroidi

L’EXPANSION COMMENCE PAR UN ÉPISODE TRÈS RAPIDE : L’INFLATION D’après les premiers modèles de l’évolution du cosmos élaborés par Friedmann et Lemaître, l’expansion est lancée par l’impulsion initiale du Big Bang, puis elle décélère progressivement. Pourquoi ce ralentissement ? Il est clair qu’en attirant les masses entre elles, la gravitation joue le rôle d’une force de rappel et contrarie l’expansion. La figure 13 montre cette décélération au cours du temps.

Figure 13 | Modèle de Friedmann-Lemaître : l’expansion ralentit.

Pendant une quarantaine d’années, la cosmologie reste entre les mains des relativistes et ce schéma fait l’objet d’un consensus. Puis, dans les années 1970, le film du Big Bang chaud commence à intéresser les spécialistes de la physique des particules. Voyant qu’il met en jeu des niveaux d’énergie bien plus élevés que ceux des accélérateurs de particules qu’ils fabriquent à grands frais, ces scientifiques y voient un terrain d’expérimentation naturel dans les très hautes puissances. Ils s’invitent au spectacle. Ils vont apporter de nouveaux points de vue, inspirés cette fois de l’infiniment petit : la mécanique quantique. En 1980, l’un d’entre eux, Alan Guth, présente un modèle révolutionnaire : peu après le mur de Planck, le cosmos aurait connu une phase d’expansion fulgurante pendant un temps extrêmement bref. C’est l’épisode de l’inflation, une dilatation aussi brève que 88

Les clés secrètes de l’Univers

Les trois premières minutes de l’Univers…

démesurée, dépassant de beaucoup la vitesse de la lumière (fig. 14). Elle se serait très rapidement arrêtée, pour laisser place à l’expansion modérée observée aujourd’hui et conforme aux modèles classiques de Friedmann-Lemaître.

Figure 14 | Modèle inflationnaire d’A. Guth : une expansion fulgurante au départ.

Une croissance aussi rapide est-elle une infraction à la relativité ? En fait, non, car c’est l’espace lui-même, dénué de matière, qui grandit. Il a tout loisir de le faire plus vite que la vitesse de la lumière sans pour autant enfreindre les lois d’Einstein. Ces dernières s’appliquent au contenu, la matière, mais non au contenant, l’espace. L’idée de l’inflation repose sur la physique des particules. Guth l’explique en faisant intervenir un nouveau champ hypothétique. Il ressemblerait au champ gravitationnel, mais serait répulsif et non attractif. Jouant dans le sens contraire de la gravitation, il aurait imprimé une dilatation exponentielle fulgurante à l’espace-temps. Cette inflation rappelle celle de 1923 en Allemagne, où le prix du pain 89

Partie 1. Du Big Bang chaud à l’Univers refroidi

s’était multiplié par un milliard en 11 mois. Le cosmos a fait mieux et plus rapidement. À ce jour, la thèse de Guth n’est pas prouvée. Différentes descriptions en ont été données sur le plan théorique, parmi lesquelles on ne sait pas encore trancher. On ignore aussi par quel mécanisme elle s’est arrêtée. Pourtant la grande majorité des cosmologistes contemporains est convaincue par ce scénario. En effet, il est le seul expliquant sans contradiction, la fameuse « photo » du rayonnement fossile, dont nous parlerons au prochain chapitre. Il élucide aussi quelques mystères cités plus bas. L’inflation, forme très accélérée de l’expansion, nous enseigne autre chose sur la dynamique du cosmos. Dans les modèles classiques, on voyait en l’expansion un simple mouvement divergeant, imprimé une fois pour toutes lors du Big Bang. On pouvait comparer cela à la trajectoire d’une pierre jetée en l’air et continuant sur sa lancée. Cependant l’inflation suggère une tout autre conception : désormais, on voit plutôt l’expansion comme une caractéristique de l’espacetemps susceptible de varier selon les époques. Elle a été fulgurante juste après le Big Bang, puis elle a adopté un rythme modéré. Nous verrons plus loin qu’elle s’accélère aujourd’hui. Elle serait commandée par des forces inconnues à ce jour, dont l’effet pourrait changer au cours du temps. Nous reviendrons sur ce point essentiel. Bien que purement spéculative, la thèse de l’inflation a été accueillie très positivement pour avoir résolu d’un coup deux casse-têtes majeurs du Big Bang. Disons un mot de ces deux grandes énigmes un peu complexes. 1. Le problème de l’horizon Le cosmos nous apparaît remarquablement homogène : il a partout le même aspect à très peu de chose près. L’observation du rayonnement fossile le confirme sans ambiguïté. Elle indique qu’en toutes directions, l’Univers présente une température quasiment identique. Pour le physicien, cela ne peut pas se produire par hasard : une telle



90

Les clés secrètes de l’Univers

Les trois premières minutes de l’Univers…



homogénéité reflète nécessairement une situation d’équilibre thermique. Nous en avons de nombreux exemples dans la vie courante. Ainsi, dans une piscine, la température est partout égale car les molécules d’eau sont en contact permanent les unes avec les autres. Elles échangent constamment leur énergie de proche en proche de sorte que celle-ci s’égalise. Il en va de même dans le cosmos : la chaleur se transmet par rayonnement à travers l’espace, comme celle d’un radiateur dans votre appartement. Là où le bât blesse, c’est qu’en raison de l’expansion, la chaleur rayonnée dans le vide intergalactique doit franchir des distances astronomiques. Or entre deux régions distantes, elle ne peut se communiquer plus vite que la vitesse de la lumière. D’où une impossibilité : deux endroits très éloignés sur la sphère céleste, par exemple l’un plein sud et l’autre plein ouest, n’ont jamais pu être en contact physique. Pour être précis, selon les modèles relativistes, deux points du firmament distants de plus de 2 degrés d’angle (4 fois le diamètre apparent de la Lune) n’ont pas pu être connectés par le passé. Ils n’ont donc pas eu le moyen d’échanger leur chaleur. Dès lors, aujourd’hui le ciel devrait se présenter tel un patchwork de zones plus ou moins chaudes ou froides. Or, paradoxalement, la température du cosmos est partout homogène à quelques cent-millièmes de degré près. Cette caractéristique reste inexplicable par les modèles traditionnels de la cosmologie relativiste. Comment l’inflation résout-elle cette énigme ? Il se trouve simplement qu’en provoquant une expansion plus rapide que la vitesse de la lumière, elle a dispersé extrêmement loin des endroits qui étaient en contact auparavant. Dès lors, si ces endroits sont aujourd’hui en équilibre thermique, c’est qu’ils l’ont été par le passé, avant d’être violemment projetés très loin les uns des autres. Leur température s’était donc égalisée avant l’épisode inflationnaire. CQFD ! 2. Le problème de l’absence de courbure de l’Univers Au chapitre 1, nous avons vu que les masses courbaient l’espacetemps. Cela pose une question : le cosmos, pris dans son ensemble, est-il courbé ? Ce point est essentiel car, comme nous le verrons, il détermine son futur à très long terme.

… 91

Partie 1. Du Big Bang chaud à l’Univers refroidi



Depuis la naissance de la cosmologie, on accumule les indices prouvant que l’Univers ne présente pas de courbure globalement. Certes, tout astre en provoque une localement autour de lui, mais à très grande échelle, on n’en détecte aucune. Ce point a été confirmé par la « photo » du rayonnement fossile. Ces observations sont énigmatiques. En effet, si l’on simule toutes sortes d’univers avec l’équation d’Einstein, on se rend compte qu’ils devraient être courbés d’une manière ou d’une autre. L’absence de courbure constatée dans le cosmos est donc une caractéristique extrêmement singulière ne pouvant certainement pas venir du seul hasard. Il doit forcément exister un mécanisme le plaçant dans cet état. Lequel ? Il se trouve que l’inflation résout naturellement cette énigme. En effet, plus l’échelle grandit, plus la courbure apparaît faible. Un exemple nous est donné par la Terre. Nous savons qu’elle est sphérique et pourtant sa rotondité est très peu visible à notre échelle. Voilà pourquoi 9 % de la population française pense encore qu’elle peut être plate (il faudrait leur recommander ce livre !). Dans le cas du cosmos, on illustre ce fait par l’image d’une baudruche que l’on gonfle. Au début, elle présente une courbure sphérique très visible, mais c’est moins le cas une fois qu’elle est gonflée. Alors, un puceron posé sur sa surface, décèlerait difficilement son incurvation. Si elle pouvait gonfler à l’infini, sa membrane finirait par apparaître parfaitement plate localement. Ce même principe explique la planéité de l’Univers aujourd’hui : en le dilatant considérablement, l’inflation a « lavé » la courbure qu’il présentait au départ.

LES PARTICULES MATÉRIELLES SONT « IMMATÉRIELLES » Pendant l’inflation et le court instant suivant, se forment toutes les particules composant le monde. Pour être plus précis, un dixmilliardième de seconde après le Big Bang, le cosmos est déjà doté de la totalité de ses particules. Puis, après plusieurs phases, elles vont 92

Les clés secrètes de l’Univers

Les trois premières minutes de l’Univers…

s’assembler en atomes qui constitueront la matière usuelle. Avant de dérouler cette histoire, donnons quelques explications sur la matière. Les particules élémentaires sont les constituants de l’Univers les plus petits connus. On en a identifié une soixantaine d’espèces dont sept constituent à elles seules, toute la matière ordinaire. Les autres sont soit des formes exotiques apparaissant dans les très hautes énergies, soit des types instables, d’une durée de vie extrêmement courte. Il est tout à fait remarquable que sept briques élémentaires suffisent pour constituer toute la richesse du monde : l’Univers entier est un immense jeu de Lego fait de seulement sept pièces de base ! Encore un exemple montrant comment le simple fabrique le complexe. Si ces particules de matière ont pu échafauder des structures sophistiquées, c’est aussi parce qu’elles sont liées entre elles par des forces. Là encore, on s’étonnera de voir à quel point la nature est parcimonieuse : seules quatre forces existent en tout et pour tout. Nous avons déjà évoqué l’une d’entre elles, la gravitation, décrite par Newton puis Einstein. Les trois autres agissent au niveau des atomes. Il est surprenant que les ingrédients de base soient si peu nombreux : sept particules de matière et quatre forces expliquent tout. Par exemple, dans un univers imaginaire, on pourrait aussi bien découvrir 3 512 sortes de particules et 637 types de forces ! On en est très loin : le sens de l’économie de la nature est tout à fait singulier. Il fait la joie des physiciens car avec si peu de briques élémentaires, le monde se prête plus facilement à l’usage des mathématiques ! Voilà peut-être pourquoi Galilée disait que le grand livre de la philosophie (la science) était écrit dans la langue mathématique. Cependant, il ne faut pas généraliser cette maxime. Elle s’applique difficilement au monde du vivant : avec un génome de 1,5 milliard d’informations élémentaires, fabriquant 60 000 types de protéines, et un cerveau de près de 100 milliards de neurones, l’être humain ne se décrit pas facilement par les mathématiques ! De quelle nature sont les particules ? Intuitivement, nous nous en faisons l’image de petits grains, cependant la physique quantique nous en a donné une tout autre vision : elles ne sont pas solides, mais plutôt 93

Partie 1. Du Big Bang chaud à l’Univers refroidi

floues, voire immatérielles. Einstein a ouvert la voie en 1905, en énonçant que le photon, ou grain de lumière, est un objet dual capable d’apparaître tantôt comme un corpuscule, tantôt comme une onde. Depuis, ce dédoublement de la personnalité pour le moins contreintuitif a été constaté pour toutes les particules et s’observe tous les jours dans les laboratoires. Elles sont donc des objets flous, fuyants, étalés dans l’espace. Pire encore, elles se matérialisent d’une façon incertaine, c’est-à-dire fondée sur des probabilités. Notre esprit a été façonné par l’expérience du monde usuel, dit macroscopique, dans lequel existent soit des ondes, sonores par exemple, soit des corpuscules tels des grains de sable, mais non un mélange des deux. À l’échelle des particules élémentaires, le monde n’est pas fait comme notre cerveau le voudrait. Même les notions de position ou de vitesse, évidentes pour nous, ne semblent pas être des propriétés premières des particules. Tout le côté étrange de la mécanique quantique provient de ce hiatus entre la réalité profonde de la nature au niveau microscopique et la manière dont notre esprit cherche à la décrypter. L’un des grands pontes de cette discipline, Richard Feynman, disait à ce sujet : « Si vous me présentez quelqu’un prétendant comprendre dans le fond, la mécanique quantique, je suis convaincu qu’il n’y comprend rien. » Face à ce paradoxe, la façon dont nous comprenons les particules passe nécessairement par les mathématiques et les probabilités. Nous les appréhendons plus comme des objets abstraits que matériels au sens courant. Nous devons renoncer à les voir avec notre intuition et il nous faut accepter cette vision théorique. Elle fonctionne très bien dans la pratique : tous nos appareils électroniques en dérivent. COMMENT LA MATIÈRE CLASSIQUE ÉMERGE DE L’IMMATÉRIEL De ce monde flou et contre-intuitif, vont émerger les atomes, des objets déjà plus compréhensibles pour le commun des mortels. Pour qualifier leur apparition, nous reprendrons le terme étonnamment moderne qu’Edgar Poe avait utilisé en imaginant le Big Bang : la coalescence. On en voit un exemple quand du brouillard se dépose en 94

Les clés secrètes de l’Univers

Les trois premières minutes de l’Univers…

fines gouttelettes sur une vitre. À partir d’un moment, elles s’agglomèrent, grossissent et finissent par couler. Ce phénomène se réalise aussi au sein des nuages et produit la pluie. Les particules issues du Big Bang vont faire de même : avec le refroidissement, elles s’assembleront en atomes. Avant d’expliquer comment, rappelons ce qu’est un atome. À l’époque de Démocrite, l’humanité se posait déjà la question de savoir s’il existait des grains de matière ou bien si elle était continue et infiniment divisible. Il a fallu attendre le début du xxe siècle pour découvrir ce que le philosophe grec avait prédit : la matière est effectivement granulaire. L’atome est le constituant de base de la matière usuelle. Sa forme rappelle un système planétaire miniature avec : – un tout petit noyau au centre, lourd et chargé positivement ; – des électrons bien plus légers et de charge négative, gravitant tout autour ; – et entre eux, énormément de vide !

Figure 15 | L’atome est constitué de 3 strates à des échelles différentes. L’exemple du carbone.

95

Partie 1. Du Big Bang chaud à l’Univers refroidi

La figure 15 illustre l’exemple de l’atome de carbone, un élément chimique parmi la centaine existant. À l’image de nombreuses constructions naturelles, il est fait de plusieurs strates à des échelles différentes. En allant de l’extérieur vers l’intérieur : 1. La première strate, la plus grande, est un nuage d’électrons gravitant autour du noyau. On emploie ce terme car la position des particules est floue et s’estime exclusivement de façon statistique. Vu de l’extérieur, l’atome se résume à ce nuage. Dans le cas du carbone, il comprend 6 électrons. 2. La deuxième strate est bien plus petite. C’est le noyau situé au centre. Il comprend 12 particules massives : 6 protons chargés positivement et 6 neutrons sans charge. Les 6 protons équilibrent la charge négative des 6 électrons, de sorte que l’atome dans son ensemble est électriquement neutre et stable. 3. On a longtemps pensé qu’il n’existait rien dans une échelle inférieure à celle des neutrons et des protons ; cependant, en 1968, on a découvert la troisième strate : ils se composent eux-mêmes de particules encore plus petites, les quarks, assemblés en triplets. On dénombre une petite centaine d’atomes, classés selon leur nombre d’électrons : carbone (6), oxygène (8), fer (26), etc. Le plus petit de ces éléments est l’hydrogène avec 1 seul électron. Le plus grand, le plutonium, en possède 94. Ils se combinent entre eux pour engendrer toutes les substances usuelles par les vertus de la chimie. En reprenant le film qui part du Big Bang, nous verrons se former les trois niveaux constitutifs de l’atome : quarks d’abord, puis noyaux et enfin nuages électroniques. Ils s’organisent du plus petit vers le plus grand. Il en va toujours ainsi : l’Univers est stratifié et chaque strate émerge de celle du dessous. Cette organisation de la matière soulève des questions fondamentales. D’abord, on peut se demander pourquoi les particules s’assemblent ainsi en atomes stables. Si l’on imagine tous les univers théoriquement possibles, l’existence d’atomes dotés de telles propriétés s’avère encore une caractéristique très singulière. Dans la plupart 96

Les clés secrètes de l’Univers

Les trois premières minutes de l’Univers…

de ces mondes hypothétiques, avec des lois de la nature un tant soit peu différentes, il n’y aurait pas d’atomes et donc pas de structures complexes : la matière serait simplement faite d’une soupe de particules informe, incapable de s’organiser. A fortiori la vie n’aurait jamais pu s’y développer. De plus, même si un tel univers permettait la coalescence des atomes, encore faudrait-il qu’ils soient suffisamment stables. À défaut, la matière serait partout radioactive et les structures se détruiraient aussi vite qu’elles apparaissent. Si l’on réfléchit à ce qu’est notre monde parmi tous ceux qui seraient possibles, on arrive toujours à la même conclusion : il présente des caractéristiques très improbables. Pour reprendre le film des événements, nous allons découvrir comment, après le Big Bang, la matière s’est progressivement organisée pour aboutir à la structure en atomes décrite brièvement plus haut. Nous distinguerons cinq étapes : 1. La naissance des particules dans la bulle d’énergie primordiale. (À un dix-milliardième de seconde du Big Bang) 2. La formation des protons et des neutrons à partir des quarks. (Un millionième de seconde après) 3. L’annihilation matière-antimatière. (D’un millionième de seconde à 14 secondes) 4. L’agrégation des noyaux atomiques. (À 3 minutes) 5. L’assemblage des atomes. (À 380 000 ans : ce sera l’objet du chapitre suivant) Voyons donc maintenant le déroulement des trois premières minutes après le Big Bang, c’est-à-dire des quatre phases ci-dessus. PHASE 1. LA NAISSANCE DES PARTICULES DANS LA BULLE D’ÉNERGIE PRIMORDIALE Juste après le Big Bang, en se refroidissant, cette bulle donne progressivement naissance à toutes les familles de particules composant le cosmos, une par une, à différentes températures. En un 97

Partie 1. Du Big Bang chaud à l’Univers refroidi

dix-milliardième de seconde, le travail est fait : l’Univers est devenu une soupe très chaude de particules. Il ne s’agit pas d’une génération spontanée, mais plutôt d’une transformation. Pour le comprendre, il faut revenir à la célèbre équation d’Einstein, E = mc2, établissant l’équivalence entre l’énergie (E) et la matière (m). En découvrant cette formule, le savant a tout simplement prouvé que la matière n’est autre qu’une forme très condensée de l’énergie. Dès lors, les deux se transforment naturellement entre elles dans les deux sens. Par exemple, lors d’une explosion nucléaire, il n’y a pas conservation de la masse : une petite partie disparaît purement et simplement. La contrepartie de cette perte est l’apparition d’une énergie considérable, un enfer de feu. Il y a eu conversion d’un peu de masse en beaucoup énergie, conformément à l’équation d’Einstein. Lors du Big Bang, le contraire se produit. Au lieu d’un échauffement très rapide comme dans le cas de la bombe, l’Univers va connaître un refroidissement brutal en partant d’une chaleur très élevée. Au départ, la fournaise, bien plus chaude que le champignon atomique, empêche les particules de se former. Cette situation cesse avec le refroidissement accéléré dû à l’inflation : l’énergie peut alors se convertir en matière. Cet événement rappelle la façon dont la matière change d’état : par exemple dans une casserole, l’eau bouillante passe de la phase liquide à la phase gazeuse. Ici l’Univers va passer brutalement de l’état de bulle d’énergie (ou faux vide) à celui d’une soupe de particules. Ce type de phénomène appelé transition de phase, surviendra de multiples fois au cours de l’histoire naturelle. Étant donné l’importance de ce processus dans l’évolution, il est utile de bien en préciser le principe. Reprenons l’exemple de l’ébullition de l’eau. Lorsqu’à la température exacte de 100 °C, l’eau se transforme en vapeur, on observe trois modalités : 1. Le changement est radical c’est-à-dire discontinu. Dans le cas de l’ébullition, on passe de molécules liées entre elles électriquement (un liquide), à un nouvel état où les particules sont libres (un gaz). On peut qualifier cette évolution de brutale plutôt que graduelle. 98

Les clés secrètes de l’Univers

Les trois premières minutes de l’Univers…

2. La transition se produit à une température très précise. Au contraire du phénomène d’évaporation qui peut se développer sur une très grande plage de températures, celui de l’ébullition apparaît à 100 °C précisément. Ce fait a été utilisé par Anders Celsius au xviiie siècle pour définir l’échelle du thermomètre : par convention, il a appelé 100 la température de la transition glace-eau et 0 celle de la transition eau-vapeur (oui, vous lisez bien : les deux nombres ont été inversés plus tard !). 3. Enfin, la transition de phase se produit partout à la fois : si la température est homogène dans la phase liquide, on voit les bulles y surgir simultanément en tous endroits. Dans le cosmos à ses débuts, différentes transitions de phase ont donné naissance aux particules de matière, ainsi qu’aux quatre forces dont nous parlerons un peu plus loin. Chaque type de particule apparaît à un moment et à une température bien précis, comme l’a très bien décrit Weinberg. Ainsi, la bulle d’énergie initiale s’est rapidement transformée en un milieu tout à fait nouveau : une soupe de particules encore très chaude, essentiellement des quarks et des électrons animés par des forces. PHASE 2. LA FORMATION DES PROTONS ET DES NEUTRONS À PARTIR DES QUARKS Peu après, toujours avec le refroidissement, la deuxième des quatre forces de la nature va apparaître et imposer sa loi aux quarks. Il s’agit de la force nucléaire décrite plus loin. Elle va les obliger à s’agréger trois par trois sous la forme de protons et de neutrons. Ainsi naissent ces nouvelles particules qui formeront plus tard les noyaux des atomes. À ce stade, il n’existe plus un seul quark libre : ils sont tous confinés dans des particules plus grosses. C’est encore le cas aujourd’hui. À cette époque du passé, la température est « tombée » à 10 000 milliards de degrés. Nous sommes désormais largement entrés dans le domaine de la science expérimentale, car ces niveaux d’énergie sont reproduits 99

Partie 1. Du Big Bang chaud à l’Univers refroidi

quotidiennement dans les accélérateurs de particules. À partir de là, les physiciens peuvent parler en totale connaissance de cause. PHASE 3. L’ANNIHILATION MATIÈRE-ANTIMATIÈRE Voici peut-être l’épisode le plus surprenant ayant suivi le Big Bang. Je le qualifierais de « première grande extinction de la faune et de la flore ». En effet, la moitié des espèces de particules existantes entre dans une guerre sans merci avec l’autre. Le conflit se déroule d’une manière impitoyable : à chaque rencontre entre deux ennemis, ils s’annihilent tous les deux, si bien que les effectifs vont être rapidement décimés dans les deux camps. La bataille aurait dû s’achever avec la disparition complète des deux moitiés. Or il se trouve qu’un des deux camps disposait d’un minuscule avantage numérique. Cet infime surplus de soldats va survivre : il représente toute la matière connue aujourd’hui. Voyons plus exactement ce qui s’est passé. Si nous revenons à la soupe ultra-chaude issue de la phase précédente, nous y trouvons des protons, des neutrons et des électrons. Par souci de simplicité, nous n’avons pas précisé qu’il existait aussi d’autres particules du même genre, appelées antiparticules. De quoi s’agit-il ? Voici un exemple en considérant l’électron. Paul Dirac a démontré, en 1928, qu’il devait exister aussi des positons (ou antiélectrons), à savoir des particules conformes aux électrons en tout point sauf un : ils sont porteurs d’une charge positive au lieu de négative. Ces positons n’existant plus aujourd’hui dans les atomes stables, sont néanmoins bien connus. On les utilise dans un type de scanner moderne dit TEP-scan (la Tomographie par Émission de Positons), très utile pour la prévention du cancer. Les positons sont émis par une substance radioactive injectée dans le corps, puis leur présence est détectée par une caméra. Nous pouvons considérer le positon comme « l’ennemi mortel » de l’électron : s’il rencontre l’un d’entre eux, la paire s’annihile en émettant une lumière très intense. Le même principe s’applique aux protons et aux neutrons, qui possèdent aussi leurs frères ennemis : antiprotons et antineutrons. 100

Les clés secrètes de l’Univers

Les trois premières minutes de l’Univers…

Plus généralement, toute matière quelle qu’elle soit, existe en deux versions symétriques avec des charges inversées : on parle de matière et d’antimatière. En dehors de la charge qui les oppose, les deux ennemis se ressemblent parfaitement. Par exemple, on pourrait imaginer la Lune faite d’antimatière. Vue au télescope, elle aurait exactement l’aspect qu’on lui connaît. Cependant, la vérité aurait éclaté au grand jour en 1969, lorsque la mission Apollo 11 a été lancée sur la Lune : elle se serait terminée par un feu d’artifice visible à l’œil nu depuis la Terre. À l’époque très chaude des débuts, les deux types de particules ennemies coexistaient dans un feu infernal. À un certain stade du refroidissement de l’Univers, situé environ à un millionième de seconde de l’origine, la coexistence des deux formes devient impossible et l’annihilation commence : toute rencontre entre une particule et son antiparticule provoque leur destruction immédiate et émet un flash de lumière. Cette annihilation s’apparente à une transition de phase : particules et antiparticules se transforment massivement en rayonnement partout à la fois. L’énergie dégagée est considérable (en raison de E = mc2). Si aujourd’hui, on pouvait disposer d’un seul kilogramme d’antimatière, il suffirait à subvenir aux besoins énergétiques annuels de l’Europe entière. Si dans un avenir lointain, on était capable de stocker dans deux réservoirs, quelques kilogrammes d’antimatière d’une part, et de matière ordinaire d’autre part, on pourrait les utiliser comme carburant et comburant. On réaliserait alors des fusées d’une puissance telle qu’elles approcheraient la vitesse de la lumière et permettraient d’envisager la colonisation de la Galaxie. Il n’est pas exclu que d’éventuelles civilisations extraterrestres disposent déjà, ou aient disposé jadis, de cette forme d’énergie. Peut-être verra-t-on un jour arriver des touristes sur des scooters à antimatière. La pétarade ne passera pas inaperçue. Lorsque la guerre fratricide entre matière et antimatière s’est terminée, on aurait dû se retrouver sans rien. En effet, les lois de la 101

Partie 1. Du Big Bang chaud à l’Univers refroidi

physique étant symétriques, on devait s’attendre à une égalité stricte entre les quantités de matière et d’antimatière. Dès lors, la bataille aurait dû se solder par la mort de tous les combattants. La matière se serait évaporée et l’Univers serait exclusivement fait de rayonnement lumineux ! On ne serait pas là pour en parler. Pour des raisons non encore élucidées, il existait un tout petit excédent de matière sur l’antimatière : seulement un milliardième. En d’autres termes, on comptait 1 000 000 001 particules pour 1 000 000 000 antiparticules. Après une annihilation massive, ce minuscule solde a survécu. Il constitue toute la matière visible dans le cosmos aujourd’hui ! Cette curieuse situation pose une question importante : d’où vient cette asymétrie inattendue (et heureuse !) ? Le principe sous-jacent s’appelle une brisure spontanée de symétrie. Il joue un rôle considérable dans l’évolution de l’Univers et mérite quelques explications. D’une manière générale, nous avons dit que les lois de la physique exprimaient des symétries : ici, la présence de matière et d’antimatière dans la même proportion répond à une loi du modèle standard des particules. Pourtant, lors de l’évolution, ces symétries mènent parfois à des résultats asymétriques par le fait du hasard. Une image simple de ce mécanisme est le tirage au sort à pile ou face. La pièce lancée en l’air est supposée symétrique, dans le sens où aucune de ses deux faces n’est privilégiée. De même, lorsqu’elle tourne en l’air, la loi du mouvement conserve la symétrie. En revanche, au moment précis où elle tombe sur la table, elle est obligée de « choisir » une face, ce qui force l’intervention du hasard. La symétrie est brisée. Ainsi s’introduisent des choix aléatoires dans l’évolution. La célèbre phrase d’Einstein, « Dieu ne joue pas aux dés », est une erreur gravissime et l’on comprend la répartie de Niels Bohr, le champion de la mécanique quantique : « Qui êtes-vous Einstein pour dire à Dieu ce qu’il doit faire ? » Constatant que nous devons notre monde et notre vie à un tout petit grain de sable dans la physique des particules, j’irai jusqu’à dire que la nature se construit principalement par des 102

Les clés secrètes de l’Univers

Les trois premières minutes de l’Univers…

mécanismes aléatoires, dont les brisures de symétrie. Pour Lemaître, l’Univers est « une chanson dont chaque note est nouvelle et imprévisible. Le monde se fait, et il se fait au hasard ». Les brisures spontanées de symétrie se produisent très souvent au cours des transitions de phase. Elles provoquent des variations imprévisibles que je vous invite à ne pas prendre pour des défauts, mais plutôt comme l’essence des choses : – d’abord, il s’agit d’un mécanisme ingénieux forçant l’introduction du hasard dans la nature ; – ensuite, les défauts en résultant sont souvent un point de départ pour l’émergence de la complexité car ils fabriquent de la variété. Nous l’avons déjà dit, si le monde se contentait d’appliquer les lois de la physique, il n’existerait rien d’intéressant : des lois simplistes, un univers désolant de monotonie et bien sûr, pas d’êtres pensants pour commenter ! Les lois naturelles sont peut-être un chef d’orchestre, cependant le véritable acteur est le hasard. Le cosmologiste Lee Smolin écrit à ce sujet : « La brisure spontanée de symétrie est le moyen adopté par la nature pour résoudre le dilemme entre unification et diversité. » Les lois unifient et les brisures créent la variété. L’asymétrie matière-antimatière reste un grand mystère aujourd’hui. Certains l’attribuent à l’expansion. En effet, si la dilatation de l’espace est plus rapide que les réactions nucléaires, celles-ci peuvent ne pas s’équilibrer parfaitement comme le demanderait la théorie. D’une manière générale, beaucoup de brisures de symétries s’organisent avec de tels décalages dans le temps. En l’occurrence, nous retrouvons cette idée qu’un univers statique (sans expansion) serait resté stérile. L’annihilation matière-antimatière a pris quelque temps car il fallait bien que tous les protagonistes se soient rencontrés un par un. De plus, ce mécanisme s’est produit plusieurs fois à des moments différents selon le type de particule concerné : protons, neutrons, électrons. Le plus tardif à s’annihiler a été le couple électron-positon, disparu à la quatorzième seconde après le Big Bang. À cet instant, toute l’antimatière a disparu et l’Univers est devenu une soupe de 103

Partie 1. Du Big Bang chaud à l’Univers refroidi

protons, neutrons et électrons. S’y ajoute une quantité importante de lumière, car chaque annihilation en a produit beaucoup. Cette radiation intense est parfois appelée le flash du Big Bang. Encore visible aujourd’hui, elle sera captée dans la photo du rayonnement fossile décrite au chapitre suivant. PHASE 4. L’AGRÉGATION DES NOYAUX ATOMIQUES La bataille précédente laisse sur le terrain trois rescapés : les électrons, les protons et les neutrons. Une nouvelle phase se déclenche à la troisième minute après le Big Bang, lorsque les deux derniers se mettent à « jouer collectif » : protons et neutrons commencent à se combiner pour former les noyaux des futurs atomes. Là aussi, la rapidité de l’expansion va contrarier ces réactions. Le refroidissement rapide les prend de vitesse, de sorte que seuls les noyaux de deux éléments chimiques vont en résulter, sur les 94 connus : – le premier, le plus simple, était déjà là : c’est le noyau d’hydrogène, constitué d’un seul proton ; – le second, un peu plus complexe, est le noyau d’hélium formé de 2 protons et 2 neutrons. Pourquoi cette formule ? Parce qu’elle est stable et s’agrège facilement (c’est le principe des bombes H !) ; – les noyaux plus lourds et plus complexes à obtenir parviennent difficilement à s’assembler. Faute de temps, ils apparaissent en quantité infinitésimale. On parle là de noyaux atomiques, mais pas encore d’atomes complets. Les électrons continuent à vivre leur vie librement. L’Univers est désormais une soupe désorganisée de noyaux et d’électrons appelée plasma. Il est opaque car la lumière, les photons, ne peuvent circuler en ligne droite : leur cheminement est sans cesse contrarié par les charges électriques présentes. LES FORCES ET LEURS PARTICULES Nous venons de décrire l’histoire de la matière pendant les trois premières minutes qui ont suivi le Big Bang. À plusieurs reprises, 104

Les clés secrètes de l’Univers

Les trois premières minutes de l’Univers…

nous avons évoqué d’autres acteurs : les quatre forces agissant sur les particules. Voyons maintenant comment elles sont apparues et le rôle qu’elles ont joué. D’abord, il faut préciser qu’en physique quantique, les forces sont elles-mêmes des particules. Dire qu’une force se manifeste entre deux corps, c’est dire qu’ils échangent des particules médiatrices. Donnons l’exemple de deux corps chargés positivement et négativement : ils s’attirent. Une telle force les lie en raison des particules médiatrices circulant entre eux. En l’espèce, il s’agit de photons, déjà mentionnés comme le constituant de la lumière. De la même façon, deux aimants s’attirent ou se repoussent car ils utilisent aussi des photons pour monnaie d’échange. Les forces agissent toujours ainsi, par la médiation de particules. Par souci de simplicité, en décrivant les trois premières minutes du cosmos, nous avons d’abord parlé des particules de matière. Nous poursuivons maintenant par celles des forces. Pour être exact, il faut préciser que dans la chronologie magnifiquement décrite par Weinberg, tout ceci s’est passé de façon imbriquée sur la même plage de temps. Nous l’avons dit, il existe en tout et pour tout quatre forces intervenant à des échelles différentes dans l’Univers : – la gravitation organise les grandes structures du cosmos ; – les deux forces nucléaires forte et faible interviennent à l’intérieur des noyaux atomiques ; – la force électromagnétique régit toute la chimie. La première force à apparaître dans le temps est la gravitation. Comme nous l’avons vu, son origine remonte au mur de Planck et nous sommes peu renseignés à son sujet. La théorie prévoit qu’elle se matérialise sous forme de particules appelées gravitons. Cependant, on ne les a jamais détectées. La raison tient à la très faible intensité de la gravitation. Le graviton reste donc à découvrir : un prix Nobel très convoité ! La deuxième force, dite nucléaire forte, apparaît peu après, au début de l’épisode de l’inflation. Au demeurant, on pense que sa 105

Partie 1. Du Big Bang chaud à l’Univers refroidi

naissance aurait déclenché l’inflation. Aujourd’hui, son rôle principal est d’assurer la cohésion des noyaux. Sa particule médiatrice est appelée gluon. Parmi les quatre forces, elle est de loin la plus intense. Si l’on n’a pas encore observé le gluon, on connaît suffisamment bien les protons et les neutrons pour savoir que cette force existe en eux. On l’a caractérisée très précisément. L’interaction nucléaire forte n’est pas apparente dans la vie courante. Il faut plonger dans le noyau atomique pour la découvrir. Pour ce qui nous est familier, elle n’apparaît guère que dans les bombes et les centrales nucléaires. Ces deux inventions reposent sur le même principe : une réaction en chaîne entre noyaux atomiques. Dans le premier cas, la réaction est explosive. Dans le second, elle est maîtrisée (sauf accident !). Les énergies émises par la force nucléaire sont un million de fois supérieures à celles mises en jeu par l’électromagnétisme dans les réactions chimiques usuelles. Voilà pourquoi une bombe atomique est beaucoup plus puissante qu’une arme conventionnelle. En dehors des centrales et des bombes, l’endroit où l’interaction nucléaire forte intervient le plus est le centre des étoiles. Elle contribue de façon essentielle à la naissance des planètes et donc de la vie. La troisième force à apparaître est dite nucléaire faible. Comme son nom l’indique, elle est nettement moins intense que l’interaction forte. Néanmoins, elle joue un rôle important dans le noyau des atomes et elle est responsable de la radioactivité. En même temps qu’elle, naît la quatrième force dite électromagnétique, qui nous est bien plus familière que les deux précédentes. Elle combine les effets de l’électricité et du magnétisme. Ces deux phénomènes étaient considérés comme distincts jusqu’au xixe siècle. Cependant, en 1864, James C. Maxwell en a donné une formulation mathématique unifiée et cohérente. Cette force agit essentiellement au niveau microscopique, pourtant, elle est omniprésente dans la vie courante : – tous nos appareils électroménagers et électroniques l’utilisent : moteurs électriques, téléviseurs, ordinateurs et téléphones ; 106

Les clés secrètes de l’Univers

Les trois premières minutes de l’Univers…

– la lumière, les ondes radio, les rayons X… tout cela est de même nature : ce sont des ondes électromagnétiques. Seules leurs fréquences les différencient ; – toute la chimie résulte d’interactions électromagnétiques : lorsque nous nous lavons les mains, les molécules du savon se lient électriquement à l’eau d’un côté et aux graisses de l’autre, dissolvant ainsi la saleté dans l’eau. Elle assure aussi la cohésion des atomes : le noyau positif attire les électrons négatifs. C’est encore elle qui permet aux atomes de se combiner en molécules, essentiellement par des échanges d’électrons. Par exemple, comment se forme l’eau H2O ? Un atome d’oxygène et deux d’hydrogène se lient en mettant en commun une partie de leurs électrons. Dès lors, un nouveau nuage d’électrons se constitue, englobant désormais les trois atomes et les tenant solidement liés entre eux. Tout ce jeu subtil, appelé chimie, est orchestré par la force électromagnétique. Avec l’apparition de ces quatre forces, nous commençons à voir comment va se façonner le cosmos dans toute sa diversité : – la gravitation va organiser toutes les grandes structures : étoiles, trous noirs, planètes, nuages, galaxies, amas ; – les deux interactions nucléaires vont travailler au cœur des étoiles, pour forger la centaine d’éléments formant la matière usuelle : carbone, oxygène, etc. ; – enfin la force électromagnétique va régir toute la chimie, c’est-àdire assembler la centaine d’éléments en une très grande variété de molécules, les plus sophistiquées étant celles du vivant. QUE DÉDUIRE DE CE CHAPITRE ? L’origine du Big Bang restera probablement un mystère à tout jamais. En revanche, les trois minutes suivantes sont très précisément décrites par la science. Nous y voyons le passage d’une simple bulle d’énergie à un monde condensé sous forme d’atomes stables. Cette très courte histoire est déjà très compliquée : nous en avons décrit les épisodes les plus saillants. 107

Partie 1. Du Big Bang chaud à l’Univers refroidi

Dès sa prime enfance, l’Univers nous dévoile sa recette pour faire émerger la complexité. D’une part, il obéit aux lois relativement simples et symétriques de la physique. De l’autre, il subit en permanence le hasard, en traversant des transitions de phase et des brisures spontanées de symétrie. De chacun de ces événements, naît un nouvel état souvent imprévisible. Par analogie, pensons à une partie de tennis. Son existence repose sur un règlement que nous comparerons aux lois de la physique. Il est parfaitement symétrique car il doit s’appliquer également aux deux joueurs. Entre les deux côtés du terrain, identiques, l’arbitre est garant de l’égalité du jeu. L’ensemble de la partie va consister à briser cette symétrie en apportant de la variété. Le tirage au sort du joueur devant servir est la première brisure imposée par le hasard. Ensuite, chacun s’évertue, par tous les moyens autorisés, à la rompre en sa faveur. S’ils étaient remplacés par des robots appliquant les règles du jeu et les lois de la cinématique, nous assisterions à des échanges tennistiques parfaits, mais sans aucun intérêt. La saveur du jeu tient aux efforts des adversaires pour casser la symétrie, ainsi qu’à une forte dose de hasard (vent, inégalités du terrain, etc.). L’Univers se comporte comme les tennismen : certes, il obéit aux lois de la physique (le règlement), cependant il en brise spontanément les symétries dès qu’il le peut. S’il n’existait que les lois physiques, le cosmos serait bien monotone et la vie n’aurait jamais pu y éclore. Les lois et le hasard, voilà le cocktail qui a construit un monde à la fois varié et stable. Nous pouvons rapprocher cette idée de la parole de Démocrite : « Tout ce qui existe est le fruit du hasard ou de la nécessité. » La nécessité est imposée par les lois et le hasard s’invite dans leur mise en œuvre. Ce chapitre a montré les mécanismes complexes issus du Big Bang. Ils sont largement décrits par la science contemporaine, cependant les grands mystères fondamentaux subsistent. Comment les lois pouvaientelles être déjà présentes potentiellement dans une bulle d’énergie ? Pourquoi se sont-elles révélées si productives ? Toute pensée métaphysique sur la nature doit répondre à ces deux questions incontournables. 108

Les clés secrètes de l’Univers

4 L’Univers refroidi et la « photo » du Big Bang

« Dieu a induit un art secret dans les forces de la Nature, de façon à lui permettre de se façonner à partir du chaos en un monde parfait. » Emmanuel Kant

Passé les trois premières minutes, l’Univers est toujours dans une forme embryonnaire : une soupe de particules. Il lui reste encore à franchir une transition majeure, la formation des atomes. C’est l’objet de ce chapitre. Cette transformation achèvera la coalescence de la matière. Elle revêt une importance particulière car elle a laissé derrière elle une trace indélébile : le rayonnement fossile. Il a été photographié en 1992, l’une des découvertes les plus importantes du xxe siècle, ayant initié une astronomie nouvelle. Tel le paléontologue recherchant les 109

Partie 1. Du Big Bang chaud à l’Univers refroidi

couches de terrain les plus anciennes pour y découvrir la trace des premières bactéries, les cosmologistes vont remonter le temps avec de nouveaux instruments afin d’observer des images fossiles des tout débuts de l’Univers. 380 000 ANS APRÈS LE BIG BANG, C’EST LA NAISSANCE DES ATOMES Nous en étions restés à la troisième minute, époque où le cosmos est constitué d’un plasma de noyaux atomiques et d’électrons libres. De par leur température de l’ordre du milliard de degrés et leur forte densité, ces ingrédients s’entrechoquent en permanence et ne peuvent former entre eux des structures plus riches. L’Univers est encore de nature chaotique. Cette situation dure 380 000 ans, laps de temps pendant lequel il ne se passe pas grand-chose en dehors de l’expansion et du refroidissement. Maintenant, nous constatons que le pouls du cosmos commence à bien ralentir par rapport à la période précédente : 380 000 ans sans nouveautés ! Cette durée permet à la température de baisser jusque vers 3 000 K. C’est encore très chaud, mais déjà moins que la surface du Soleil qui est à 5 750 K. À ce stade, va émerger le monde qui nous est familier : un Univers refroidi, fait d’atomes et stabilisé. Cela s’effectue par une dernière transition : les électrons refroidis cessent de virevolter dans tous les sens et se fixent autour des noyaux. Les deux se marient durablement pour former les atomes. Ainsi naît la matière usuelle. De quels éléments est-elle constituée ? Plus haut, nous avons vu que seuls deux noyaux atomiques avaient été engendrés par le Big Bang : ceux d’hydrogène et d’hélium. Il n’a pas eu le temps de forger les autres, tels que le carbone, l’oxygène ou le fer. Autrement dit, il a « joué petit bras ». Cette nouvelle transition, à 380 000 ans, va donc laisser un gaz très simple d’hydrogène et d’hélium (fig. 16). Si l’on ajoute que ces deux substances n’interagissent pas chimiquement, on se trouve dans un Univers absolument stérile. Encore de nos jours, 110

Les clés secrètes de l’Univers

L’Univers refroidi et la « photo » du Big Bang

il reste composé très majoritairement de ces deux éléments. Nous ne nous en rendons pas compte sur Terre, mais dans l’espace, nous sommes entourés de ces deux gaz : le Soleil et les quatre planètes géantes en sont faits, les étoiles aussi. Heureusement, la nature a plus d’un tour dans son sac. Elle se remettra à la tâche pour fabriquer la palette de toutes les autres sortes d’atomes. Pour cela, elle attendra qu’apparaissent les premières étoiles, cinquante à cent millions d’années plus tard. En leur centre, dans un four suffisamment chaud et stable, elle aura tout le temps de faire mijoter une recette de cuisine plus appétissante.

Figure 16 | Le Big Bang n’a produit que deux éléments.

LA PREMIÈRE PREUVE DU BIG BANG Pour être reconnue, une théorie scientifique doit passer le crible de l’expérimentation. L’examen de passage se fait généralement en deux étapes : la nouvelle thèse doit d’abord produire des prédictions chiffrées, puis celles-ci doivent être validées par l’observation. De plus, elle ne doit pas introduire de contradiction avec les connaissances bien établies. Sur le plan expérimental, la notion d’atome primitif, particulièrement révolutionnaire et décriée, est « attendue au tournant ». Les premières prédictions viennent des physiciens des particules qui, comme le fera Weinberg plus tard, s’attachent à décortiquer les réactions nucléaires des débuts. Ils découvriront qu’elles ont laissé une trace encore visible de nos jours, laquelle apportera à la théorie du Big Bang ses lettres de noblesse. 111

Partie 1. Du Big Bang chaud à l’Univers refroidi

Une première preuve vient de la composition chimique du gaz dont nous venons de parler. Les théoriciens prédisent avec précision les proportions des différents éléments devant apparaître dans le plasma refroidi : 75 % d’hydrogène et 25 % d’hélium (en masse) et seulement quelques traces de certains atomes plus lourds. Il reste à vérifier si ces abondances se retrouvent bien dans le cosmos aujourd’hui, en observant ses parties les plus archaïques. Le spectre lumineux des étoiles très lointaines, datant d’époques proches des origines, révèle bien les ingrédients prévus dans les bonnes proportions. De très anciens nuages gazeux fossiles, directement issus du Big Bang, reflètent aussi fidèlement la composition prédite. Ce résultat apporte un crédit important à la théorie. Cette validation du scénario du Big Bang était en réalité bien plus fine. En plus de l’hydrogène et de l’hélium, les calculs prévoyaient des traces infimes de trois autres éléments : – Deutérium (de l’hydrogène avec un neutron de plus) 0,001 % – Hélium 3 (de l’hélium avec un neutron en moins) 0,00001 % – Lithium (l’élément suivant l’hélium) 0,0000000001 % L’étude du spectre lumineux des nuages gazeux les plus anciens a confirmé ces prédictions avec précision.

Pour convaincant qu’il soit, ce premier témoignage ne suffit pas à faire taire les opposants à la thèse du Big Bang. Les nouvelles théories suivent un destin comparable à celui des animaux en concurrence dans la jungle : seuls les survivants réussissent à transmettre leurs gènes et apportent leur pierre à l’évolution. Elles existent vraiment lorsque personne n’étant parvenu à les falsifier, les critiques se tarissent. Confrontés à cette démonstration, les détracteurs du Big Bang, Fred Hoyle en tête, s’emploient à contester soit les prédictions théoriques, soit les observations faites. Ils se tairont définitivement 112

Les clés secrètes de l’Univers

L’Univers refroidi et la « photo » du Big Bang

quelques années plus tard, le jour où une seconde preuve viendra leur asséner le coup de grâce : la détection des restes du flash du Big Bang. LE COSMOS DEVIENT TRANSPARENT À l’origine de cette découverte extraordinaire, se trouve l’un des premiers physiciens ayant décrit les réactions nucléaires des débuts de l’Univers, le théoricien russe George Gamow. Comme les plus grands savants, il est un visionnaire doté d’une forte intuition de la nature profonde du monde. Je me dois de dire quelques mots de cet homme exceptionnel. D’abord, je lui dois largement ma passion pour la nature, car à l’âge de 17 ans, j’ai eu la chance de lire un magnifique ouvrage10 où il passait en revue l’ensemble de la physique. Il y expliquait la relativité et la mécanique quantique sous une forme délicatement vulgarisée, qui m’avait fasciné. Aujourd’hui, ce livre pourrait s’appeler La Science la plus Avancée pour les Nuls. Il abordait les thèmes les plus difficiles avec des analogies simples, de petits personnages imaginaires et toutes sortes de trouvailles pédagogiques. Gamow entreprend sa thèse de doctorat en Russie avec Friedmann, le physicien ayant découvert l’expansion et élaboré les premiers modèles cosmologiques avant Lemaître. Ensuite, il passe de l’infiniment grand à l’infiniment petit en rejoignant les grands de la ­mécanique quantique et leur père spirituel, Niels Bohr, à Copenhague. En 1932, il connaît une mésaventure dramatique. Il essaie de fuir la Russie communiste sur un bateau gonflable, depuis la Crimée, en emportant une grande réserve de chocolat. Il rame et dérive sur plus de 250 km sur la mer Noire. Malheureusement, les vents le ramènent entre les mains des autorités russes. À partir de là, les congrès scientifiques internationaux lui sont bien évidemment interdits, comme les rassemblements du Gotha de la physique quantique, que Bohr 10.  Matière, Terre et Ciel. George Gamow. 1961. 113

Partie 1. Du Big Bang chaud à l’Univers refroidi

organise régulièrement dans sa propriété au Danemark. Ce dernier décide alors de le sortir de ce mauvais pas. Utilisant l’entremise du physicien français Paul Langevin, sympathisant communiste, il obtient de la part de l’État soviétique, une autorisation permettant à Gamow de se rendre à un colloque en Europe. Le savant parvient ainsi à s’échapper avec son épouse qu’il fait passer pour sa secrétaire. Trompés, les Russes le condamneront à mort, mais ils ne parviendront jamais à l’arrêter. Cet homme de grande valeur apparaîtra curieusement dans un prochain chapitre de ce livre consacré à l’origine de la vie. En effet, après une carrière dans l’astrophysique, il se tourne vers la biologie et trouve le premier le principe du code génétique. Gamow est surtout connu comme théoricien de la physique nucléaire. Après avoir travaillé sur la bombe atomique pendant la guerre, il prend une décision : selon ses propres termes, entrer dans « la cuisine préhistorique de l’Univers » pour modéliser les réactions à l’origine des atomes. Renommé pour son sens de l’humour, il publie ses découvertes un 1er avril. Il signe la publication de son nom et de ceux de deux collègues, ce qui donne Alpher-Bethe-Gamow. L’article restera dans les annales de la science sous le nom d’Alpha-BêtaGamma, ou abγ comme on se plaît à l’écrire dans les communications scientifiques. En étudiant l’alchimie qui suivit le Big Bang, Gamow conçoit que la formation des atomes, 380 000 ans plus tard, a dû laisser une trace fossile peut-être encore visible aujourd’hui. Comment parvient-il à cette conclusion ? Il imagine qu’à un certain stade de l’expansion, le jeune Univers a dû passer de l’état opaque à l’état transparent. En effet, à l’origine, l’apparence de la soupe de particules primordiale est brouillée : la lumière faite de photons ne peut y circuler librement. Ceci provient des interactions constantes entre ces photons et les particules chargées électriquement. À chaque collision avec une charge électrique, électron ou noyau, ils sont déviés. Ainsi, la lumière circule en zigzags. En termes scientifiques, elle est diffusée. Cette 114

Les clés secrètes de l’Univers

L’Univers refroidi et la « photo » du Big Bang

opacité rappelle celle du brouillard dont les minuscules gouttelettes d’eau empêchent les rayons lumineux de se propager en ligne droite. Dans ces conditions, notre œil ne peut former une image intelligible et ne perçoit que du blanc. Au contraire, quand le brouillard se lève, les gouttelettes s’espacent, la lumière commence à voyager en ligne droite et la vision revient. Gamow comprend qu’il en va de même dans le cosmos, lorsqu’à un certain moment, l’expansion a suffisamment dilué les électrons et les noyaux. A fortiori lorsqu’un peu plus tard, toute la matière s’est agrégée en atomes neutres, il n’existe plus aucune particule chargée pouvant perturber son cheminement. Le monde est passé d’opaque à transparent, comme il l’est aujourd’hui. Si tel est le cas, que sont devenus ces photons émis jadis, 380 000 ans après le Big Bang ? Dans un univers transparent, ils poursuivent leur route sans obstacles. Dès lors, ils doivent encore circuler de nos jours. Pas de doute pour Gamow : nous baignons, sans le savoir, dans une lueur issue du Big Bang et présente partout. VOIR LOIN, C’EST VOIR LE PASSÉ Quelle que soit la direction du ciel où nous pointons nos instruments, nous devrions percevoir une trace de ce flash du Big Bang. Pour le comprendre, revenons une fois de plus à cet écrivain visionnaire qu’est Edgar Poe. Il est le premier à saisir cette loi : plus nous regardons loin dans le ciel, plus ce que nous voyons est ancien. L’explication est simple : la lumière ne se propage pas instantanément. Dès lors, toute image de l’espace met du temps à venir jusqu’à nous. Pour en donner un exemple, lorsque vous regardez le Soleil, vous ne voyez pas ce qu’il est maintenant, mais ce qu’il était il y a 8 minutes. Son image a voyagé jusqu’à nous pendant toute cette durée. Si l’astre explosait alors que vous prenez un bain de soleil, vous ne vous apercevriez de rien avant 8 minutes. Vous auriez donc largement le temps de fumer la cigarette du condamné avant de vous évaporer (je vous rassure tout de suite, c’est prévu, cependant pas avant 3 ou 4 milliards d’années). 115

Partie 1. Du Big Bang chaud à l’Univers refroidi

Un autre exemple illustre ce phénomène (fig. 17). Imaginons comment se montrerait notre environnement terrestre si la vitesse de la lumière était extrêmement lente : 10 centimètres par an, au lieu de 300 000 km/s. En regardant au loin avec une longue-vue, qu’observerions-nous ? À 100 mètres de distance, nous ne verrions pas ce qui s’y trouve maintenant, mais ce qu’il y avait à cet endroitlà, il y a un millier d’années : ainsi, Hugues Capet pourrait figurer au premier plan. Derrière lui, à 200 mètres, apparaîtraient des choses datant de deux mille ans : nous verrions peut-être passer Vercingétorix sur son cheval. Enfin, en toile de fond, à 300 mètres, nous distinguerions un village d’hommes préhistoriques. Cette remontée dans l’histoire en un seul coup d’œil est simplement due au temps qu’a mis la lumière à parvenir jusqu’à la lunette depuis telle ou telle distance.

Figure 17 | Si la vitesse de la lumière n’était que de 10 cm par an, on verrait le passé dans une longue-vue.

Ainsi, l’astronome examinant une galaxie située à une distance d’un milliard d’années-lumière, la voit telle qu’elle était il y a un milliard d’années et non comme elle est aujourd’hui. C’est une illustration du concept relativiste liant l’espace et le temps. En effet, selon Einstein, on ne peut pas dissocier les deux : ils forment un continuum. La nature nous en donne ici un exemple en contraignant notre observation de l’Univers : – si nous regardons près de nous, apparaît le présent, non le passé ; 116

Les clés secrètes de l’Univers

L’Univers refroidi et la « photo » du Big Bang

– si nous regardons loin dans le firmament, nous ne voyons plus le présent, mais le passé. Dans notre expérience quotidienne, nous considérons que le déplacement de la lumière est extrêmement « rapide », mais ce mot n’a pas plus de sens que « grand » ou « petit ». Considérée à l’échelle de l’Univers, elle se propage plutôt à une vitesse d’escargot. Nous verrons que cela nous inflige de sérieuses limites, notamment un horizon cosmologique, distance au-delà de laquelle nous ne pouvons rien voir. Curieusement, la vitesse de la lumière présente une anagramme évocatrice : limite les rêves au-delà. Cependant, ce principe présente aussi un immense avantage pour l’astronome : il permet d’examiner le passé lointain. Comme les anthropologues aimeraient disposer de la longue-vue magique de la figure 17, pour observer les Australopithèques vivants ! Grâce à son excellente résolution, le télescope spatial Hubble est une superbe machine à remonter le temps, une aubaine pour les historiens du cosmos. Pour aller au bout du raisonnement, en scrutant les confins de l’espace, jusqu’à 13,8 milliards d’années-lumière, nous devrions voir le Big Bang. À cela, Gamow répond en substance : au tout début, non car l’Univers était opaque, mais 380 000 ans plus tard, oui car il est alors devenu transparent. Il devrait donc être possible de détecter une image de cette époque. LE RAYONNEMENT FOSSILE EST DÉTECTÉ PAR HASARD En réfléchissant aux caractéristiques que doit présenter cette lumière après un voyage de 13,4 milliards d’années dans le vide sidéral, Gamow comprend qu’elle doit être extrêmement affaiblie, non pas à cause de je ne sais quelles poussières dans l’espace intergalactique, mais parce que l’espace s’est dilaté entre-temps. En effet, au chapitre 1, nous avons vu comment le spectre lumineux des galaxies se décalait vers le rouge en raison de leur vitesse de fuite. Ce phénomène s’applique aussi bien au rayonnement fossile : en venant vers 117

Partie 1. Du Big Bang chaud à l’Univers refroidi

nous, il a vu sa longueur d’onde s’étirer progressivement du fait de l’expansion du cosmos. Comme l’Univers s’est agrandi 1 000 fois depuis son émission, il a subi une dilution considérable : sa longueur d’onde s’est multipliée par 1 000. En conséquence, ce qui était jadis une lumière visible, se situe maintenant dans la gamme des microondes, telles celles utilisées dans un four pour réchauffer les plats ou bien dans les téléphones portables. Ce sont toujours des photons, mais de fréquence et d’énergie bien plus faibles. Voilà pourquoi on emploie aussi la dénomination de rayonnement diffus micro-onde. Dilué par l’expansion, le flash du Big Bang nous parvient d’une façon très ténue. Une manière courante de mesurer l’énergie de la lumière est de parler en termes de température : sur la notice d’une lampe, vous lirez par exemple 6 000 K. Rappelons que les degrés Kelvin (°K ou K) se comptent à partir du zéro absolu, la température la plus basse pouvant exister : – 273 °C. Les calculs de Gamow et ses amis, la fameuse publication abγ, prévoient un rayonnement fossile d’énergie très faible : seulement 5 degrés au-dessus du zéro absolu. Nous saluerons la précision de cette prédiction, puisque la valeur exacte mesurée aujourd’hui est de 2,7 K. Le résultat de ces calculs est en même temps une grosse déception pour les auteurs car à l’époque, il n’existait aucune antenne capable de détecter des ondes aussi ténues. Sa découverte théorique tombera dans les oubliettes pour une bonne quinzaine d’années, faute de moyens d’observation. De manière tout à fait fortuite, les Américains Arno Penzias et Robert Wilson découvrent le rayonnement fossile en 1965. Les deux ingénieurs des Laboratoires Bell avaient récupéré une grosse antenne de la forme d’un cornet acoustique d’une vingtaine de mètres, construite pour détecter les signaux très faibles reçus depuis les tout premiers satellites de télécommunication, Echo 1 et Telstar. Ils envisagent d’utiliser cet instrument pour cartographier la Voie lactée dans les fréquences micro-ondes. Le dispositif est doté d’un récepteur refroidi à l’hélium liquide pour éliminer le bruit de fond 118

Les clés secrètes de l’Univers

L’Univers refroidi et la « photo » du Big Bang

dû à la chaleur ambiante. Ce préalable est indispensable pour capter la lumière fossile, elle-même très froide. Malgré cela, un brouillage affecte les fréquences de très basse énergie, que Penzias et Wilson ne parviennent pas à faire disparaître en réglant leur antenne. Ils y voient naturellement une pollution extérieure : un émetteur ? un radar ? une usine ? Ils tournent leur dispositif dans toutes les directions pour identifier d’où vient cette nuisance, mais rien ne change. Ils en déduisent que le bruit parasite doit se former dans leur propre appareil et ils l’attribuent aux fientes des pigeons ayant élu domicile dans le cornet. Dans leurs publications, ces déjections apparaissent pudiquement sous le nom de « couche blanche d’un matériau diélectrique ». Après nettoyage et quoi qu’ils fassent, le signal reste pollué, quelle que soit la direction visée. Pour aller plus loin, il leur faut se débarrasser définitivement des oiseaux. Ils les mettent dans une caisse et les expédient à des collègues sur un autre site, avec l’instruction de les relâcher là-bas. Manque de chance, il s’agit de pigeons voyageurs et ils s’empressent de revenir nicher dans leur antenne. Alors Penzias et Wilson se résolvent à les tuer pour nettoyer leur appareil de façon définitive. Malheureusement pour les pauvres bêtes, elles sont mortes pour rien : le bruit de fond n’a rien à voir avec leurs déjections, il persiste. Les deux ingénieurs doivent se rendre à l’évidence : un rayonnement est détecté également dans toutes les directions de l’espace. Son énergie est très faible : l’équivalent d’une température de 3 K environ. Ils n’ont aucune idée de son origine. Il se trouve qu’à la même époque, les prédictions de Gamow datant d’une quinzaine d’années auparavant, sont remises au goût du jour par une équipe de l’université de Princeton animée par Robert Dicke et James Peebles. Ils refont tous les calculs du rayonnement fossile, puis cherchent les moyens de le détecter. Il ne restait plus qu’à établir le lien entre les deux théoriciens et les deux ingénieurs radio. Ce sera chose faite par une connaissance commune : un scientifique assez perspicace pour faire le lien 119

Partie 1. Du Big Bang chaud à l’Univers refroidi

entre ces deux contributions pourtant sans rapport apparent. Les deux équipes se rencontrent. Peu après, elles publient leurs deux découvertes dans le même exemplaire de l’Astrophysical Journal, en se citant mutuellement : la théorie d’un côté, l’expérimentation de l’autre, un synchronisme rarissime dans l’histoire des sciences. Wilson dira n’avoir vraiment saisi la portée de sa trouvaille qu’en lisant la une du New York Times : « Des signaux prouvent l’existence du Big Bang. » Penzias et Wilson recevront plus tard le prix Nobel. Curieusement, Gamow qui avait prédit l’émission du rayonnement fossile bien avant qu’on ne le détecte, a toujours été l’oublié du comité Nobel. Grand seigneur, il ne s’en est jamais plaint publiquement. L’astrophysicien Joseph Silk a rapporté ses propos à cet égard : « Si je perds une pièce dans la rue et quelqu’un la trouve plus tard, puis-je dire : c’est ma pièce ? ». En l’occurrence, il ne s’agissait pas d’une pièce de monnaie, mais d’une avancée historique. Il se contentera de la satisfaction de voir sa prédiction vérifiée en 1965, avant de nous quitter trois ans plus tard. LE PAPARAZZI DU RAYONNEMENT FOSSILE Les restes du flash du Big Bang détectés par Penzias et Wilson présentent une température de 3 K identique dans toutes les directions du ciel. C’est déjà un enseignement en soi : l’Univers semble homogène ! Après cette découverte, pour aller plus loin, on s’attache à mesurer cette température avec plus de précision. Quand le physicien tient un fil, il le déroule jusqu’au bout de la pelote. La mise au point d’équipements plus sensibles permet de confirmer une valeur de 2,725 K, partout égale à la troisième décimale près. En allant toujours plus loin dans la finesse des mesures, cette fois au niveau du 100 000e de degré, on finit par déceler d’infimes différences entre les régions du ciel. L’information selon laquelle le rayonnement était homogène quel que soit l’axe de visée, était intéressante. La découverte de petites variations le devient encore plus : d’où proviennentelles ? Quel message nous apportent-elles ? 120

Les clés secrètes de l’Univers

L’Univers refroidi et la « photo » du Big Bang

Un élève de Weinberg, l’astrophysicien George Smoot, formule le projet ambitieux de les mesurer dans toutes les directions. Le but est d’aboutir finalement à une carte montrant ces fluctuations sur l’ensemble de la voûte céleste. Elle nous renseignerait sur la physionomie de l’Univers dans sa prime enfance. Détecter le rayonnement fossile signifie capter les événements datant du moment précis où le cosmos a cessé d’être opaque. Pour « voir » cet instant, il suffit de pointer vers le ciel la « lunette à remonter le temps de la figure 17 » et de regarder le plus loin possible, c’est-à-dire précisément à 13,4 milliards d’années-lumière, et cela dans chaque direction. Examiner ainsi tout le firmament à très grande distance, revient à observer une sphère dont nous sommes le centre. Elle est appelée sphère de dernière diffusion, car elle date de l’époque où la lumière de l’Univers a pu se propager en ligne droite. Pour la photographier intégralement, les obstacles théoriques et technologiques sont immenses. Smoot va les franchir l’un après l’autre durant des années d’un travail acharné. L’un des premières épreuves consiste à scanner des portions du ciel en détectant des écarts de température aussi infimes que le centmillième de degré. Pour y parvenir, il doit s’affranchir de toutes les pollutions électromagnétiques présentes sur Terre. Il embarque ses détecteurs d’abord dans des ballons stratosphériques puis dans des avions espions construits par l’Armée américaine dans les années 1950. Ces appareils, les U-2, étaient conçus pour planer pendant 9 heures à plus de 20 km d’altitude et photographier le sol avec un minimum de vibrations, moteur coupé. Au début des années 1980, les satellites d’observation les rendent obsolètes et l’administration les déclasse. Smoot les récupère pour cartographier non plus le sol, mais de petites zones du ciel qu’il saisit par balayage (fig. 18). Hélas, les vues prises à bord des U-2 sont insuffisamment fiables et le projet de capter l’ensemble de la sphère de dernière diffusion dans tous les azimuts, reste parfaitement irréaliste : il faudrait des dizaines d’années pour envoyer des avions un peu partout sur les deux hémisphères jusqu’aux pôles. 121

Partie 1. Du Big Bang chaud à l’Univers refroidi

Figure 18 | Les appareils de Smoot, embarqués à bord des avions U-2, parviennent à cartographier le rayonnement fossile sur de petites surfaces de la voûte céleste.

Comme dans le cas de l’espionnage militaire, la solution se résume en un mot : le satellite. En effet, dans l’espace, on est loin des pollutions radio et le froid réduit le bruit thermique. De plus, on a accès à la totalité de la voûte céleste. À l’instar de Hubble qui avait persuadé les administrateurs du premier télescope mondial de lui accorder suffisamment de créneaux pour ses travaux, Smoot convainc la NASA de construire un satellite destiné à photographier le rayonnement fossile. Le programme nommé COBE démarre fin 1989. Pendant trois ans, le savant recueille une par une les images des différentes régions du ciel. Pour les interpréter, il faut reconstituer artificiellement une situation où la Terre serait parfaitement immobile par rapport au fond galactique, ce qui, bien sûr, est loin d’être le cas. Ainsi doit-il opérer diverses corrections en calculant très précisément toutes les composantes du mouvement terrestre dans le cosmos : – le mouvement de la planète sur son orbite ; – celui du Soleil dans la Galaxie ; – et celui de la Galaxie elle-même, dans l’Univers. En 1992, après plusieurs années d’un travail d’analyse considérable, Smoot présente la cartographie du rayonnement fossile 122

Les clés secrètes de l’Univers

L’Univers refroidi et la « photo » du Big Bang

sur l’ensemble du ciel. Elle fait apparaître un peu partout les fluctuations de température que l’on appellera les rides du temps. J’ai toujours trouvé l’expression curieuse étant donné qu’il s’agit de photographier un bébé ! La figure 19 reproduit la même photo prise quelques années plus tard par un autre satellite du même type, plus précis (WMAP). Cette image ressemblant à un plat de risotto n’est pas très parlante pour le commun des mortels. En ce qui me concerne, elle me rappelle la première échographie que j’ai pu voir lorsque mon épouse était enceinte. Cette technique en était à ses débuts. Le médecin y décelait beaucoup de choses et moi pratiquement rien.

Figure 19 | Le rayonnement fossile : le scan complet du ciel par le satellite WMAP.

QUE NOUS DISENT LES RIDES DU TEMPS ? La photo si patiemment assemblée par Smoot lui vaut un succès retentissant, ainsi que le prix Nobel «  de la persévérance ». Elle constitue aujourd’hui la source première d’enseignements pour les recherches en cosmologie. Nous allons l’interpréter à partir de cinq questions. D’abord, rappelons que cette lumière a été émise à 380 000 ans du Big Bang, par un gaz d’hydrogène et d’hélium, à une température de 3 000 K. Comment décrypter l’image fossile ? 123

Partie 1. Du Big Bang chaud à l’Univers refroidi

1. Que signifie cette forme ovale ? La réponse est simple : ­l’objet photographié est une sphère vue depuis son centre, et il n’est pas aisé de représenter une telle surface courbée sur une feuille de papier plate. Alors, on utilise la même astuce que pour reproduire une mappemonde sur la page d’un livre : on étale la sphère en l’ovalisant. Vous avez certainement déjà vu des représentations similaires des constellations dans le ciel. 2. Pourquoi le rayonnement du Big Bang arrive-t-il de toutes les directions et non d’un seul point ? Ce point n’existe tout simplement pas car, dès sa naissance, l’Univers était un tout, peut-être infini. 380 000 ans plus tard, il est un nuage, tout aussi infini. Un observateur se mouvant dans ce nuage, percevrait de la lumière venant de partout. C’est toujours le cas aujourd’hui après une expansion ayant multiplié les distances par 1 000. 3. Que signifie un pixel de la photographie ? Il s’agit d’une direction de visée dans le firmament. On y mesure la température du gaz issu du Big Bang, ce qui revient aussi à relever son énergie ou encore sa densité en ce point. 4. Que sont les zones claires et foncées ? En cela réside l’intérêt de la découverte. À l’âge de 380 000 ans, l’Univers était en cours d’agrégation. Comme Newton l’avait prédit, la matière du cosmos doit s’effondrer localement sur elle-même par le jeu de la gravitation. L’image des rides du temps fait apparaître en clair les endroits où le gaz se rassemblait, formant des surdensités. Inversement, les plages de densité légèrement plus faible sont plus sombres. Pour faire une analogie simple, la photo représente une soupe dans laquelle commencent à se constituer des grumeaux. Le processus de formation des galaxies est déjà engagé. L’information a ravi la communauté des cosmologistes qui travaillait déjà intensément sur ce sujet. Leurs modèles prévoyaient que l’agrégation de la matière se soit amorcée avant l’époque de dernière diffusion et Smoot en apportait une preuve éclatante. Ces rides du temps, ou surdensités, portent en germe toutes les grandes structures : galaxies, amas ou superamas. Cette photographie de la première 124

Les clés secrètes de l’Univers

L’Univers refroidi et la « photo » du Big Bang

lumière intelligible de l’Univers rappelle l’échographie d’un embryon humain avec des formes claires et sombres préfigurant le squelette et les organes futurs. 5. Pourquoi apparaissent trois ou quatre plages plus foncées ? Il s’agit d’un mystère, un thème d’études actuellement. On pense qu’il existe de grands vides dans ces régions du cosmos. On cherche à cartographier toutes les galaxies situées dans ces directions, afin de localiser les zones désertifiées et d’en comprendre l’origine. Voilà ce que dit simplement cette image. Le satellite COBE a été suivi de nouvelles générations offrant une résolution chaque fois meilleure, c’est-à-dire pouvant détecter des surdensités plus fines. Par ailleurs, on déploie un arsenal de logiciels mathématiques pour analyser la répartition statistique des fluctuations selon leur taille. On en tire une formidable moisson d’informations. Le rayonnement fossile est loin d’avoir livré ses derniers secrets. Voici un petit résumé de la liste impressionnante des enseignements des rides du temps : 1. Elles sont la preuve irréfutable du Big Bang chaud. 2. La répartition des fréquences suit très exactement la courbe connue sous le nom de rayonnement du corps noir, c’est-à-dire ce que rayonne un four. Il s’agit d’une courbe en cloche donnant l’intensité pour différentes fréquences. Selon cette découverte, le cosmos a été en équilibre thermique par le passé, un point essentiel dont nous reparlerons. 3. La carte du ciel ancien nous montre un Univers quasi homogène conformément aux hypothèses généralement formulées. Curieusement, cette homogénéité a aussi posé un problème : comment une telle uniformité a-t-elle pu s’établir entre zones si éloignées entre elles, qu’elles n’ont jamais pu être en contact ? Nous avons évoqué cette énigme au chapitre précédent : la réponse est l’inflation. 4. Comme indiqué plus haut, quelques plages sombres sur la carte dévoilent de grandes régions de vide sidéral. 5. L’image des germes de galaxies a validé le scénario de leur formation, une question très étudiée dans les années 1980-1990. Elle a

… 125

Partie 1. Du Big Bang chaud à l’Univers refroidi



aussi confirmé l’existence à grande échelle de la matière noire dont nous parlerons plus loin. 6. Une observation statistique (non perceptible à l’œil nu) a mis en évidence des ondes acoustiques parcourant le cosmos à ses débuts. Celles-ci ont servi à calculer la courbure de l’espace. De là est venue une découverte essentielle : pris dans sa totalité, l’Univers présente une courbure quasiment nulle. Cette conclusion a eu des retombées considérables, notamment l’idée révolutionnaire qu’il existerait une énergie sombre, évoquée plus loin. 7. La photo a permis d’estimer très précisément l’âge de l’Univers à 13,8 milliards d’années, et la constante de Hubble à environ 70 km/s/ Mpc. 8. Enfin, cette image d’une histoire très ancienne a confirmé que les lois de la physique n’avaient pas changé depuis cette époque proche du Big Bang. On pourrait allonger la liste. Bien d’autres satellites poursuivront le décryptage des rides du temps, apportant chaque fois une moisson de découvertes. Dans le long terme, on espère réitérer l’exploit de Smoot en prenant une nouvelle photographie, non pas de la lumière microondes, mais d’un rayonnement d’une autre nature. Au lieu d’observer les photons, on s’intéressera à d’autres particules, les neutrinos. Ils ont aussi connu une date de dernière diffusion à partir de laquelle ils ont pu circuler en ligne droite. On la situe lorsque l’Univers n’avait que 1,1 seconde d’existence. L’idée est donc de scruter un fond diffus de neutrinos. Il s’agit de particules très difficiles à détecter, cependant un jour viendra où des appareils suffisamment sensibles permettront de scanner les neutrinos fossiles dans le ciel. On obtiendra une photo du cosmos très proche du Big Bang. Théoriquement, on peut imaginer aller encore plus loin : si l’on parvenait à observer les gravitons (particules médiatrices de la gravitation), on verrait l’Univers bien plus jeune : tout simplement au temps de Planck, c’est-à-dire au tout début. Malheureusement, à ce jour, cartographier les gravitons fossiles tient plutôt de la science-fiction.

126

Les clés secrètes de l’Univers

L’Univers refroidi et la « photo » du Big Bang

Quelle est la température de l’Univers aujourd’hui ? La réponse est : « Très très chaud ou très très froid selon où l’on se situe ! ». Dans son ensemble, nous avons vu qu’il se trouvait à 2,7° au-dessus du zéro absolu, soit – 270 °C. En revanche, en certains endroits et par exception, il est beaucoup plus chaud : des milliers de degrés sur une étoile, des dizaines ou centaines de millions en son centre, parfois autant dans certains nuages cosmiques ou bien près des trous noirs. À une échelle plus modeste, les astronautes connaissent ces contrastes : la face éclairée de leur vaisseau s’échauffe à plus de 100 °C tandis que l’autre face, à l’ombre, descend en dessous de – 100 °C. Sur Terre, l’atmosphère maintient une température à peu près égale, mais dans le vide sidéral, on comprend vite qu’avec le Soleil, on brûle et sans lui, on gèle. Il est surprenant de comparer la minuscule fourchette des températures usuelles sur notre planète avec celles existant dans le cosmos : grosso modo, nous vivons entre 0 et 40 °C. Nous appréhendons avec amertume les conséquences cataclysmiques d’un réchauffement climatique d’un ou deux degrés. La présence d’eau liquide, nécessaire aux êtres vivants, place une contrainte extrêmement sévère sur la recherche de la vie dans l’Univers, ou pour le moins, d’une vie semblable à la nôtre. Nous nous trouvons sur Terre, dans une frange très fine entre l’ordre (le froid sidéral) et le chaos (la température des étoiles). QUE RETENIR DE CE CHAPITRE ? D’abord, la confirmation brillante du scénario du Big Bang chaud : quelle preuve est plus convaincante qu’une photo  ? La découverte du rayonnement fossile rappelle un peu celle des premiers restes humains préhistoriques sur le site de Néandertal, près de Düsseldorf. En 1856, trois ans avant la parution de l­’Origine des espèces de Darwin, nous exhumons les restes d’un ancêtre archaïque nous rapprochant du singe. À une époque où l’Homme était supposé avoir été créé tel quel par Dieu, c’est la découverte brutale que nous 127

Partie 1. Du Big Bang chaud à l’Univers refroidi

avons peut-être un passé animal. De même, l’image du rayonnement fossile nous révèle soudain un Univers primitif, de nature gazeuse. Depuis les débuts de l’humanité, nous pensions l’Univers fixe dans le temps et nous apprenons maintenant qu’il est dynamique et possède une origine. La paléontologie du cosmos est, en un sens, bien plus accessible que celle des êtres vivants. En raison du long cheminement de la lumière à travers l’immensité de l’espace, nous voyons tout le passé étalé devant nos yeux. Nul besoin d’aller creuser la terre pour trouver des fossiles : il suffit de regarder loin. Ce chapitre nous a amenés à 380 000 ans du Big Bang, à un moment où le monde est un gaz d’hydrogène et d’hélium. Au niveau microscopique, l’univers physique tel que nous le connaissons, est né. Pour ce qui est du macroscopique, l’histoire commence tout juste, avec les premiers germes de galaxies. La prochaine partie nous montrera comment toutes les grandes structures du cosmos dont notre propre planète, sont apparues sur un laps de temps de 13,4 milliards d’années. Charles Darwin termine l’Évolution des Espèces, par une phrase restée célèbre. Elle concerne bien évidemment la vie et non le cosmos, cependant je souhaite la citer ici car elle me paraît tout aussi applicable à l’évolution de l’Univers en général. Comme Lemaître a remonté le temps avec l’équation d’Einstein, Darwin l’avait fait en recherchant les origines de la vie. Par la pensée, en grimpant dans l’arbre généalogique des espèces, il avait imaginé qu’une forme de vie extrêmement rudimentaire devait se trouver tout en haut comme le point de départ du monde vivant. Il n’a jamais publié la moindre ligne sur ce thème aussi sulfureux que spéculatif. Cependant, en conclusion de son ouvrage, il n’a pas hésité à exprimer son émerveillement à l’idée qu’une telle origine très simple ait pu engendrer l’immense diversité des êtres vivants : « N’y a-t-il pas une véritable grandeur dans cette manière d’envisager la vie, avec ses puissances diverses insufflées 128

Les clés secrètes de l’Univers

L’Univers refroidi et la « photo » du Big Bang

primitivement dans un petit nombre de formes, ou même à une seule ? Or, tandis que notre planète, obéissant à la loi fixe de la gravitation, continue à tourner dans son orbite, une quantité infinie de belles et admirables formes, sorties d’un commencement si simple, n’ont pas cessé de se développer et se développent encore ! »

129

5 La gravitation à l’œuvre pour structurer le cosmos

« Nous pouvons être dans l’Univers comme des chiens et des chats sont dans nos bibliothèques, voyant des livres et enten­ dant des conversations, mais n’ayant aucune idée du sens de tout cela. » William James, philosophe américain (1909)

Nous avons terminé l’épisode du Big Bang à 380 000 ans, alors que la gravitation venait tout juste d’entamer son œuvre. Les grumeaux ou surdensités, présents dans le gaz primordial, commençaient à attirer la matière environnante. Ce phénomène, prévu par Newton, va désormais se poursuivre avec la condensation des étoiles. Ainsi, un gaz légèrement hétérogène va se métamorphoser progressivement en un riche ensemble d’astres et de galaxies.

133

Partie 2. L’écosystème galactique

COMMENT LA GRAVITATION A SCULPTÉ L’UNIVERS Curieusement, cette force qui va engendrer toutes les grandes structures du cosmos, est de loin la plus faible parmi les quatre existantes. Pour illustrer à quel point elle est ténue, il suffit de penser au poids d’un être humain, disons 70 kg. Il faut toute la masse de la Terre pour exercer sur notre corps une attraction de 70 kg. En comparaison, les forces électromagnétiques et nucléaires sont des milliards de milliards de fois plus intenses. Par exemple, la première bombe atomique ayant détruit la ville entière d’Hiroshima ne contenait que 64 kg d’uranium dont 700 grammes seulement sont entrés en réaction. Malgré son intensité dérisoire, la gravitation va donner naissance aux étoiles et aux galaxies. Il y a deux raisons à cela : – elle porte à grande distance, avec un effet cumulatif ; – elle est la seule à le faire car l’action des trois autres forces agit essentiellement au niveau microscopique, dans les noyaux et entre les atomes. Voilà encore une caractéristique singulière de l’Univers : des niveaux de dimensions très différents coexistent en strates, comme celle du cosmos et celle des particules. Des forces distinctes interviennent selon les échelles. À ce jeu, la gravitation, pourtant très ténue, se réserve le domaine de l’extrêmement grand. Voyons maintenant comment elle va accomplir sa tâche. Pour produire un travail, il faut de l’énergie. Le gaz primordial en possède un stock important, appelé énergie potentielle. Pour illustrer cela, imaginons l’eau d’un lac de montagne. Elle est calme et ne semble pas être dotée d’une énergie particulière. Cependant, si à partir d’une infiltration, elle s’échappe du lac, elle va dévaler furieusement la pente pour aller le plus bas possible (fig. 20). Même si entre-temps elle est arrêtée par un barrage, elle disposera toujours d’une certaine énergie tant qu’elle pourra descendre encore plus bas. On exploite cette propriété pour produire l’hydroélectricité. La seule situation de l’eau en hauteur lui confère une énergie potentielle qui parviendra à son minimum quand elle aura atteint la mer. 134

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

Figure 20 | L’énergie potentielle de l’eau se transforme en énergie cinétique, puis se dissipe en chaleur, et sculpte le flanc de la montagne.

Nous avons parlé de l’eau animée par la pesanteur sur Terre, mais cela s’applique plus généralement à toutes les masses dans le cosmos qui s’attirent mutuellement sous l’effet de la gravitation. Ainsi, le simple fait que tout le gaz né du Big Bang soit étalé dans l’espace, lui donne une énergie potentielle considérable. Elle est latente et ne demande qu’à s’exprimer en effondrant ce gaz sur lui-même. À l’instar de l’eau dévalant la montagne pour rejoindre la mer, elle cherchera toujours à rassembler la matière vers la plus grande densité possible, où que ce soit, si aucun obstacle ne l’en empêche. Le phénomène commence peu avant l’époque du rayonnement fossile : le gaz s’agrège en grumeaux. Entre 50 et 100 millions d’années plus tard, apparaissent les premières étoiles. Nous verrons comment la concentration de la matière peut aller bien plus loin avec des densités inimaginables. Le stade ultime d’écrasement est le trou noir, l’équivalent de la mer dans notre analogie hydraulique. Ainsi, depuis un extrême, le gaz uniforme du Big Bang, jusqu’à l’autre, les trous 135

Partie 2. L’écosystème galactique

noirs, la gravitation a toute latitude pour « dévaler la pente » et dissiper son énergie potentielle. Première conséquence intéressante : cette énergie est disponible pour modeler toutes les structures de l’Univers. À l’image de l’eau venant des cimes et façonnant les flancs de la montagne, les monts et les vallées, elle va organiser le cosmos en toutes sortes de corps célestes (fig. 21).

Figure 21 | L’énergie potentielle du gaz se dissipe en chaleur (à travers l’expansion) et sculpte le cosmos.

Une autre conséquence est la production de chaleur. Comme la physique impose la conservation de l’énergie, celle perdue par l’eau en descendant la pente et en creusant les reliefs se transforme in fine en chaleur dans les frottements. Elle se dissipe aussitôt dans la terre, l’air ou la mer. Dans l’espace, le principe est le même, mais il met en jeu des énergies bien supérieures. Les masses provenant de loin s’agrègent sous l’effet de la gravitation et provoquent un échauffement important. On le voit dès qu’un simple météore tombe et brûle dans l’atmosphère. Quand une grande quantité de matière s’assemble pour former un astre, la température monte très haut : à titre d’exemple, au centre du Soleil, elle atteint 15 millions de degrés. À petite échelle, cela ressemble un peu à un retour vers le Big Bang : le gaz se concentre de nouveau et s’échauffe. 136

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

Pris dans son ensemble, le cosmos exécute un travail comme le fait un moteur thermique. Depuis les débuts de la machine à vapeur, on sait qu’un moteur doit toujours exploiter deux sources : l’une chaude, le charbon incandescent, et l’autre froide, l’air ambiant. L’Univers a été doté de la première par la fournaise du Big Bang. Quant à la seconde, elle provient tout simplement du refroidissement dû à l’expansion. En se dilatant, il ouvre sans cesse de nouveaux volumes dans lesquels les calories peuvent s’échapper. C’est heureux car, à défaut, elles se seraient accumulées et auraient fondu la Terre. Pour résumer, le monde est une vaste machine qui utilise l’énergie du Big Bang et l’évacue en chaleur à travers l’expansion. Pour les physiciens, c’est un système dissipatif. Il modèle le cosmos et, en certains endroits, il a pu aller jusqu’à créer la vie. LA NAISSANCE DES ÉTOILES Revenons maintenant au cours de l’histoire naturelle. Le mouvement de concentration du gaz, déjà perceptible dans le rayonnement fossile, va s’accentuer d’année en année, jusqu’à l’apparition des premières étoiles que l’on situe 50 à 100 millions d’années plus tard. Avant ce moment, on parle d’âge sombre, car aucun astre n’éclairait encore l’espace. Pour être puriste : il n’était pas si sombre puisque tout baignait dans le rayonnement cosmologique diffus. En s’attirant et en s’agrégeant, les masses de gaz font naître une étoile, à condition que les quantités en jeu soient suffisantes. D’après les lois de la mécanique, avant de tomber, la matière se met en rotation et se rassemble en un disque plat. On retrouve une telle forme dans la plupart des grandes structures du cosmos. Notre Système solaire est une galette à peu près plane. La Galaxie ou les anneaux de Saturne en sont d’autres exemples. Le gaz commence donc par se regrouper dans un disque d’accrétion (fig. 22). Ce mouvement en spirale circulaire ralentit considérablement l’agrégation du gaz et empêche qu’elle se termine de façon cataclysmique en trou noir. En son centre, se constitue une boule très chaude recueillant petit à petit 137

Partie 2. L’écosystème galactique

la majorité du gaz. En résumé, la chute de la matière se produit en deux temps, d’abord dans le disque, puis de ce dernier vers le centre, en engendrant à chaque fois une grosse quantité de chaleur.

Figure 22 | Le disque d’accrétion freine la chute du gaz sur la protoétoile. Ses restes formeront les planètes.

Passé le seuil d’environ 3 millions de degrés, ce gaz rassemblé et comprimé au centre va « s’allumer » par l’amorçage de réactions nucléaires. La protoétoile va-t-elle se transformer en bombe atomique ? Non, plutôt en centrale nucléaire ! En effet, la réaction en chaîne s’enclenche, mais l’explosion est confinée par la pression de la gravitation qui pousse à l’effondrement de l’astre sur lui-même. Les deux forces antagonistes vont s’équilibrer. Pour reprendre l’analogie de la rivière : l’eau (la matière) va dévaler la pente (la gravitation) et rencontrer un barrage (les réactions nucléaires) qui va l’empêcher d’atteindre la mer (le trou noir), au moins temporairement. Si son effondrement n’était pas ainsi contrarié, toute la matière s’agrégerait spontanément en trous noirs et l’Univers ne serait pas habitable. En résumé, un équilibre s’établit entre pression thermique et gravitation. Cette dernière confine l’activité nucléaire dans l’étoile et l’empêche d’exploser. Elle joue le même rôle que la cuve métallique 138

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

abritant le cœur d’une centrale électrique. Ceci fait dire à l’astro­ physicien Michel Cassé qui a passé sa vie dans les étoiles : « Le Soleil est un réacteur nucléaire à confinement gravitationnel fonctionnant sur le mode de la fusion nucléaire » (fig. 23). Une caractéristique majeure de cet équilibre, à laquelle nous devons la vie, est qu’il se prolonge extrêmement longtemps. Notre étoile s’est formée il y a plus de 4 milliards d’années et en a encore autant devant elle. Grâce à sa stabilité et à sa longévité, la vie a pu se développer sur Terre. Rappelons à ce titre que les premières bactéries datent de 3,7 milliards d’années. Le Soleil a donné tout le temps nécessaire à la vie pour s’élaborer et se sophistiquer.

Figure 23 | Une étoile est une masse de gaz en équilibre entre deux forces antagonistes.

On notera que les réactions nucléaires s’enclenchent à partir d’un minimum de masse. Il est des cas où le gaz se rassemble en quantité insuffisante pour former une étoile : Jupiter en est un exemple. Il s’agit de la plus grosse planète du Système solaire, essentiellement gazeuse. Comme toutes les autres, elle est un vestige de l’ancien disque d’accrétion du Soleil. On pourrait la qualifier d’étoile qui ne s’est pas allumée. En effet, s’il y avait eu assez de matière pour alimenter Jupiter, l’astre serait devenu une étoile en orbite autour du Soleil. On appelle cela un système binaire ou une étoile double, objet très répandu dans le cosmos. La masse des étoiles s’échelonne grosso modo entre 7 % de celle du Soleil et mille fois plus. Curieusement, les petites mettent beaucoup plus de temps à se consumer que les grandes. La nôtre figure parmi les petites et donc les plus durables. 139

Partie 2. L’écosystème galactique

Quelques informations complémentaires sur leur formation : 1. Le point de départ est constitué par les surdensités visibles dans le rayonnement cosmologique (les « grumeaux »). Elles trouveraient leur origine dans les fluctuations quantiques datant du Big Bang et amplifiées par l’inflation. 2. On situe la naissance des premières étoiles à 50 millions d’années du Big Bang, au plus tôt. Cette durée est paradoxale car, selon les simulations par ordinateur, leur formation à partir des fluctuations du gaz initial n’a pas pu se faire en si peu de temps. Quelque chose d’inconnu a dû favoriser le processus. La thèse de la matière noire, abordée plus loin, apporte une réponse à cette énigme. Cette substance mystérieuse aurait commencé à se regrouper avant la matière ordinaire. Elle l’aurait ensuite attirée, accélérant ainsi sa ­concentration. 3. Pour que le gaz s’effondre, il en faut une quantité minimum dite masse de Jeans. Un agrégat de gaz dépassant ce seuil peut se détacher du reste et se condenser. 4. Cette condensation du gaz n’est pas automatique : elle nécessite un facteur déclenchant. On l’a compris par l’observation des gaz interstellaires subsistant à notre époque : certains fabriquent de nouvelles étoiles (les pouponnières) et d’autres non. Cela explique aussi que les trois quarts du gaz primordial ne se soient pas encore agrégés à ce jour. 5. Parmi les facteurs déclenchants, on peut citer : – le rayonnement intense des premières étoiles dans le jeune Univers. Elles étaient beaucoup plus grosses qu’aujourd’hui, plus lumineuses et bien plus rapprochées ; – les radiations des supernovas, très fréquentes au début, car les premières étoiles se consumaient très vite et explosaient ; – l’activité cataclysmique des trous noirs, qui tend à ébranler le cosmos. En résumé, les étoiles éclosent difficilement dans les zones calmes et isolées de l’espace.

140

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

LES ÉTOILES S’ASSEMBLENT EN STRUCTURES PLUS GRANDES : GALAXIES, AMAS… La gravitation ne se contente pas de former les étoiles. Elle s’exerce aussi entre elles et les pousse à se regrouper en grands ensembles, les galaxies, qui se réunissent à leur tour en amas et superamas. Ces dernières seraient apparues environ 300 millions d’années après le Big Bang. Aujourd’hui, on en dénombre une centaine de milliards grâce au satellite Hubble et aux plus grands télescopes terrestres permettant de scruter les confins de l’Univers. Il ne s’agit que de sa partie observable. Au-delà, il se poursuit peut-être indéfiniment, avec toujours plus de galaxies, mais ces zones nous sont invisibles : trop éloignées, leur lumière n’a pas eu le temps de nous parvenir. On parle d’horizon cosmologique, car ce qui se trouve derrière lui nous est caché. Ce concept avait été imaginé par… Edgar Poe. Chacune de ces 100 milliards de galaxies compte en moyenne une centaine de milliards d’étoiles dont la majorité dispose d’un système planétaire. Les chances que la vie existe ici ou là sont donc grandes, mais les distances gigantesques sont un obstacle pour la détecter. Comment se présentent-elles ? La forme la plus courante est dite spirale. C’est le cas de la Voie lactée. Un exemple similaire est celle d’Andromède, visible à l’œil nu, dont on a fait de magnifiques photos car elle est proche et bien exposée. Notre galaxie peut être qualifiée de très typique. Elle ressemble à un disque plat d’un diamètre de 100 000 années-lumière avec un bulbe central (fig. 24). Il abrite un énorme trou noir de 4 millions de masses solaires, baptisé Sagittarius A*. Il est aujourd’hui peu actif pour avoir déjà dévoré les astres dans sa proximité. Malgré sa taille imposante, il reste un nain comparé au plus grand répertorié, pesant 40 milliards de masses solaires. On pense que les trous noirs galactiques sont apparus avant les galaxies et ont contribué à leur formation. En effet, on en a détecté dans les confins de l’Univers, quand il n’avait que 700 millions 141

Partie 2. L’écosystème galactique

d’années. Or, on ne voit pas comment de si gros trous noirs auraient eu le temps de se former en avalant des millions d’étoiles, voire des milliards, à une époque si reculée. Ils doivent être nés très tôt dans l’histoire, on ne sait comment, peut-être même dès le Big Bang.

Figure 24 | La Voie lactée est une galaxie spirale très plate.

Plus le temps passe, plus on découvre l’importance des trous noirs. Leur nombre et leur rôle exact sont loin d’être élucidés, mais on sait d’ores et déjà que leur présence favorise la naissance d’étoiles. En effet, en absorbant de la matière (un nuage de gaz, un astre ou un autre trou noir), ils émettent des radiations très intenses, perceptibles de loin. Ces ondes secouent les masses gazeuses et déclenchent leur agrégation. À leur tour, les galaxies s’assemblent par milliers en amas plus ou moins informes. Si l’on observe l’Univers sur des distances encore plus grandes, on les voit se regrouper en structures filamenteuses. Comme elles ont tendance à s’attirer, elles se rapprochent en formant des sortes de guirlandes. Entre celles-ci, de vastes zones sont totalement désertées. Cela rappelle un peu une mousse faite d’immenses bulles vides séparées par des interfaces minces. Aujourd’hui, on ne conçoit plus les galaxies comme de simples groupes d’astres. On y voit plutôt de riches écosystèmes. Il y subsiste toujours de nombreux nuages gazeux primordiaux non encore agrégés. Dans certaines zones, apparaissent des pouponnières d’étoiles où beaucoup sont en cours d’éclosion. 142

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

Cette description très résumée du cosmos s’apparente largement au monde du vivant. Imaginez la forêt équatoriale. On y retrouve des ingrédients similaires : – La terre fertile dont tout est issu, pourrait se comparer aux nuages gazeux. – Les cellules vivantes des arbres seraient les étoiles. – Les arbres représenteraient les galaxies. Curieusement, dans la forêt amazonienne, leur nombre est de l’ordre de la centaine de milliards comme celui des galaxies observables dans l’Univers ! – Pour ce qui est des trous noirs, il est plus difficile d’en imaginer l’analogue en Amazonie, encore que… on pourrait les assimiler aux zones de déforestation dévastées par l’Homme. J’insiste sur cette vision vivante du cosmos, car en abordant plus loin l’origine de la vie, je commencerai par montrer que le fossé entre les mondes minéral et biologique n’existe pas, contrairement à l’idée communément admise depuis des siècles. Les étoiles connaissent elles-mêmes une histoire rappelant celle des êtres vivants : – il en naît constamment dans l’espace. Nous avons vu comment ; – elles vivent très longtemps et pendant ce temps, elles travaillent. Leur production sera détaillée au chapitre suivant ; – elles meurent de façon spectaculaire ; – enfin, elles suivent une sorte de reproduction : en disparaissant, elles favorisent l’émergence de nouvelles étoiles plus complexes, dans la même région. Nous allons dire un mot de leur destin final, car les cadavres stellaires font aussi partie du bestiaire des corps célestes courants dans notre environnement cosmique. LES ÉTOILES MEURENT Pour comprendre leur fin de vie, il faut revenir à l’analogie de la rivière dévalant la pente pour finir dans un lac ou dans la mer. Suivant le même principe, la gravitation cherchera toujours à 143

Partie 2. L’écosystème galactique

concentrer la matière le plus possible, jusqu’à des formes stables, la plus dense étant le trou noir. Au sein de l’étoile, cette tendance à l’effondrement est contrecarrée par les réactions nucléaires abordées plus loin. Celles-ci vont durer très longtemps, mais pas indéfiniment. Dès qu’une part de l’hydrogène et de l’hélium a été consommée, la température fléchit et l’énergie commence à manquer pour contenir la gravitation. Comme celle-ci n’a aucune raison de faiblir, elle va prendre le dessus et provoquer l’effondrement de l’étoile. Le phénomène est cataclysmique, bien plus encore que la rupture d’un barrage dans la montagne. En quelques millièmes de seconde seulement, l’astre va être détruit par une implosion immédiatement suivie d’une explosion. En voici une description plus précise. Ne rencontrant plus de résistance, la gravitation pousse la matière à se concentrer à l’extrême avec une violence inimaginable. Cette implosion rappelle le scénario d’un Big Bang inversé. Rappelons à ce titre que les atomes sont faits essentiellement de vide (chapitre 3, fig. 15). Il ne faut donc pas s’étonner qu’une force suffisamment puissante soit susceptible de les écraser à la manière d’une presse compactant des cartons vides. Ainsi, l’étoile va se rassembler en un minuscule volume avec une énorme densité. Un second phénomène va intervenir pour contrarier cet effondrement. La contraction cataclysmique de l’astre rallume instantanément les réactions nucléaires, ce qui provoque, à l’opposé, une explosion. Les couches supérieures sont projetées dans l’espace environnant, à une vitesse proche de celle de la lumière (fig. 25). Elles forment un halo sphérique s’éloignant du centre, encore visible des millénaires après l’événement : les nébuleuses du Crabe et de la Lyre en sont de magnifiques exemples. Au milieu du halo, subsiste un cadavre stellaire hyperdense. Il en existe trois sortes, décrites plus bas. On compte en moyenne une supernova toutes les trois secondes dans l’Univers observable. Comme elles sont très brillantes, elles se voient de loin et nous apportent de nombreux témoignages des époques les plus anciennes. 144

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

Figure 25 | Une supernova : la majorité de la matière de l’étoile est expulsée dans l’espace.

L’effondrement laisse toujours derrière lui un cadavre très dense. Voici les trois types existants selon la taille de l’étoile défunte. 1. Les petites comme le Soleil laissent une naine blanche après leur mort. Dans un tel astre, le nuage électronique des atomes, dont nous avons parlé plus haut, s’est comprimé au maximum permis par la mécanique quantique. Il en résulte une petite étoile chaude et brillante, dont la densité est bien supérieure à celle des astres habituels : des centaines de tonnes par centimètre cube. Le poids d’un gros avion dans le volume d’un dé à coudre. Les naines blanches représentent environ 10 % des corps célestes visibles dans la Galaxie. 2. Celles de taille moyenne s’effondrent en fusionnant complètement leurs atomes : les protons et les électrons sont écrasés les uns sur les autres et se transmutent en neutrons. Ils forment un cadavre ressemblant à un très gros noyau atomique : l’étoile à neutrons. Cet astre est beaucoup plus dense que la naine blanche : cent millions de tonnes par centimètre cube, soit la masse d’une montagne dans un dé à coudre. Elle est petite, 10 à 20 km de diamètre, et tourne sur ellemême à des vitesses allant d’une dizaine de tours par seconde, à plus d’un millier. Cette rotation en fait un véritable gyrophare, repérable de loin. Quand sa lumière oscille ainsi, on parle de pulsar. On trouve 145

Partie 2. L’écosystème galactique

un tel cadavre rotatif au centre de la Nébuleuse du Crabe citée plus haut. Il tourne sur lui-même 30 fois par seconde. 3. Enfin les plus grosses, au-delà d’une dizaine de masses solaires, s’effondrent sous la forme la plus concentrée possible : le trou noir stellaire. Un cadavre de ce type pèse environ deux masses solaires, confinées en une sphère de 6 km de rayon. Si l’on pouvait prélever un dé à coudre du volume de ce monstre, il pèserait l’équivalent de notre planète. Reprenons notre analogie de la rivière (la matière) descendant la pente (la gravitation) depuis le haut de la montagne (le Big Bang) vers la mer (le trou noir). Les naines blanches et les étoiles à neutrons représentent deux cas où la matière a été obligée de s’arrêter en cours de route, telle la rivière tombant dans un lac au lieu de rejoindre la mer. Des limites physiques l’ont empêchée d’aller plus loin dans l’effondrement, comme un barrage retenant l’eau. En revanche, dans le cas des trous noirs stellaires, elle est parvenue « jusqu’à la mer ». Impossible d’aller plus bas. Ces astres hyperdenses nous rappellent l’histoire qui a suivi le Big Bang. L’étoile à neutrons nous fait remonter à l’époque où se formaient les noyaux atomiques, à trois minutes du Big Bang. Quant aux trous noirs, ils nous ramènent à l’ère de Planck. Avec eux, nous butons sur les mêmes limites du savoir qu’en recherchant nos origines. LE TROU NOIR, UN ENDROIT OÙ L’ESPACE-TEMPS SE DÉCHIRE Quand la matière « dévale la pente » sous l’action de la gravitation, le trou noir est le point le plus bas où elle puisse « tomber », c’est-à-dire la forme d’énergie la plus dégradée. Si nous reprenons l’analogie de la membrane de trampoline, il peut s’interpréter comme un puits creusé avec une profondeur infinie. Tout ce qui s’y enfoncerait, matière ou lumière, se trouverait dans l’impossibilité totale d’en ressortir. La définition des trous noirs date de la fin du xviiie siècle : simultanément et indépendamment, deux savants, le révérend John Michell en Angleterre et Pierre-Simon de Laplace en France, prédisent leur existence en partant de la mécanique newtonienne. Leur idée est 146

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

qu’un astre suffisamment pesant pourrait courber la lumière au point de l’empêcher de s’en échapper. En d’autres termes, un rayon lumineux émis du trou noir vers l’extérieur, y retomberait inévitablement comme une pierre lancée en l’air revient au sol. Laplace désignait ces objets sous le nom d’astres occlus, une appellation tout à fait appropriée, que l’histoire aurait dû retenir. Le concept présentait peu d’intérêt car on ne connaissait aucun astre suffisamment lourd pour se refermer ainsi sur lui-même. Resté dans l’ombre, il ressurgit avec la relativité générale d’Einstein. Son idée de la courbure de l’espace-temps s’applique particulièrement bien à la description de l’astre occlus. Six mois après la publication de la théorie, l’Allemand Karl Schwarzschild en dérive une description mathématique du trou noir. Officier engagé volontaire dans l’armée russe, il meurt quelques mois plus tard à 42 ans. Einstein, à qui il avait envoyé ses travaux depuis le front, les présente à l’Académie des sciences prussienne, sans être convaincu. Pour transformer la Terre en trou noir, il faudrait comprimer toute sa masse en une bille d’un centimètre de diamètre. Pour lui, c’est une vérité mathématique, mais non physique. Le second à mettre l’astre occlus en équation est l’Indien Subrahmanyan Chandrasekhar, en 1933. Étudiant à Cambridge, il fait son doctorat sur la fin des étoiles. Il décrit la manière dont elles s’effondrent selon leur taille. L’idée des trous noirs, appelés alors singularités de Schwarzschild, ne plaît pas plus à Eddington, astronome dominant à Cambridge, qu’à son ami Einstein. Le premier la balaie avec ce commentaire : « Je pense qu’il doit exister une loi de la nature qui empêche une étoile de se comporter de façon aussi absurde ». Chandrasekhar avouera plus tard qu’à l’âge de 19 ans, il avait beaucoup souffert des réactions péremptoires des deux grands personnages, Einstein et Eddington. Il lui avait fallu énormément de confiance en soi pour ne pas se décourager et poursuivre sa carrière de chercheur. En 1939, Einstein publie une communication expliquant pourquoi les singularités de Schwarzschild ne peuvent pas exister. Malgré cet avis de poids, de grands esprits tels Robert Oppenheimer et Archibald 147

Partie 2. L’écosystème galactique

Wheeler travaillent ce thème de recherche sous l’angle théorique. Leurs études restent des cas d’école jusqu’au début des années 1970, époque où l’on commence à identifier dans le firmament, des candidats trous noirs crédibles. Le plus convaincant est l’étoile double Cygnus X-1, émettant fortement dans la gamme des rayons X. Il s’agit de deux astres tournant l’un autour de l’autre, comme deux partenaires dansant la valse (un système binaire) : – le premier est une étoile géante de 20 à 30 masses solaires ; – le second, un trou noir stellaire d’une dizaine de masses solaires. Le champ gravitationnel très intense de ce dernier déforme la boule gazeuse de sa compagne et l’aspire progressivement (fig. 26). Le repas de l’ogre provoque l’émission de puissants rayons X. Depuis cet exemple, l’existence des trous noirs est prouvée. On en a identifié plus d’un millier. En 2019, la première « photo » de l’un d’entre eux a fait la une des médias. Elle ne donne pas une image du trou noir lui-même (il est invisible par définition), mais du halo de lumière qui frôle sa périphérie.

Figure 26 | Cygnus X-1 comprend deux étoiles dont une est effondrée en trou noir. Ce dernier dévore petit à petit sa compagne.

148

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

Dans les années 1970, on avait repéré des phénomènes appelés quasars (raccourci de quasi-stars). Il s’agissait de points lumineux ressemblant à une étoile, mais se situant à très grande distance. Leur extrême brillance, observable de très loin, suggérait des cataclysmes d’une ampleur extraordinaire. On imagina qu’ils provenaient des agapes de trous noirs géants. Quand ces derniers captent de la matière, elle commence à tourner en formant un disque d’accrétion (fig. 22). Échauffée par les frictions, elle monte à des millions de degrés et émet un rayonnement intense. Puis elle finit par être dévorée et pousse des cris d’agonie perceptibles de très loin, en lumière X et gamma. Ce phénomène nous apporte des témoignages issus des confins de l’Univers, alors qu’il avait à peine un milliard d’années. En théorie, il peut exister des trous noirs de toutes tailles, depuis la plus petite envisageable, dite masse de Planck, jusqu’à celle d’une galaxie entière. Pourtant, à ce jour, seules trois dimensions moyennes ont été observées : – Les trous noirs microscopiques apparaissent dans les rayons cosmiques. Venues de l’espace, ces particules extrêmement énergétiques heurtent violemment l’atmosphère terrestre en formant des gerbes d’autres particules. Parmi elles, on trouve ce type de micro trou noir, heureusement instable, qui s’évanouit en un temps très bref. – Les trous noirs stellaires, dont nous avons parlé, sont des cadavres de grosses étoiles. Ils pèsent quelques masses solaires. – Les trous noirs galactiques se tapissent au centre de la plupart des galaxies. Leur masse se mesure en millions, voire milliards de fois celle du Soleil. En dehors de ces cas, on se demande s’il existe des trous noirs primordiaux, c’est-à-dire créés par le Big Bang. Aucun n’a jamais été détecté et il s’agit d’un sujet d’études important aujourd’hui. Le nombre des trous noirs effectivement présents autour de nous est inconnu. On ne les repère pas directement car ils n’émettent 149

Partie 2. L’écosystème galactique

rien, mais par les manifestations cataclysmiques qu’ils provoquent dans leur entourage. De surcroît, leur petite taille relativement aux autres astres, les rend très difficiles à identifier. Ainsi, les plus paisibles ou ceux croisant seuls dans l’espace interstellaire échappent à nos instruments. Ce qui se produit à l’intérieur reste un mystère complet. On pense qu’en leur centre, se trouve une singularité, c’est-à-dire un endroit où tout devient infini et où l’espace-temps prend fin. Tout objet avalé serait précipité très rapidement vers cette singularité pour y disparaître. Fait étonnant, un trou noir se définit entièrement par trois nombres en tout et pour tout : sa masse, sa vitesse de rotation et sa charge électrique généralement nulle. Pour décrire une planète, il faudrait des milliards d’observations : sa température en différents endroits, les molécules présentes, son atmosphère, ses reliefs et son sous-sol. Pour spécifier un trou noir, il suffit de trois chiffres comme s’il s’agissait d’une simple particule. Einstein le qualifiait d’idée monstrueuse. Ne lui en déplaise, ils existent bien et sont les objets illustrant le mieux sa propre théorie de la relativité générale ! Dans leur périphérie, l’espace-temps est considérablement déformé. Par exemple, un astronaute osant s’y aventurer, pourrait voir dans ses contours des reflets de sa propre image : la lumière émise par son corps suivrait une trajectoire courbe faisant le tour de l’astre et revenant à ses yeux comme s’il regardait son dos dans un miroir. RANDONNÉE IMAGINAIRE DANS UN TROU NOIR Il s’agit d’un astre bien étrange. Nous allons simuler le voyage d’un cosmonaute suicidaire qui déciderait de s’en approcher. Pour cela, rappelons qu’avant Einstein, on considérait le temps comme unique et universel pour tous les observateurs. Au contraire, avec la relativité, chaque observateur possède son temps propre. Ainsi, l’heure indiquée par les montres de deux individus peut 150

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

diverger notablement si l’un se déplace à grande vitesse par rapport à l’autre : le seul mouvement relatif des deux montres suffit à les désynchroniser. Le physicien Paul Langevin avait imaginé un astronaute quittant la Terre et faisant un périple à une vitesse proche de celle de la lumière. À son retour un an plus tard, il découvrait que son frère resté sur Terre avait vieilli de 20 ans. Le temps propre des deux frères avait évolué différemment pendant le voyage. Le même effet se produit si l’un des observateurs se trouve dans une zone où le champ gravitationnel est intense. Ces écarts de temps ont déjà été mesurés sur des exemples courants, tel un simple vol en avion. Dans ces conditions, on observe des décalages infimes. En revanche, si l’un des deux observateurs s’approchait d’un trou noir, les différences temporelles pourraient être considérables. Le phénomène du voyageur de Langevin s’accentuerait à l’extrême, comme nous allons le voir. Imaginons un vaisseau spatial ayant jeté l’ancre à une distance de sécurité de l’astre occlus. Un astronaute revêt sa combinaison et part seul dans l’espace pour « visiter la bête ». À partir de ce moment, sa montre va cesser d’être synchrone avec celle de ses collègues et cet écart va devenir de plus en plus grand au fur et à mesure que l’homme s’approchera de sa destination touristique. Si lui-même et ses amis restés dans l’astronef s’observent à la jumelle, ce qu’ils vont voir de part et d’autre va différer considérablement à cause de ce décalage croissant entre leurs temps propres. Tout s’accélère quand l’astronaute parvient près de l’horizon du trou noir (ou rayon de Schwarzschild). Il s’agit de la sphère située autour de l’ogre, qui représente les points de non-retour. Tout objet la franchissant est irrémédiablement avalé. Il ne peut plus ni en ressortir, ni communiquer car les rayons lumineux sont eux-mêmes piégés. À l’approche de cet horizon, le cours des événements dépend de la taille du trou noir. S’il est petit, l’aventure de l’astronaute téméraire se termine avant même de passer l’horizon. En effet, le champ 151

Partie 2. L’écosystème galactique

gravitationnel est tellement courbé par rapport à la taille du cosmonaute, que son corps va être déchiré par les forces de marée. Une mort rappelant l’écartèlement des condamnés pratiqué en France jusqu’au xviie siècle. Pour lui éviter un tel sort, nous allons nous placer dans le cas d’un gros trou noir, d’une taille suffisante pour que son champ gravitationnel paraisse à peu près uniforme à l’échelle du corps du touriste. Ce dernier devrait alors franchir l’horizon sans ressentir de souffrance physique. À cet instant, que voit-on de lui depuis la fusée ? En approchant de sa destination, il semble bouger de plus en plus lentement. À son arrivée près du point de non-retour, quand il agite la main pour dire au revoir à ses amis, ses mouvements semblent s’arrêter. Au moment exact du franchissement de l’horizon, son image se fige, la main en l’air. Elle le restera définitivement, telle une statue venant d’être sculptée dans le marbre à l’endroit précis de sa disparition. Pourtant, contrairement à ce qui est perçu depuis la fusée, l’astronaute n’est en rien paralysé. En fait, il continue d’agiter la main, mais ses collègues le voient immobile car ils vivent dans un temps propre différent du sien. Pour eux, le temps près de l’horizon du trou noir s’est ralenti jusqu’à l’arrêt complet. Ils imaginent leur collègue mort crucifié ou congelé. Cependant, pour lui, la vie continue et son cœur bat toujours au même rythme. Pour changer de point de vue (et de temps propre), interrogeonsnous sur ce que voit l’aventurier de son côté au moment où il dit au revoir à ses collègues. Pour lui, c’est l’inverse : tout dans son entourage va s’accélérer. Dans son temps propre, il voit ses amis agiter leurs bras de plus en plus fébrilement derrière les hublots. Soudainement, la fusée repart à toute allure comme s’il y avait une urgence. Pourtant, en réalité, dans leur temps propre, les collègues sont restés quelques jours sur place pour se recueillir après le départ définitif de leur ami et préparer la suite de leur voyage. 152

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

Pour le cosmonaute explorateur, à l’approche de l’horizon, les événements extérieurs continuent de s’accélérer. Peu après le départ précipité de la fusée, il voit tout le futur du cosmos se dérouler sous ses yeux, de plus en plus rapidement. Les étoiles meurent les unes après les autres. Au loin, ce qui reste encore visible s’éloigne dans l’obscurité sous l’action d’une expansion fulgurante. Dans son voisinage, il voit tout disparaître, avalé par le trou noir. Au moment précis où l’astronaute franchit son horizon, l’Univers a terminé sa vie. Il n’y a donc plus rien à l’extérieur. Il lui restera cependant à observer l’intérieur. Au mieux, il n’y verra que des lueurs car les rayons lumineux sont très courbés. Il sera le premier homme ayant vécu cette expérience : voir tout le futur se dérouler comme un film en accéléré, puis découvrir l’intérieur d’un trou noir. Malheureusement, il ne pourra plus échanger son savoir avec qui que ce soit. Qu’adviendra-t-il de lui ? On n’en est pas vraiment sûr. Selon la théorie de la relativité générale, de petits diables avec une longue queue viendront s’occuper de lui et l’accompagneront poliment vers l’enfer de la singularité centrale. LES TROUS NOIRS NOUS ENVOIENT DES ONDES GRAVITATIONNELLES L’année 2015 a été marquée par la première détection d’une onde gravitationnelle, à l’occasion d’un cataclysme jamais observé auparavant : la fusion de deux trous noirs. Que sont les ondes gravitationnelles ? Pour le comprendre, il faut revenir aux découvertes d’Einstein sur la malléabilité  de l’espace-­ temps. Au chapitre 1, nous avons vu comment ce dernier se courbait à proximité des masses. Nous l’avons comparé à la peau élastique d’un trampoline se déformant quand nous y plaçons des poids. Une idée vient facilement à l’esprit : frapper cette peau comme un tambour devrait y provoquer des vagues en surface. De même, l’espace-­temps malléable pourrait frissonner. Cela n’avait pas 153

Partie 2. L’écosystème galactique

échappé à Einstein. Il avait conçu qu’une masse en mouvement émettait de telles ondes. Ce sont des déformations élastiques de l’espace : elles font fluctuer les distances. En d’autres termes, si une onde gravitationnelle traverse ma maison, les dimensions de celle-ci vont augmenter légèrement puis diminuer, et cela plusieurs fois, avant de revenir à celles d’origine. On pourrait rapprocher cela d’un tremblement de terre, à condition de préciser une différence importante : ce n’est pas la matière qui se comprime et se dilate, mais l’espace lui-même. Autrement dit, il ne s’agit pas du contenu mais du contenant. On pourrait les appeler tremblement d’espace. Einstein avait écrit les équations de ces ondes gravitationnelles, cependant il n’était pas sûr de leur existence. Il a fallu attendre un siècle pour enfin les observer. La raison principale tient à leur très faible intensité. Par exemple, au passage d’une onde gravitationnelle dans notre Système solaire, la variation de dimension subie par la Terre entière ne dépasse pas un millième de la taille d’un atome. Pourtant, il y a quelques années, on a conçu des détecteurs suffisamment précis pour mesurer des écarts de distance aussi infimes. Ils sont composés de deux tunnels perpendiculaires de 4 km de long, dans lesquels on fait circuler un faisceau laser (fig. 27). On envoie une impulsion lumineuse dans les deux bras, réfléchie par des miroirs à chaque extrémité. On la laisse faire une centaine de fois l’aller et retour de façon à allonger son trajet. À l’issue de ces multiples va-et-vient, on rejoint les deux faisceaux et on vérifie s’ils sont toujours synchrones. Si un décalage est détecté, on en déduit que la longueur d’un des bras a été modifiée par une onde gravitationnelle. Comme ces variations de dimensions sont absolument minuscules, seuls d’énormes cataclysmes célestes peuvent être observés. Cela s’est passé deux fois fin 2015, année historique dans l’histoire de la cosmologie. Dans les deux cas, il s’est agi du même phénomène : la fusion de deux trous noirs.

154

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

Figure 27 | Un détecteur d’ondes gravitationnelles : on mesure les décalages entre deux rayons laser envoyés simultanément dans deux directions différentes, sur une longueur identique.

Au départ, les deux monstres, pesant quelques dizaines de masses solaires, se croisent dans une même région et s’attirent par gravitation. Ils se mettent alors à tourner l’un autour de l’autre. Nous avons vu un tel exemple de système double sur la figure 26. Progressivement, les deux trous noirs se rapprochent, leurs orbites se rétrécissent et la valse des deux bolides s’accélère. Cette danse frénétique imprime une distorsion majeure à l’espace-temps qui émet des ondes gravitationnelles intenses. En quelques secondes, ils spiralent de plus en plus vite l’un vers l’autre et fusionnent (fig. 28). Avant cette première détection en 2015, le physicien Thibault Damour avait simulé un tel scénario de façon purement théorique. Grâce à son travail, quand le signal a été enregistré, on a tout de suite compris que l’on venait d’assister à la fusion de deux trous noirs. Curieusement, la vibration reçue se trouvait dans les fréquences audibles. Passée dans un haut-parleur, elle donnait un « couic » caractéristique prévu par les calculs. 155

Partie 2. L’écosystème galactique

La découverte est historique. Elle confirme magnifiquement l’existence des trous noirs d’une part (hostile à cette idée, Einstein a dû se retourner dans sa tombe !), et des ondes gravitationnelles d’autre part (les ayant prédites, il a dû reprendre sa position !). Depuis cet événement, on a été témoin de plusieurs autres coalescences de trous noirs, mais aussi d’étoiles à neutrons. Ce type de cataclysme doit être relativement fréquent dans l’Univers.

Figure 28 | La fusion de deux trous noirs. Leur mouvement envoie des ondes gravitationnelles de fréquence et d’intensité croissantes, jusqu’au bang final.

La mise en évidence de ces premières ondes gravitationnelles inaugure une astronomie nouvelle, ne reposant plus sur la lumière et permettant de « voir » autrement différentes classes de phénomènes. Ces observations se sophistiqueront avec un nouveau détecteur conçu pour fonctionner dans l’espace. Le projet LISA, à l’étude pour 2035, utilise le principe des appareils actuels, en formant un triangle de trois satellites. Au lieu de comparer les distances sur des bras de 4 km, il le fera sur 5 millions de kilomètres ! 156

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

On attend beaucoup de cette révolution de l’astronomie. Pour certains, elle sera de la même ampleur que le premier usage de la lunette par Galilée au xviie siècle. On pourra déceler de très nombreux événements mettant en jeu les trous noirs. On recherchera aussi des ondes gravitationnelles primordiales, c’est-à-dire émises juste après le Big Bang. Leur découverte permettrait de remonter dans l’histoire, à une époque bien antérieure à celle du rayonnement cosmologique, pas loin du mur de Planck. Sur un plan théorique, ces observations seraient utiles pour valider le scénario de l’inflation et peut-être aider à résoudre les conflits entre la relativité générale et la mécanique quantique. LES PLANÈTES Pour conclure ce chapitre, disons un mot de la formation des planètes. Elles sont constituées des restes du disque d’accrétion d’une étoile naissante (fig. 22). Une fois l’astre central né, il subsiste de la matière en orbite autour de lui, un peu comme les anneaux de Saturne. Sous l’action de la gravitation, ces matériaux – gaz, poussière, cailloux – s’agrègent d’abord en rochers, puis en micro-planètes d’un diamètre de l’ordre de quelques kilomètres. Enfin, ces planétésimaux s’attirent, entrent en collision et finissent par se regrouper en planètes. Lors de ce processus, un tri s’opère entre les éléments chimiques : les plus lourds orbitent près de l’étoile, les plus légers au loin. Ainsi, dans le Système solaire, les planètes proches du Soleil (Mercure, Vénus, la Terre et Mars) sont rocheuses. À l’inverse, les plus lointaines (Jupiter, Saturne, Uranus et Neptune) sont gazeuses avec un petit noyau solide. Au cours de cette ségrégation, l’eau a été stockée dans une zone intermédiaire où elle a formé l’essentiel des comètes. En raison de leur petite taille, leurs orbites ont été déstabilisées par la gravitation des plus grosses planètes. Leurs trajectoires sont devenues chaotiques et beaucoup ont heurté la Terre il y a 4 milliards d’années. Ce 157

Partie 2. L’écosystème galactique

bombardement cométaire a apporté la majorité de l’eau des océans et a permis la vie. On a découvert que la plupart des étoiles de la Galaxie disposent d’un système planétaire. Des télescopes spécialisés ont été lancés dans l’espace pour rechercher ces exoplanètes. Les instruments actuels ne permettent pas de les voir directement. Cependant, on les identifie par le fait qu’en passant devant leur étoile, elles atténuent très légèrement sa luminosité. Une autre technique consiste à mesurer les infimes oscillations de position des étoiles, provoquées par la rotation de leurs planètes sur leurs orbites. Par ces méthodes très sophistiquées, on parvient à repérer les plus grosses exoplanètes. On obtient aussi une évaluation de leur masse et du rayon de leur orbite. Une fois détectées, on estime leur composition chimique en observant les très légères variations du spectre lumineux de l’étoile au moment où la planète passe devant elle. On en a ainsi décrit plus de 4 000 dans la Voie lactée. L’observation directe d’une exoplanète du type de la Terre reste aujourd’hui hors de portée. En effet, cela équivaudrait à examiner depuis Paris, une luciole tournant autour d’un phare situé à plusieurs milliers de kilomètres. Néanmoins, le télescope successeur de Hubble, baptisé James Webb, disposera d’une telle acuité. Il pourra photographier les exoplanètes les plus proches et déterminer les molécules présentes à leur surface. Le but de ces recherches est bien évidemment d’évaluer les chances de trouver pas trop loin, une planète accueillante, sur laquelle notre forme de vie pourrait se développer sans trop de contraintes. Parvenir à migrer un jour, suppose de gros progrès dans la construction des fusées. En effet, l’étoile la plus proche, Proxima du Centaure, se situe à plus de 4 années-lumière. Avec les technologies du moment, le trajet prendrait plusieurs millénaires. Même si l’on pouvait accélérer un vaisseau spatial au tiers de la vitesse de la lumière (100 000 km/s), il faudrait la moitié d’une vie humaine pour l’atteindre. 158

Les clés secrètes de l’Univers

La gravitation à l’œuvre pour structurer le cosmos

QUE CONCLURE DE CE CHAPITRE ? À partir du gaz homogène issu du Big Bang, la force de gravitation a suffi pour former des galaxies, des étoiles de toutes sortes, des planètes et des trous noirs. Ces grandes familles d’objets célestes se déclinent en de très nombreuses variétés faisant la joie des astronomes. On pourrait parler d’une extraordinaire bouffée de complexité provoquée simplement par le jeu de la gravitation. Dans les deux chapitres suivants, nous allons voir que les autres forces en feront de même à l’échelle microscopique. Il est surprenant de découvrir combien notre Univers semble fait pour s’auto-organiser sans l’intervention directe d’une puissance supérieure. Il est aussi étonnant que tout ceci puisse se décrire par la physique, à partir d’équations. Voilà deux points majeurs, que nous reprendrons en détail plus loin.

159

6 Les forces microscopiques à l’œuvre pour forger les éléments et les molécules

« Nous sommes des poussières d’étoiles. » Hubert Reeves

Après la gravitation, c’est maintenant au tour des trois forces microscopiques d’agir. Elles vont provoquer deux nouvelles bouffées de complexité. D’une façon un peu similaire, elles vont aussi « dévaler la pente ». La scène se passe désormais au niveau atomique : d’abord dans les noyaux, puis dans les nuages d’électrons. La salle de théâtre est le cœur des étoiles puis leur environnement proche. L’Univers va se doter d’une centaine d’éléments chimiques en plus des deux premiers apparus après le Big Bang. Ils se combineront ensuite en 2 000 molécules différentes.

161

Partie 2. L’écosystème galactique

LES ÉTOILES, ATELIERS DE VULCAIN À l’issue du Big Bang, le cosmos a refroidi trop vite pour fabriquer tous les éléments : il a engendré les deux plus légers, l’hydrogène et l’hélium, quasiment rien d’autre (chapitre 4, fig. 16). Aujourd’hui, il en existe une petite centaine, chacun se distinguant par le nombre de ses protons (ou de ses électrons), dit numéro atomique. À défaut d’en donner toute la liste, en voici une douzaine, rencontrés dans la chimie usuelle : Numéro atomique Hydrogène

1

Hélium

2

Carbone (chapitre 3, fig. 15)

6

Azote

7

Oxygène

8

Chlore

17

Fer

26

Cuivre

29

Or

79

Plomb

82

Uranium

92

Plutonium

94

Nous avons souligné le fer car il est le plus stable et pour cela, il joue un rôle particulier. Avant lui, on trouve les atomes les plus légers et aussi les plus courants. Après lui, se situent la plupart des métaux familiers. Enfin, les derniers éléments, les plus lourds, sont l’uranium, le neptunium et le plutonium. Au-delà, il en existe d’autres, mais instables et radioactifs : trop gros, leur noyau tend à se casser spontanément. C’est le phénomène utilisé par le passé pour construire les premières bombes atomiques, dites de type A. N’ayant pas eu le temps de fabriquer toute cette variété d’atomes à l’issue du Big Bang, la nature va se remettre à la tâche dans un 162

Les clés secrètes de l’Univers

Les forces microscopiques à l’œuvre pour forger les éléments…

milieu favorable : le cœur des étoiles. Nous avons vu que celles-ci maintiennent un équilibre entre gravitation et réactions nucléaires, à une température stable qui va permettre d’achever la « cuisson » des différents éléments. Au sein de ces fourneaux, l’hydrogène et l’hélium vont fusionner et construire les atomes plus lourds, jusqu’au fer. On appelle ces réactions, des transmutations. Quel moteur anime cette grande forge ? Ce sont les deux forces nucléaires, forte et faible. Elles possèdent leur propre « pente à dévaler » qui s’exprime aussi en termes d’énergie (fig. 29). Pour le comprendre, partons du premier élément, l’hydrogène. Si deux de ces atomes fusionnent, ils se transmutent en hélium. Cette réaction provoque un fort dégagement de chaleur. Elle est utilisée dans les bombes atomiques actuelles, dites de type H. Par ce principe, les éléments légers tendent à fusionner pour en former d’autres plus lourds. Ces transmutations se produisent en cascade et s’arrêtent au fer, l’atome le plus stable. La figure montre une autre pente, inverse, dans la zone des éléments les plus lourds : ils tendent eux aussi, à descendre vers le fer. Ils le font en fissionnant, c’est-à-dire en se scindant en atomes plus légers. Pendant la dernière guerre, la fission de l’uranium a été utilisée à Hiroshima et celle du plutonium à Nagasaki. On peut dire cyniquement que la population japonaise a « testé » deux technologies. Les deux pentes, celle de gauche et celle de droite, aboutissent au fond de la vallée où se trouve le fer. Sa transmutation en un quelconque autre élément, plus petit ou plus gros, consommerait de l’énergie au lieu d’en produire. C’est donc vers le fer que tend toute l’activité nucléaire cosmique dans les étoiles. Nos ancêtres avaient-ils deviné le rôle central de cet élément ? « Étoile » se dit sideralis en latin et « fer » se dit sideros en grec.

163

Partie 2. L’écosystème galactique

Figure 29 | Les forces nucléaires transmutent les éléments jusqu’à atteindre le fer, dont l’énergie est minimum.

Depuis la dernière guerre, l’Homme est parvenu à reproduire les réactions nucléaires des étoiles. Malheureusement, l’expérimentation a coûté la vie à 250 000 Japonais. Cette histoire dramatique commence en Europe en 1933, quand le physicien d’origine hongroise Leó Szilárd découvre le principe de la réaction en chaîne, utilisé aujourd’hui dans toutes les applications atomiques civiles et militaires. En 1939, Einstein, émigré aux États-Unis, prévient le président Roosevelt que les chercheurs allemands, les plus avancés sur l’atome, détiennent les clés d’une bombe révolutionnaire : au lieu d’endommager un bateau de guerre, elle serait susceptible de « détruire le port entier, ainsi qu’une partie des territoires environnants ». Il regrettera toute sa vie d’avoir envoyé cette lettre. À sa décharge, il faut dire qu’au même moment, Hitler envahit la Tchécoslovaquie et interdit aussitôt… l’exportation de l’uranium ! Les mines tchèques sont les plus fournies d’Europe. Les laboratoires allemands de physique nucléaire sont alors confiés au fondateur de la mécanique quantique, Werner Heisenberg. On l’a critiqué pour sa compromission avec le pouvoir nazi, mais des études récentes ont suggéré une vue quelque peu différente : durant tout le conflit, il aurait obstinément focalisé les programmes 164

Les clés secrètes de l’Univers

Les forces microscopiques à l’œuvre pour forger les éléments…

de recherche vers le nucléaire civil, jamais vers le militaire. Pour ne pas éveiller de soupçons, il se serait assuré de la complicité passive de ses collaborateurs. En s’attaquant à la « physique juive » et de manière plus générale, à tous les milieux intellectuels, Hitler s’était privé dès avant-guerre, de la possibilité d’accéder le premier à l’arme absolue alors que son pays était le mieux placé. LES ÉTOILES ENSEMENCENT L’ESPACE EN MOURANT La transmutation des éléments, décrite plus haut, appelle deux questions. La première est : pourquoi toute la matière n’est-elle pas transformée en fer ? En effet, ce métal se trouvant tout en bas de la vallée, on pourrait s’attendre à ce que les forces nucléaires aboutissent finalement à du fer et rien d’autre. Ce n’est pas le cas : la cuisson est trop lente et l’étoile meurt bien avant d’en arriver là. En fait, elle implose après avoir converti un tout petit pourcentage de sa masse d’hydrogène. À sa mort, elle a fabriqué un peu de chacun des atomes plus légers que le fer : carbone, oxygène, azote, etc. Ceux-ci sont en train de « descendre la pente » tranquillement vers le fer au moment où ils sont surpris par le cataclysme final (fig. 30). La seconde est : comment naissent les éléments plus lourds que le fer ? Effectivement, l’étoile n’en produit pas durant sa vie, car ce serait « remonter la pente ». C’est en fait la supernova qui va les engendrer en un temps très bref. Les réactions nucléaires de l’explosion finale sont si violentes qu’elles vont fusionner de nombreux atomes et ainsi, fabriquer les plus grands au-delà du fer jusqu’au plutonium. En une infime fraction de seconde, l’étoile mourante va réaliser ce que les alchimistes du viie siècle cherchaient à faire en vain avec la pierre philosophale. Pour résumer : – les éléments plus légers que le fer se forment naturellement dans un état d’équilibre durant la vie de l’étoile ; – les autres, plus lourds, naissent dans le contexte chaotique de sa mort. 165

Partie 2. L’écosystème galactique

Le résultat est très harmonieux : à la fin, on retrouve toutes les sortes d’atomes dans des proportions variables.

Figure 30 | L’étoile produit les éléments jusqu’au fer. La supernova produit les éléments suivants.

Si toutes ces substances restaient éternellement emprisonnées au cœur des étoiles, l’Univers ne s’enrichirait pas. La chaleur qui y règne empêche toute construction élaborée. L’explosion des étoiles en fin de vie va les libérer et ensemencer le cosmos. Passer ainsi de deux atomes, l’hydrogène et l’hélium, à une centaine, représente une seconde bouffée de complexité. Ensuite, une troisième naîtra de cette variété d’éléments lorsqu’ils se combineront entre eux : ils formeront des milliers de molécules différentes, comme décrit un peu plus loin. Les cendres de supernova disséminées depuis le Big Bang représentent une faible part du cosmos : après des dizaines de générations successives d’étoiles, elles ne dépassent guère 1 % de sa matière totale, le reste étant toujours de l’hydrogène et de l’hélium. Pourtant, leur présence est importante : elle favorise l’émergence de nouvelles étoiles et fait naître les planètes rocheuses. Après chaque supernova, la gravitation se remet à l’œuvre. Elle rassemble débris et gaz environnants en formant des disques d’accrétion (chapitre 5, 166

Les clés secrètes de l’Univers

Les forces microscopiques à l’œuvre pour forger les éléments…

fig. 22). Le gaz se concentre majoritairement en leurs centres pour faire apparaître de nouvelles étoiles. Les poussières et les cailloux restant en orbite, se retrouveront ensuite dans les planètes. Ils incluent les éléments indispensables à la vie, tels le carbone et l’oxygène. Ainsi, dans une région donnée, les générations d’étoiles se suivent comme des êtres vivants capables de reproduction. Le Soleil est né il y a 4,5 milliards d’années, à un endroit où avaient déjà eu lieu plusieurs supernovas successives depuis la nuit des temps. De surcroît, les étoiles connaissent une forme d’évolution à travers les générations : chaque nouvelle présente plus d’éléments lourds que les précédentes. On dit qu’elle est dotée d’une plus grande métallicité. De ce fait, elle a plus de chances de développer des planètes complexes après sa mort. Il en résulte bien sûr un corollaire : d’ici 4 milliards d’années, le Soleil explosera à son tour et détruira le Système solaire. Il ensemencera l’espace de toute la richesse de sa production accumulée sur une vie très longue. Ses restes et les nôtres serviront à la génération suivante. Comme le rappelle Hubert Reeves, nous provenons des cendres d’une étoile ayant précédé le Soleil dans cette région du cosmos. Le double travail de la gravitation et des forces nucléaires a mené la Terre et les autres planètes rocheuses à une situation paradoxale : – l’Univers comprend seulement 1 % d’atomes lourds ; – à l’inverse, une planète rocheuse en est constituée presque exclusivement. Sur Terre, l’hydrogène et l’hélium purs issus du Big Bang sont devenus très rares : quelques traces dans l’atmosphère. Nous allons maintenant mettre le projecteur sur la dynamique de l’étoile, car elle illustre deux phénomènes importants et présents dans de nombreux systèmes élaborés, tout particulièrement chez l’être vivant. En pénétrant le domaine extrêmement complexe de la bio­logie, nous découvrirons qu’elle est un prolongement tout à 167

Partie 2. L’écosystème galactique

fait naturel du monde minéral. À ce titre, l’étoile, premier ensemble sophistiqué constitué après le Big Bang, montre déjà deux caractéristiques qui se retrouveront dans beaucoup d’évolutions ultérieures : l’émergence et l’ajustement fin entre l’ordre et le chaos. L’ÉTOILE, UN SYSTÈME COMPLEXE ÉMERGENT Façonnée par la force de gravitation, l’étoile est déjà un objet macroscopique structuré. Il a fallu une quarantaine d’années de recherches intenses pour en comprendre le fonctionnement à partir de la physique des particules et de la thermodynamique. La difficulté est grande, car il faut pratiquer des allers et retours entre deux strates d’échelle différente : – au niveau microscopique, on analyse le comportement des particules : par exemple, les réactions nucléaires qui transmutent les éléments ; – au niveau macroscopique, on cherche comment la chaleur, la pression, le champ magnétique et les courants de convection interviennent globalement. Il est important de saisir que les deux imposent chacune leurs règles. Les particules élémentaires suivent les lois de la nature, mais cela ne suffit pas pour expliquer l’étoile. Une fois formée, elle représente un tout qui, lui-même, crée ses propres contraintes par lesquelles il subordonne les particules. On parle de phénomène émergent. Le philosophe belge Dominique Lambert le définit ainsi : « L’émergence signifie l’apparition de structures nouvelles dont les lois possèdent une autonomie propre par rapport aux niveaux inférieurs qui les portent. » Dès qu’un système complexe apparaît, il agit en retour sur les éléments dont il est issu. Comme l’illustre la figure 31, l’étoile se forme à partir du jeu spontané des particules, puis elle les assujettit à sa propre logique. Par exemple, en établissant un équilibre entre gravitation et pression, elle place les atomes dans un contexte les forçant à fusionner et engendrer toute la variété des éléments chimiques. 168

Les clés secrètes de l’Univers

Les forces microscopiques à l’œuvre pour forger les éléments…

Christopher Langton, spécialiste de l’intelligence artificielle et de la simulation de la vie par ordinateur, a bien décrit cette interaction liant un objet macroscopique émergent et ses composants microscopiques. La plupart des systèmes dynamiques répondent ainsi à une double influence : – des particules se combinent et interagissent jusqu’à former un ensemble bien plus grand. Elles obéissent aux lois élémentaires de la physique. On parle de causalité montante, allant des éléments vers le tout ; – une fois constitué, ce tout établit ses propres contraintes, lesquelles à leur tour, ordonnent les particules : c’est la causalité descendante, jeu de règles imposé par le tout à ses parties. Ce mécanisme est l’un des principaux utilisés par la nature pour créer de l’ordre à la place du chaos.

Figure 31 | Causalités montante et descendante.

Voici un exemple simple montrant à quel point ce concept est universel : un orage. Il s’agit d’un phénomène macroscopique bien connu de tous. Le ciel s’assombrit, les vents se mettent à souffler, on entend gronder le tonnerre, on voit les premiers éclairs, puis 169

Partie 2. L’écosystème galactique

une précipitation termine la tourmente. Chercher à expliquer un tel événement par la physique des particules, ne mène pas très loin. Certes, elle donne des indications fondamentales : l’air chaud s’élève, il tourne à cause de la rotation de la Terre, les frictions engendrent de l’électricité, etc. Cela dit, une fois ces règles générales rappelées, on est incapable de prévoir le phénomène orage tel qu’on le connaît. Pourquoi a-t-il cette taille ? Pourquoi le nuage prend-il l’allure d’une enclume ? Pourquoi l’activité électrique n’est-elle pas mille fois plus forte ou faible ? Enfin, pourquoi l’orage s’est-il déclenché ici cet après-midi et non pas dix kilomètres plus loin hier ? La physique offre des réponses très partielles à ces questions. Seul le nuage « sait » ce qu’il fait : il a ses secrets de fabrication pour imposer ses propres contraintes aux particules, en plus des lois élémentaires. Ses vents, ses champs électriques, ses variations de température et sa forme d’ensemble, provoquent autant de causes descendantes disciplinant les atomes et faisant qu’un orage est toujours un orage.

Figure 32 | Le diagramme de Christopher Langton sur l’interaction entre le tout et ses parties.

170

Les clés secrètes de l’Univers

Les forces microscopiques à l’œuvre pour forger les éléments…

Ce principe de causalité descendante (fig. 32) est omniprésent dans notre vie. En voici trois autres exemples : – Si vous construisez une maison, vous maniez les briques, le ciment, la peinture (les interactions locales). Une fois terminée, elle vous contraint à son tour : elle est confortable ou non, elle vous oblige à monter des escaliers, elle vous apporte de beaux rayons de soleil par ses baies vitrées ou bien laisse entrer l’eau à la première pluie. Vous subissez des causes descendantes, voulues ou non, de la part de l’objet que vous avez bâti. – La démocratie est un autre exemple. Les Français (les particules) l’ont construite en confiant des pouvoirs de représentation à des élus et des tâches de gestion à des fonctionnaires. Par la suite, ils ont découvert des causes descendantes bénéfiques, mais aussi souvent désagréables : un prélèvement moyen de 57 % sur leurs revenus par l’État pour leur bien, ou encore, le gaspillage des ressources par des responsables dépensant inefficacement l’argent ne leur appartenant pas. De nos jours, ces effets provoquent des mouvements anarchistes ou antidémocratiques un peu partout dans le monde. – Enfin, la meilleure illustration de ce principe est sans aucun doute l’être vivant. J’insiste à dessein sur le diagramme de Langton, car nous le retrouverons plus loin en parlant de la vie et de la structure d’ensemble de l’Univers. Le corps de l’animal est fait d’atomes. Il obéit aux instructions d’autres atomes : ceux de la molécule d’ADN. Peut-on pour autant expliquer l’être vivant par la physique de l’atome ? Certainement pas. Empiler des particules n’a jamais suffi à constituer un animal ou un homme. Il doit son existence à l’information considérable accumulée dans le génome au cours de 4 milliards d’années d’évolution darwinienne. Cette information, qui l’organise dans le plus fin des détails, est un phénomène émergent. Elle s’impose désormais aux atomes de l’être vivant, comme une causalité descendante qui les contraint à jouer une pièce de théâtre. Elle est maître du jeu, au même titre que la physique des particules. 171

Partie 2. L’écosystème galactique

L’ÉTOILE, AJUSTÉE ENTRE L’ORDRE ET LE CHAOS Une seconde caractéristique des étoiles mérite d’être soulignée pour être aussi universelle : elles s’ajustent très précisément à la frontière de l’ordre et du chaos. Comme nous l’avons vu, elles naissent de la confrontation de la gravitation et des forces nucléaires. La première tend à agréger la matière depuis l’état de gaz homogène (l’ordre) vers celui de trou noir (le chaos). Par ailleurs, les forces nucléaires s’opposent à ce mouvement en cours de route. Ces deux tendances antagonistes vont stabiliser l’étoile dans une position intermédiaire. Placée dans cette situation pendant des milliards d’années, elle va pouvoir accomplir son œuvre : – fabriquer les éléments chimiques ; – et dégager régulièrement la chaleur permettant aux zones environnantes d’échapper au froid extrême de l’Univers (2,7 K). Nous avons qualifié cet équilibre de critique car il se produit dans une fourchette de température étroite. Dès que l’étoile a consommé une petite partie de son carburant, elle refroidit très légèrement : cela suffit pour que la gravitation prenne le dessus et provoque son effondrement. Malgré cette grande sensibilité, elle parvient à se maintenir des milliards d’années dans l’état critique. Comment expliquer une telle résilience ? Comment s’ajuste-t-elle si finement à la frontière de l’ordre et du chaos ? Les états critiques sont très fréquents dans la vie courante. Par exemple, le réglage de la température dans votre appartement en hiver est très précis : de l’ordre du degré. Il est assuré par un thermostat conçu par un ingénieur. En revanche, dans les systèmes naturels, il n’existe pas d’intervention humaine pour maintenir l’état critique : ils doivent y parvenir seuls. Un exemple est la régulation de la température des animaux à sang chaud. Un jeu délicat entre les gènes et les protéines la stabilise dans la zone très étroite où le métabolisme est optimum. Dans ce cas, comme dans tout processus naturel en général, l’équilibre est atteint par auto-organisation. Il provient des règles nouvelles érigées par l’entité complexe elle-même et imposées aux 172

Les clés secrètes de l’Univers

Les forces microscopiques à l’œuvre pour forger les éléments…

éléments : certaines sont capables d’ajuster finement la dynamique de l’ensemble, tels les automatismes inventés par l’Homme. L’étoile est le premier système critique auto-organisé à apparaître après le Big Bang. Per Bak11, l’inventeur de ce concept, a décrit de nombreux systèmes dynamiques fonctionnant de manière similaire. Cette idée sera centrale dans la théorie à venir sur l’origine de la vie. Nous présenterons les toutes premières formes de protovie comme un ajustement critique dans la production de nouvelles molécules. Nous verrons aussi comment cet équilibre est très précisément maintenu par la main invisible de… la sélection darwinienne. Dans ce sens, l’étoile nous montre la voie vers la compréhension du monde du vivant. LA COMPLEXITÉ SE DÉMULTIPLIE DE NOUVEAU GRÂCE AUX MOLÉCULES Une fois que la gravitation et les deux forces nucléaires ont structuré l’Univers en provoquant deux grandes bouffées de complexité, la force électromagnétique intervient à son tour. C’est elle qui forme les molécules à partir des atomes. Son action se situe donc à une échelle intermédiaire par rapport aux trois autres. Rappelons de quoi est faite une molécule : il s’agit d’un groupe d’atomes solide et stable, construit par la mise en commun des nuages électroniques. La figure 33 en donne quelques exemples : – déjà dans le gaz issu du Big Bang, les atomes d’hydrogène tendent à se lier deux par deux pour constituer une molécule : le dihydrogène H2. On en trouve des traces dans l’atmosphère terrestre. Cet assemblage se fait naturellement car l’énergie de la molécule H2 est inférieure à celle des deux atomes pris séparément ; – de la même façon, si de l’oxygène et de l’hydrogène se côtoient, ils s’associent en une molécule d’eau H2O ; – enfin, la figure présente un exemple plus complexe : l’alcool éthylique. Dans tous les cas, la cohésion de la molécule est assurée par la fusion des nuages électroniques. Ainsi, la rencontre de différents 11.  How Nature Works: The Science of Self-Organized Criticality. Per Bak. 1996. 173

Partie 2. L’écosystème galactique

atomes au hasard crée sans cesse de nouvelles substances. La transformation entre les unes et les autres s’appelle la chimie.

Figure 33 | Exemples de trois molécules. Les nuages électroniques sont mis en commun.

L’important pour l’histoire de l’Univers est que ces combinaisons vont considérablement diversifier l’existant. Plus précisément, les 94 éléments dont nous avons parlé vont engendrer environ 2 000 molécules différentes, un enrichissement majeur. Cette activité chimique se produit dans les nuages cosmiques et, de manière beaucoup plus élaborée, sur certaines planètes où se concentre une grande variété d’atomes. Nous parlons ici des matières minérales. Plus loin, nous présenterons la vie comme le résultat d’une nouvelle bouffée de complexité, reposant sur un autre type de molécules bien plus sophistiquées, dites organiques. La diversité des substances deviendra alors quasiment infinie. La figure 34 résume les trois étapes déjà réalisées, à savoir le passage de 2 éléments issus du Big Bang, à 94 dans les étoiles, puis à 2 000 corps purs sur les planètes. 174

Les clés secrètes de l’Univers

Les forces microscopiques à l’œuvre pour forger les éléments…

Figure 34 | Trois bouffées de complexité, sous l’action des quatre forces.

En parlant des atomes un peu plus haut, je m’étonnais que le cosmos ait pu constituer de tels objets stables. En effet, si l’on imagine un univers in abstracto, doté de lois physiques différentes du nôtre, il resterait très probablement à l’état de soupe de particules déstructurée. La question se pose aussi à propos des molécules. Un autre univers formerait-il un tel jeu de Lego de 2 000 pièces ? Selon toute probabilité, non. Quand bien même ce serait le cas, encore faudrait-il qu’elles aient les bonnes propriétés : – ne pas être trop nombreuses : s’il en fabriquait de toutes sortes, par exemple des millions de types différents, quel être vivant pourrait reconnaître sa nourriture dans une telle variété ? – être stables : si à peine absorbé, un aliment se transformait spontanément en autre chose, possiblement toxique, comment fonctionnerait le métabolisme ? 175

Partie 2. L’écosystème galactique

Un tel monde imaginaire aurait bien peu de chances d’abriter la vie. On en revient toujours à l’idée exprimée plusieurs fois : notre Univers est très finement ajusté. Un exemple de réglage fin est l’intensité de la force électromagnétique. Elle se trouve en position intermédiaire entre : – la gravitation, des milliards de fois plus faible ; – l’interaction nucléaire forte, mille fois plus intense. On pourrait penser qu’étant située entre deux extrêmes si éloignés, la force électromagnétique puisse être modifiée dans une plage assez large sans que cela change grand-chose à l’Univers. Ce n’est pas du tout le cas : son intensité est extrêmement critique. Si elle était 1 ou 2 % supérieure, les molécules seraient trop stables et la chimie se réduirait à très peu de réactions. À fortiori, l’élaboration délicate des protéines, à la base de la vie, serait inenvisageable. Inversement, si son intensité était de 1 à 2 % inférieure, l’activité chimique serait trop volatile pour qu’une forme de vie stable puisse émerger : se laver les mains aboutirait à les dissoudre dans le savon ! C’est un nouvel exemple de l’ajustement très fin de notre univers entre l’ordre (peu de molécules, inertes) et le chaos (trop de molécules, instables). Il illustre aussi la finesse du compromis réalisé entre stabilité et variété.

OÙ VA SE PRODUIRE L’EXPLOSION DE LA CHIMIE ? Au contraire des deux précédentes bouffées de complexité, celle-ci va concerner une infime minorité du cosmos. En effet, les éléments autres que l’hydrogène et l’hélium, ne représentent qu’environ 1 % de sa masse totale. Cette petite proportion se trouve concentrée en deux endroits : – un peu dans les gaz interstellaires. Leur faible densité et leurs températures extrêmes sont peu propices à la formation de molécules. On en a tout de même dénombré 200 ; 176

Les clés secrètes de l’Univers

Les forces microscopiques à l’œuvre pour forger les éléments…

– surtout, dans les planètes où les atomes lourds se sont accumulés. Il y siège l’activité chimique la plus importante et la plus sophistiquée, favorisée par la chaleur de leur étoile. On y retrouve tout ou partie des 2 000 molécules déjà évoquées. Il est intéressant de dire un mot des comètes. Ces corps faits de roche et de glace font partie de notre histoire car ils ont apporté la majorité de l’eau de nos océans lors d’un bombardement massif, il y a 4 milliards d’années. On y a détecté des molécules organiques dont on pensait qu’elles étaient le propre des êtres vivants. Ainsi, en 2015, le robot Philae, posé sur la comète Tchouri, en a observé 16 types dont des acides aminés et des précurseurs des sucres. Est-ce un indice de vie ? Non bien sûr, les conditions de température n’y sont pas favorables. On en tire néanmoins un enseignement crucial : on a longtemps estimé que seule la vie pouvait élaborer ces molécules organiques (d’où leur nom) et l’on découvre aujourd’hui que les plus simples proviennent spontanément du monde minéral. À vrai dire, on en trouve partout dans le cosmos. Les comètes ont probablement ensemencé nos océans avec les premières substances appelées improprement organiques. Parmi celles-ci figurent les briques de la vie, c’est-à-dire les pièces de Lego qui la constituent. Les acides aminés, capables de s’assembler en protéines, en sont un exemple important. Toute cette richesse a commencé à apparaître naturellement dans l’immensité cosmique. Pendant des siècles, on voyait un fossé infranchissable entre les corps minéraux relativement simples et les millions de molécules organiques, beaucoup plus grandes, élaborées par les êtres vivants. On observe au contraire une continuité entre les deux, laissant fortement penser que la vie a pu naître du minéral. L’UNIVERS CRÉE SANS CESSE DE L’INFORMATION Après avoir décrit la troisième marche de l’escalier de la complexité, il nous faut revenir vers ces trois bouffées ayant structuré l’Univers, car il s’agit bien là, de l’essence de l’évolution. Avant d’aborder l’étape 177

Partie 2. L’écosystème galactique

suivante, celle de l’apparition de la vie, il importe de saisir toute la subtilité des mécanismes de l’auto-organisation ayant façonné le cosmos. Ils interviendront de nouveau dans le développement de l’être vivant, de l’Homme et de la société. L’émergence de la complexité pose un problème fondamental. Intuitivement, on verrait le monde tendre vers la dégradation universelle plutôt que vers l’organisation. Notre vie courante est généralement sujette à la détérioration : en quelques années, les ustensiles de métal ont rouillé, le jardin s’est transformé en forêt vierge, la cabane à outils s’est écroulée et mon visage a pris des rides. Cette loi a été explicitée par la physique du xixe siècle sous le nom de second principe de la thermodynamique. Son caractère général n’a jamais été contesté depuis. Elle dit qu’un système considéré globalement, évolue toujours vers un maximum de désorganisation. Pour l’illustrer, prenons l’exemple classique de la cathédrale. Il s’agit d’un édifice particulièrement riche, démontrant le savoir acquis par les architectes et les tailleurs de pierre du Moyen Âge. Si cette construction est abandonnée au gel et aux intempéries pendant 2 000 ans, elle finira certainement en tas de cailloux. D’après le second principe, le passage d’une cathédrale à un tas de pierres est naturel. À l’inverse, on n’imaginerait pas le tas s’assemblant spontanément en un nouvel édifice. La raison profonde est qu’un des deux états, celui du tas de pierres, est très probable et l’autre, celui de la cathédrale, très improbable. Le monde évolue toujours vers les états les plus probables qui se trouvent être les plus dégradés. Revenons au cosmos. L’émergence de la complexité, déjà si souvent soulignée, ne consiste-t-elle pas à fabriquer spontanément une cathédrale à partir d’un tas de cailloux ? Une galaxie et des étoiles à partir d’un simple gaz ? Des atomes et des éléments chimiques à partir de l’hydrogène ? La vie à partir du minéral ? L’Homme à partir de l’animal ? Tout cela ne contrevient-il pas au second principe ? 178

Les clés secrètes de l’Univers

Les forces microscopiques à l’œuvre pour forger les éléments…

La réponse est non, à condition d’interpréter correctement cette loi. À titre d’exemple, évoquons l’église baroque Notre-Dame de Dresde, totalement démolie lors du bombardement de la ville en 1945. Le commandant des forces aériennes britanniques, Sir Arthur, maniait avec habileté le second principe de la thermodynamique : il savait que la chaleur dégagée par une bombe au phosphore suffisait à transformer un édifice (improbable) en un tas de cendres (probable). Rien n’est plus facile que détruire : le second principe vous aide très efficacement. En 1994, les Allemands ont entrepris de la reconstruire, une tâche autrement plus difficile. Ils ont commencé par ranger soigneusement les pierres sur des étagères, puis les ont numérotées et répertoriées sur ordinateur. Ils ont demandé à la population de leur prêter toutes les anciennes photos de cérémonies ayant eu lieu dans cette église au cours des temps. Partant de là, l’édifice a été reconstitué pierre par pierre durant 11 ans. Remonter ainsi vers un état organisé, très improbable, est-il une exception au second principe ? Si l’on voyait la cathédrale s’assembler toute seule comme sur un film passé à l’envers, on le penserait. En revanche, si dans notre exemple, il a fallu déployer un travail considérable pour y parvenir, alors la règle est bien respectée. En effet, tout ce travail dégage une grande quantité de chaleur, la forme la plus dégradée de l’énergie. De plus, les 250 millions de Deutsch Marks de donations pour financer le projet proviennent des profits engendrés par beaucoup d’activité humaine, laquelle a aussi dissipé énormément d’énergie en d’autres endroits. Certes, la reconstruction de l’église semble aller à l’encontre du second principe, mais si l’on dresse un bilan global incluant cette émission de chaleur, ce n’est pas le cas : au total, l’opération s’est traduite par bien plus de dégradation que de complexité. L’honneur est sauf : la loi est vérifiée, à condition de tenir compte de tout. La morale de cette histoire est qu’une petite partie peut se structurer si une autre, bien plus grande, se détériore en échange. 179

Partie 2. L’écosystème galactique

Pour s’organiser, le cosmos obéit à la même logique : chaque progrès réalisé doit s’accompagner d’une dissipation d’énergie supérieure. La figure 35 en donne une analogie, inspirée de la machine de Marly installée par Louis XIV afin de puiser l’eau de la Seine et de la remonter jusqu’au château de Versailles. Pour une dénivellation de 150 mètres, 250 pompes étaient animées par 14 roues à aubes de 12 mètres de diamètre entraînées par le courant. Le rendement était très faible : une énorme dépense d’énergie pour apporter au palais un ruisseau d’un débit de 50 litres par seconde ! Le déplacement de gigantesques masses d’eau était nécessaire pour en monter une toute petite fraction. Colbert, chargé de la « collecte de charité » auprès de la population française, n’avait de cesse de dire à Louis XIV que l’on dépensait trop à Versailles. Quand on aime, on ne compte pas ! Dans une moindre mesure, le second principe s’applique toujours à l’État français de nos jours : quelle part des impôts et taxes perçues est effectivement utile ? Le dispositif compliqué imaginé sur la figure 35 est constitué d’une succession de machines de Marly placées les unes au-dessus des autres. Son but est de monter l’eau de palier en palier, le plus haut possible. À chacun de ces niveaux, une quantité plus faible est hissée, tandis que la majorité retombe dans la mer. La nature procède de la même façon : beaucoup d’énergie est perdue en échauffement et en rayonnement pour qu’une part infime de la matière s’organise. À l’instar des dépenses de Louis XIV qui servaient le train de vie d’une élite, chaque étape dans l’organisation de l’Univers en concerne une part plus restreinte : – la première bouffée de complexité, la constitution des galaxies, a affecté l’intégralité du cosmos ; – la deuxième, la formation des 94 éléments, n’a touché que 1 % de sa masse ; – enfin, la troisième, conduisant aux molécules, ne s’est appliquée qu’à une fraction de ce pourcent, essentiellement sur de petites planètes. 180

Les clés secrètes de l’Univers

Les forces microscopiques à l’œuvre pour forger les éléments…

Figure 35 | La montée vers la complexité est alimentée par la dissipation d’énergie.

Nous aborderons la quatrième en parlant de la vie. Elle s’est manifestée sur une part infinitésimale d’un astre minuscule, la Terre. Il n’est même pas certain qu’elle ait émergé sur d’autres planètes parmi les centaines de milliards peuplant la Voie lactée. Ainsi, la matière peut s’organiser à un degré élevé, mais toujours avec une limite importante : seule une proportion très faible de sa masse est concernée. Sur Terre, nous avons la chance de nous trouver 181

Partie 2. L’écosystème galactique

dans un de ces tout petits endroits très structurés. Il faut néanmoins garder à l’esprit que tout ce qui nous entoure dans le cosmos est infiniment moins développé. Hubert Reeves a qualifié cette montée vers la complexité de création d’information. Depuis, l’idée est devenue centrale dans les thèmes de l’évolution de l’Univers et de la vie. Si l’on pense au gaz initial issu du Big Bang, parfaitement lisse et homogène, on mesure à quel point l’information a augmenté. Pour décrire toutes les galaxies et toutes les molécules, l’ensemble des mémoires des ordinateurs existant sur Terre ne suffirait pas. Il faudrait peut-être tout autant d’information pour décrire entièrement un simple lapin. La création, le stockage et la réplication d’information deviendront le secret de la vie, forme suprême d’organisation de la matière. Ce développement fulgurant est orthodoxe sur le plan des sciences, mais un fait inexplicable subsiste : pour pouvoir « dévaler la pente », il fallait qu’un état élevé d’organisation existât déjà potentiellement dans ses origines, c’est-à-dire dans la bulle d’énergie primordiale. Pourquoi celle-ci disposait-elle, dès le départ, d’une constitution si hautement improbable ? Cette question centrale en cosmologie est sans réponse aujourd’hui et le restera peut-être à tout jamais. Le scientifique doit faire preuve d’humilité et dire comme Newton : « Je vous explique comment la Lune tourne autour de la Terre, mais non pourquoi. » Nous allons reformuler ces quelques idées en termes plus exacts. En physique, ce qui précède se décrit à partir de la notion d’entropie, inventée lors du développement de la machine à vapeur. On s’était aperçu que pour produire du travail, un moteur devait transformer une énergie fortement organisée, en une autre plus dégradée. Par exemple, dans le cas d’une locomotive : – la forme organisée est le charbon, molécules complexes de la biomasse fabriquée dans les temps préhistoriques ; – la forme dégradée est la chaleur rejetée par la cheminée et les pistons dans l’atmosphère.



182

Les clés secrètes de l’Univers

Les forces microscopiques à l’œuvre pour forger les éléments…

… Considérant ce concept comme déterminant pour les machines à vapeur, les physiciens ont trouvé une mesure de la dégradation de l’énergie, appelée entropie. Une façon simple de se la représenter est de penser à un degré de désorganisation. Le tas de cailloux est un exemple de forte entropie. Au contraire, la cathédrale est faiblement entropique. Le second principe s’exprime alors ainsi : tout système fermé (complet) évolue toujours vers l’entropie maximum. Imaginé au xixe siècle, il n’a jamais été mis en défaut. Quid de l’Univers alors ? Ce que nous avons appelé dans le langage courant, « dévaler la pente », se traduit en termes scientifiques par maximiser l’entropie. D’un côté, le cosmos s’auto-organise en faisant naître des étoiles, des éléments chimiques, des molécules, la vie. De l’autre, il dégage une quantité de chaleur gigantesque, forme la plus dégradée de l’énergie. Le bilan total est une entropie croissante, conformément au second principe. Pour que cela ait été possible, encore fallait-il que l’Univers soit parti d’un état initial très peu entropique (très organisé et improbable). Le fait que la bulle primordiale ait possédé cette propriété reste à ce jour un mystère. Les vraies questions fondamentales se trouvent en amont du Big Bang !

QUE RETENIR DE CE CHAPITRE ? Nous avons élucidé les principaux phénomènes par lesquels l’Univers s’est structuré. En partant d’un état ordonné, juste après le Big Bang, un gaz chaud et homogène, les quatre forces ont chacune déclenché des bouffées de complexité. Deux autres apparaîtront plus tard avec la naissance de la vie, puis l’explosion de la civilisation humaine. Tout au long de l’histoire cosmique, les mêmes mécanismes sont à l’œuvre pour organiser le monde. À travers ce voyage, j’emploie souvent le langage courant laissant penser qu’il existe dans la nature une intention d’évoluer dans ce sens. Je le fais dans un seul but de simplicité, mais ce type d’intention 183

Partie 2. L’écosystème galactique

n’apparaît nullement dans la réalité observée. En démontant les rouages de l’auto-organisation, au cours d’un voyage de 13,8 milliards d’années, nous découvrons comment la complexité émerge toute seule, sans guide. Si j’utilise des expressions du genre « la nature a plus d’un tour dans son sac », ou bien, « elle s’attelle à la tâche », il s’agit d’une façon de parler. Comme son nom l’indique, l’auto-­ organisation se fait d’elle-même, sans le besoin d’être commandée. Depuis le Big Bang, tout paraît s’assembler sans chef d’orchestre.

184

Les clés secrètes de l’Univers

7 Les grands mystères de l’Univers

« Le connu est fini, et l’inconnu infini ; sur le plan intellectuel, nous nous trouvons sur un îlot au milieu d’un océan infini d’igno­ rance. Génération après génération, nous nous évertuons à gagner un peu de terre. » Aldous Huxley (1887)

Ce chapitre va clore la description du cosmos. Si les lignes précédentes ont pu vous donner le sentiment d’une science toute puissante, celles qui suivent seront plutôt un message d’humilité. Nous allons découvrir que 95 % de la masse de l’Univers sont à ce jour, inconnus et invisibles. Nous parlerons de matière noire et d’énergie sombre, deux composantes dont nous ignorons la nature. Elles sont au centre des recherches actuelles en astrophysique.

185

Partie 2. L’écosystème galactique

LA MATIÈRE NOIRE En 1933, l’astronome américano-suisse Fritz Zwicky, renommé pour avoir détecté les premières supernovas, fait une découverte étonnante. Il s’intéresse à l’amas galactique de la Chevelure de Bérénice. Il évalue sa masse par deux méthodes très différentes et trouve des résultats discordants. La première repose sur la luminosité : elle fournit une indication approximative du nombre d’étoiles qu’il contient. En multipliant par le poids moyen d’une étoile, il obtient une idée de celui de l’amas entier. La seconde méthode consiste à observer sa dynamique : le mouvement des galaxies en son sein. Pour cela, parmi le millier que compte l’amas, il en examine sept. Elles décrivent des orbites comme le font les planètes du Système solaire. En mesurant leurs vitesses dans ce manège, Zwicky évalue la masse totale de l’amas, grâce aux lois de la mécanique. L’astronome rapproche ces deux estimations, et là, c’est la surprise : la seconde est 400 fois plus élevée que la première ! Une façon simple de résumer ce paradoxe est de dire qu’à la vitesse où elles bougent, les galaxies auraient dû s’échapper dans l’espace depuis longtemps, par effet centrifuge. Si elles sont toujours liées à l’amas, il est forcément bien plus massif que sa brillance ne l’indique. Les estimations contradictoires de Zwicky ne convainquent personne, étant donné les marges d’erreur dans ce genre d’exercice. De surcroît, ce remarquable astrophysicien se distinguait par son mauvais caractère. Pour cette raison, les responsables des grands télescopes lui refusaient fréquemment des créneaux de travail, après quoi il leur rendait la politesse en les traitant de spherical bastards. Selon sa propre définition, ce qualificatif désignait « un idiot qui le paraît également quel que soit l’angle de vue ». Sa découverte passe pour une nouvelle facétie. Elle restera 40 ans dans les tiroirs avant de refaire surface. Dans les années 1970, on commence à observer le même phénomène, non plus sur un amas, mais au sein des galaxies spirales. 186

Les clés secrètes de l’Univers

Les grands mystères de l’Univers

Tournant beaucoup trop rapidement sur elles-mêmes, leurs étoiles devraient être éjectées. En 1977, deux astronomes, Vera Rubin et Ken Ford constatent cette particularité sur onze d’entre elles et la mesurent avec précision. Pour permettre de telles vitesses de rotation, il faudrait que les galaxies aient une masse dix fois plus élevée que l’estimation basée sur le nombre de leurs étoiles. On postule alors l’existence d’une matière noire (invisible) s’ajoutant à celle que l’on connaît, et dont le poids serait largement prédominant. Pour donner une image : dans une galaxie, les étoiles semblent être liées à cette substance énigmatique comme des pépins pris dans le corps d’une pastèque transparente. À partir de là, les preuves de son existence s’accumulent. À défaut de la voir, on parvient à la localiser par les effets qu’elle produit. On découvre que toutes les galaxies sont plongées dans un halo de matière noire : celui de la Voie lactée présente un rayon sept fois supérieur à sa partie visible. On s’aperçoit aussi que la formation des premières étoiles après le Big Bang s’explique par la matière noire. Si celle-ci n’existait pas, l’agrégation du gaz primordial aurait pris beaucoup plus de temps. Selon les scénarios envisagés aujourd’hui, cette masse invisible a commencé à se concentrer la première. Dans un second temps, ces grumeaux ont attiré la matière ordinaire et accéléré son effondrement. De nos jours, l’existence de cette substance fantomatique est établie. Comme dans le cas des trous noirs, on ne la voit pas, mais on détecte sa présence par ses effets indirects : par exemple, la courbure qu’elle imprime aux rayons lumineux la traversant. Globalement dans le cosmos, on en trouve 5,5 fois plus que de matière ordinaire. Sa nature reste un mystère. De quoi pourrait-elle être constituée ? La première idée venant à l’esprit est que notre décompte serait faux. Il existerait de nombreux corps pesants, bien moins brillants que les étoiles, échappant à notre vue : naines blanches, naines brunes, trous noirs, nuages froids et poussières. Ces objets ont été nommés 187

Partie 2. L’écosystème galactique

MACHO (Massive Compact Halo Objects). Pour en avoir le cœur net, on les a dénombrés statistiquement en scrutant très précisément le ciel dans des directions précises et en repérant ce qui passait dans l’axe de visée. Il a fallu admettre que même en ajoutant ces corps à l’inventaire, le compte n’y était pas et de très loin. En localisant la matière noire, on a observé un comportement étrange : dans l’espace, elle se rassemble en boules alors que les masses de nature classique tendent toujours à s’agréger en disques plats. Ainsi, la Voie lactée dont la forme est celle d’une galette, est plongée dans un halo sphérique de matière noire. Cet indice montre que les deux types de matière ne sont pas de même nature. Pour expliquer de telles différences, on s’est alors tourné vers la physique des particules. L’idée était d’en trouver une qui combine deux caractéristiques : – être sensible à la gravitation : elle compterait donc dans la masse de l’Univers ; – ne pas l’être à la force électromagnétique : elle serait totalement invisible. Voilà le profil de la matière noire activement recherchée aujourd’hui. On lui a donné le nom de WIMP (Weakly Interacting Massive Particles), ce qui signifie mauviette en anglais, le but étant de contrebalancer les machos. De nombreuses expériences sont menées à Genève dans l’accélérateur du LHC, pour trouver une particule de ce type. On est allé jusqu’à en dresser un portrait-robot et la baptiser neutralino. À ce jour, rien de tel n’a été détecté. Resterons-nous longtemps sans connaître cette substance, pourtant largement prédominante ? Je ne le pense pas. En effet, l’inconnue est encerclée de toutes parts. Nous savons où elle se trouve dans l’espace et en quelle quantité. Nous découvrons ses propriétés et pouvons la traquer. Le nombre des détectives privés lâchés à ses trousses est impressionnant : astrophysiciens, spécialistes de la modélisation des galaxies, physiciens des particules et autres théoriciens. Je serais surpris que l’énigme ne soit pas élucidée dans les 188

Les clés secrètes de l’Univers

Les grands mystères de l’Univers

10 ou 15 ans à venir, avec à la clé, l’attribution d’un prix Nobel « de police judiciaire » ! Nous avons vu que la matière noire avait été découverte en étudiant la masse de grands objets célestes : un amas par Zwicky, des galaxies par Rubin et Ford. Ceci amène une question nouvelle. Pourrait-on en faire de même avec l’Univers entier ? Évaluer sa masse totale puis la comparer à ce qui est visible et mesurable ? La réponse est oui : on y est parvenu grâce à la photographie du rayonnement fossile. Cela va déboucher sur un autre mystère, celui de l’énergie sombre qui démontrera plus avant l’ampleur de notre ignorance quant à la nature intime du cosmos. LA DENSITÉ DE L’UNIVERS EST PRÉCISÉMENT AJUSTÉE SUR UNE VALEUR CRITIQUE Depuis les débuts de la cosmologie, on se préoccupe de connaître la masse de l’Univers, ou plus exactement sa densité. En effet, comme seule une partie est observable en raison de la vitesse finie de la lumière, parler de sa masse totale n’a pas de sens. Elle a d’ailleurs toutes les chances d’être infinie. En revanche, on peut la mesurer pour un volume donné : c’est sa densité. Elle est de grande importance, car elle détermine son devenir à long terme. Nous allons découvrir les différents scénarios que la physique permet de simuler. Les modèles classiques de Friedmann-Lemaître (chapitre 3, fig. 13) décrivent un rythme d’expansion se ralentissant dans le temps. La raison tient à la force de gravitation : elle tend à rapprocher les masses et donc joue le rôle d’un ressort de rappel s’opposant à l’expansion. De la même façon qu’une voiture lancée dans une montée tend à perdre de la vitesse sous l’effet de son poids, l’expansion ralentit sous l’effet de la gravitation. Que disent ces modèles sur l’avenir du cosmos ? Ils décrivent plusieurs destins possibles. Dans l’un d’eux, la force de rappel est suffisante pour arrêter l’expansion et enclencher un mouvement 189

Partie 2. L’écosystème galactique

rétrograde de contraction, comme si la voiture perdait de la vitesse en montant, s’arrêtait puis se mettait à reculer. Dans les autres, le freinage est insuffisant et laisse l’Univers poursuivre indéfiniment son expansion. Plus précisément, la figure 36 prédit trois scénarios : 1er cas, forte densité : la force de rappel de la gravitation est suffisante pour mettre fin à l’expansion et contraindre le cosmos à entrer en contraction. Passé un certain stade, il va commencer à rapetisser et s’échauffer, puis il terminera dans un cataclysme ressemblant à un Big Bang à l’envers. On parle de Big Crunch. Un univers subissant ce destin a peu de chances d’être fertile : en effet, dès que l’expansion cesse, le moteur de la complexité n’est plus alimenté et la mort thermique s’ensuit. Le premier scénario vers le bas de la figure 36 présente une longévité insuffisante pour abriter la vie car il retourne rapidement au chaos. 2e cas, faible densité : la force de rappel de la gravitation ralentit l’expansion, mais ne suffit pas pour l’arrêter. Ces univers ne sont pas non plus très propices à la vie car ils refroidissent trop vite, à l’exemple du scénario du haut. Dans le pire des cas, les étoiles n’ont même pas le temps d’apparaître. Dans le meilleur, les premières générations naissent, mais assez rapidement, l’espace devient trop dilué pour qu’il en émerge de nouvelles. Une mort infiniment lente, appelée Big Chill, se prépare dans la nuit et le froid, c’est-à-dire dans une forme d’ordre. Pierre Dac dirait : « L’éternité, c’est long… surtout vers la fin. » 3e cas, densité critique : il s’agit là du cas se trouvant juste à la limite entre les deux précédents. Pour une valeur très précise de la densité, dite critique, le cosmos connaît une expansion illimitée, la plus lente possible sans tomber dans le Big Crunch. C’est le cas le plus favorable pour la montée vers la complexité car l’expansion se poursuit éternellement, avec un refroidissement modéré. Il représente un état très particulier, finement ajusté entre l’ordre (le froid) et le chaos (la fournaise). 190

Les clés secrètes de l’Univers

Les grands mystères de l’Univers

Figure 36 | Le devenir de l’Univers dépend de sa densité.

La valeur de la densité critique a été calculée depuis longtemps grâce à ces modèles théoriques. Elle est très faible, l’Univers étant essentiellement constitué de vide : une masse équivalente à six atomes d’hydrogène par mètre cube. Il faut comprendre ce chiffre comme une moyenne entre le vide des immenses espaces intergalactiques et les grandes masses concentrées dans les galaxies : étoiles, nuages gazeux et trous noirs. Ces considérations théoriques faites, dans quel cas se situe la densité réelle de notre cosmos parmi les trois ? Depuis Lemaître, on se pose cette question qui détermine son avenir à très long terme. Après avoir lu tous les chapitres précédents et découvert à quel point notre monde était finement ajusté, vous l’aurez deviné : il se trouve pile dans le cas critique ! Selon toutes les mesures réalisées vers la fin du xxe siècle, il devait en être très proche. Une confirmation éclatante est survenue avec la dernière photo du rayonnement fossile. Une expérience décrite plus 191

Partie 2. L’écosystème galactique

loin a permis d’évaluer la densité cosmique assez précisément : elle se situe à la valeur critique, avec une marge d’erreur de 2 %. Cette découverte a beaucoup intrigué les astrophysiciens, car elle pose au moins deux questions majeures : 1. Comment l’Univers a-t-il pu s’ajuster aussi finement sur la valeur critique ? Nous avons donné la réponse au chapitre 3 : cela peut se justifier par l’épisode de l’inflation juste après le Big Bang. 2. Plus énigmatique encore : en faisant l’inventaire de la matière connue, on est très loin d’arriver à une telle densité. Comment expliquer la différence ? On retrouve là un problème similaire à celui découvert par Zwicky sur un amas galactique, puis par Rubin et Ford sur des galaxies. C’est maintenant au tour de l’Univers entier de nous dire que le compte n’y est pas : la somme des deux matières, classique et noire, ne représente qu’une part minoritaire de sa densité totale. Plus des deux tiers manquent à l’inventaire. Voici les dernières estimations chiffrées : Masse visible : 4,9 % Masse de matière noire (5,5 fois plus) : 26,8 % Masse manquante : 68,3 % TOTAL (masse critique) : 100,0 % À l’enquête en cours pour débusquer la matière noire, s’ajoute maintenant une nouvelle traque : la chasse à la masse manquante. Les trois devenirs de l’Univers, mentionnés à la figure  36, correspondent en fait à différents niveaux de courbure de l’espace. Sans que ce soit essentiel pour la suite de l’ouvrage, il est intéressant d’entrer dans ces considérations de géométrie, car elles déterminent tout. Chacun des trois cas se rapporte à une courbure distincte. Sachant qu’il est virtuellement impossible de se représenter la courbure d’un espace à trois dimensions, nous l’avons visualisée sur la figure 37 en deux dimensions, c’est-à-dire sur une surface : 1er cas, forte densité (en bas) : dans ce type d’univers, la courbure est dite positive. En deux dimensions, il s’agirait de la surface d’un



192

Les clés secrètes de l’Univers

Les grands mystères de l’Univers

… ballon. Si l’on y trace un triangle et l’on mesure ses trois angles, on trouve plus de 180° (pensez à un triangle partant du pôle Nord de la Terre pour rejoindre deux points sur l’équateur. Comme les méridiens croisent l’équateur à angle droit, cela fait déjà deux angles de 90°. Si l’on ajoute l’angle situé au pôle, on dépasse 180°). La figure représente une surface en deux dimensions, mais la même distorsion des angles s’observe dans un espace courbe à trois dimensions. 2e cas, faible densité : il s’agit d’un univers à courbure négative. En deux dimensions, elle prend l’allure d’une selle de cheval. Sur ce type de surface, la mesure des trois angles d’un triangle donne moins de 180°. Il en va de même en trois dimensions. 3e cas, densité critique : ce cas représente la frontière entre les deux précédents : l’Univers est exempt de courbure. Il répond à la géométrie euclidienne enseignée au lycée.

Figure 37 | Selon la densité de l’Univers, la géométrie de l’espace est plus ou moins courbe.

… 193

Partie 2. L’écosystème galactique

… Le premier à avoir étudié les géométries non euclidiennes (courbes) est Carl Friedrich Gauss, surnommé « le prince des mathématiques ». En classe de prépa, on l’appelait plutôt « sale gosse » en raison des innombrables casse-têtes dont il était à l’origine. Ses réflexions sur les espaces non euclidiens étaient allées très loin : il s’était demandé si notre espace réel en trois dimensions n’était pas courbe. Pour le vérifier, il avait envoyé des géomètres au sommet de trois montagnes. Ils y avaient allumé des feux et avaient mesuré les angles ainsi formés. La somme des trois faisait bien 180°, première preuve expérimentale de la planéité de l’espace. Ensuite, la théorie la plus élaborée sur les géométries non euclidiennes a été développée au xixe siècle par un autre mathématicien : l’Allemand Bernhard Riemann. Elle n’a jamais intéressé personne jusqu’au jour où Grossmann, l’ami d’Einstein, l’a sortie des cartons pour l’aider à construire la relativité générale. C’est une illustration de la complémentarité entre les mathématiques et la physique : les premières engendrent toutes sortes d’objets abstraits sans se préoccuper s’ils existent ou non, la seconde puise dans cette caisse à outils, ce qui est utile pour expliquer le monde. Récemment, la photo du rayonnement fossile a permis une estimation bien plus précise de la courbure de l’espace, selon un principe assez proche de celui jadis employé par Gauss. En analysant les fluctuations de température dans le cosmos âgé de 380 000 ans, on y a trouvé des ondes acoustiques, un peu comme les vagues se formant dans une baignoire quand on agite l’eau. En mesurant l’angle sous lequel ces ondes apparaissent aujourd’hui, on a pu vérifier que la courbure de l’Univers était nulle avec une faible marge d’erreur. Le procédé est trop complexe pour être explicité ici. Il s’apparente à une triangulation, non pas entre des montagnes, mais cette fois, sur des distances de 13 milliards d’années-lumière. On peut se demander pourquoi chez les mathématiciens du xixe siècle, puis les astrophysiciens du xxe, tant de matière grise a été mise à l’épreuve sur le sujet de la courbure du cosmos, pour découvrir finalement, qu’il en était dépourvu ! Cette vérité est bien moins évidente



194

Les clés secrètes de l’Univers

Les grands mystères de l’Univers

… qu’il n’y paraît. Comme nous l’avons vu au chapitre 3, l’absence de courbure est un cas extrêmement improbable. Nous en connaissons maintenant la raison  : l’inflation a « lavé » toute courbure ayant existé à l’origine. La cosmologie nous mène toujours de mystère en mystère. En voici un nouvel exemple. Comme nous nous trouvons sur le cas critique, avec une petite marge d’incertitude, il nous est impossible de dire si l’Univers est fini ou infini. En effet, les modèles à courbure positive sont finis, les autres infinis. Comment trancher entre les deux si nous sommes pile à la frange avec une légère imprécision pouvant nous faire basculer d’un côté ou de l’autre ? Cette situation rappelle un sondage pré-électoral qui donnerait 50 % pour la gauche, 50 % pour la droite, avec une marge d’erreur de 2 %. Que prédire ? Cela s’était produit lors du vote sur le traité de Maastricht.

L’ÉNERGIE SOMBRE Voici donc le nouveau défi lancé en astrophysique : trouver ce qui peut peser 68 % de l’Univers et rester caché. Il ne peut pas s’agir de matière, car on a suffisamment scruté le cosmos à la recherche de la matière noire pour ne pas en découvrir maintenant une nouvelle espèce. Alors, on se tourne vers une autre idée : l’énergie. En effet, par l’équation d’Einstein E = mc2, on sait que la masse est une forme condensée d’énergie. Ainsi, tout bilan de masse doit inclure l’énergie au même titre que la matière. La masse manquante pourrait donc être une énergie inconnue, répartie uniformément dans l’espace. Convertie en masse par l’équation d’Einstein, elle représenterait les deux tiers de la densité de l’Univers (fig. 38). On l’a baptisée énergie sombre. Comprendre sa nature est aujourd’hui le plus grand défi de la cosmologie.

195

Partie 2. L’écosystème galactique

Figure 38 | Le contenu du cosmos.

On a bien sûr quelques pistes. La première idée venant à l’esprit est que « le vide n’est pas vide ». Effectivement, selon la physique quantique, il y apparaît incessamment et partout, des particules nouvelles qui s’annihilent rapidement. On les qualifie de virtuelles car elles disparaissent aussi vite qu’elles naissent. Néanmoins, le phénomène est bien réel et observé : dans un récipient, même après avoir aspiré tous les gaz avec une pompe, le vide reste plein de particules virtuelles. Leur énergie cumulée au niveau du cosmos serait l’explication la plus naturelle de la masse manquante. Malheureusement, il n’en est rien. Les calculs ont mis en évidence une énergie 10120 fois trop grande (1 000 000 000… avec 120 zéros !). Cet écart entre l’énergie du vide quantique et l’énergie sombre est le plus grand jamais évoqué au cours de l’histoire des sciences. On n’est pas près de rapprocher ces deux valeurs ! Il faut donc trouver d’autres explications. Une idée envisagée aujourd’hui est celle d’une énergie répulsive, une sorte de champ gravitationnel inversé, qui boosterait l’expansion. On parle aussi d’une cinquième force, ou quintessence. 196

Les clés secrètes de l’Univers

Les grands mystères de l’Univers

COUP DE TONNERRE DANS L’ASTROPHYSIQUE En 1998, une déflagration ébranle la communauté de la cosmologie : une publication énonce que l’expansion s’accélère. Comme nous l’avons dit, tous les modèles d’univers classiques indiquaient l’opposé : un ralentissement de l’expansion dans le temps sous l’effet de la gravitation. La surprise occasionnée par cette découverte ressemble à ce que l’on éprouverait si, en lançant une pierre en l’air, on ne la voyait pas retomber vers le sol, mais au contraire, partir vers l’espace en accélérant telle une fusée. Les trouble-fêtes sont deux équipes de chercheurs travaillant séparément sur le même sujet, celles de Saul Perlmutter aux États-Unis et de Brian Schmidt en Australie. Ils s’employaient à mesurer l’expansion dans le sillage d’Edwin Hubble, mais avec une méthode plus précise et surtout, allant beaucoup plus loin dans l’espace et le passé. Rappelons que pour détecter l’expansion, le pionnier avait utilisé comme chandelle étalon, un certain type d’étoiles : les Céphéides (fin du 1er chapitre). Elles présentent un double avantage. On sait calculer l’intensité l­umineuse qu’elles émettent et, dès lors, évaluer leur distance simplement d’après leur éclat perçu depuis la Terre. De plus, elles sont particulièrement brillantes. Ainsi, E. Hubble avait pu en repérer différents ­exemplaires au sein des galaxies proches et estimer leur éloignement. En ­comparant distance et vitesse de fuite, il avait mis en évidence l’expansion de l’Univers. Cependant, il demeurait impossible d’identifier les Céphéides dans les galaxies lointaines. Ces dernières apparaissaient comme des taches où l’on ne pouvait plus distinguer les astres individuellement, même les plus lumineux. Les équipes de Perlmutter et Schmidt ont réitéré l’exercice grâce à une ancienne idée de Zwicky : utiliser les supernovas, explosions d’étoiles, dans le rôle de chandelles étalons. Leur ­luminosité pouvant atteindre plusieurs milliards de fois celle du Soleil, elles sont repérables jusqu’aux confins du cosmos, à une dizaine de milliards d’annéeslumière (fig. 39). Elles offrent donc le moyen de porter les mesures beaucoup plus loin qu’avec les Céphéides en remontant près du Big Bang. 197

Partie 2. L’écosystème galactique

Figure 39 | L’observation des supernovas permet d’aller beaucoup plus loin que les Céphéides pour mesurer l’expansion à différentes distances.

Pour prendre les supernovas comme étalons, encore faut-il connaître l’énergie qu’elles émettent. En général, ce n’est pas le cas : il en existe différentes sortes et leur éclat est très variable selon la masse de l’astre défunt. Cependant, une classe d’entre elles fait exception : les supernovas de type Ia. Elles mettent en jeu une étoile dite naine blanche, et dégagent une énergie qu’il est possible de calculer. On peut donc évaluer leur distance simplement en mesurant leur brillance, à l’instar des Céphéides de Hubble. On les repère facilement car leur luminosité très forte fluctue selon un profil temporel parfaitement répétitif. Munis de ces chandelles et prolongeant les expériences passées de Hubble, Perlmutter et Schmidt se mettent en chasse des supernovas Ia dans l’espace lointain. Que nous enseignent-elles ? Les plus anciennes, datant de la première moitié de l’histoire de l’Univers, montrent bien qu’à cette 198

Les clés secrètes de l’Univers

Les grands mystères de l’Univers

époque, l’expansion décélère comme le disent les modèles classiques. En revanche, pour les plus récentes, à partir de 6,5 milliards d’années après le Big Bang, elle s’accélère. Si l’on assimile la vitesse d’expansion à celle d’une voiture, elle aurait donc freiné avant un ralentisseur situé à peu près entre le Big Bang et aujourd’hui, après quoi, elle aurait remis les gaz et repris une vitesse croissante. B. Schmidt qualifie ainsi son état d’âme lorsque ses mesures ont commencé à s’accorder : « Ma réaction se trouvait quelque part entre la surprise et l’effroi ». D’après ces observations, le cosmos semble obéir à deux forces antagonistes : – l’une attractive, la gravitation, s’affaiblissant naturellement avec l’expansion ; – l’autre répulsive, d’essence inconnue. Si cette dernière reste constante dans le temps alors que l’autre décroît, à partir d’un certain moment, elle doit devenir prédominante. En clair, dans la première moitié de la vie de l’Univers, la gravitation domine et freine l’expansion. Ensuite, une force répulsive prend le dessus et l’accélère. Effrayés par cette grenade entre leurs mains, Perlmutter et Schmidt hésitent à dégoupiller et communiquer. Il faut dire qu’une nouvelle d’une telle importance, provoque inévitablement un tsunami de réactions positives et négatives. Si par la suite, les mesures ou la méthode s’avèrent erronées, le soufflé se dégonfle et la carrière des inventeurs est compromise. En l’occurrence, le fait que les deux équipes aient obtenu les mêmes résultats, va les encourager à publier. Leur découverte a été rapidement acceptée par la communauté scientifique. Elle a remis en question les modèles cosmologiques et soulevé une énigme : quel moteur peut ainsi accélérer l’expansion ? Un champ répulsif, une sorte d’antigravitation, serait devenu prédominant il y a 6,5 milliards d’années. Il imprimerait une dynamique nouvelle à l’Univers, décrite sur la figure 40. Curieusement, cette décélération suivie d’une accélération avait déjà été imaginée dans les années 1930 par… Lemaître ! 199

Partie 2. L’écosystème galactique

Figure 40 | A   : Le modèle cosmologique classique. B : Le modèle actuel.

Nous l’avons dit, l’expansion est le moteur de la montée vers la complexité, d’où l’intérêt de comprendre comment elle fonctionne. En nous livrant à une rétrospective depuis le Big Bang, nous constatons qu’elle a suivi un profil en trois étapes : – juste après le Big Bang, elle s’est exercée de façon fulgurante en un temps très bref : ce fut l’inflation ; – cet épisode a pris fin pour laisser l’expansion se poursuivre modérément, freinée par la gravitation ; – vers 6,5 milliards d’années, une antigravitation s’est imposée de nouveau, accélérant modérément l’expansion. Les causes d’une telle évolution restent éminemment mystérieuses. Toutefois, nous pouvons faire un rapprochement avec une énigme déjà vue un peu plus haut : cette force répulsive ressemble beaucoup à celle évoquée au sujet de l’énergie sombre. D’ailleurs, les deux présentent une énergie totale du même ordre de grandeur. Sans aucun doute, les expériences de Perlmutter et de Schmidt seront 200

Les clés secrètes de l’Univers

Les grands mystères de l’Univers

réitérées avec des instruments plus précis à l’avenir, avec un double objectif : d’une part, en savoir plus sur ce champ répulsif, et d’autre part, traquer l’énergie sombre. LE DEVENIR DE L’UNIVERS Interrompant un instant la logique chronologique de ce livre, nous allons brièvement parler du futur de l’Univers à très long terme. Nous pourrons ensuite changer complètement de tableau et poursuivre l’histoire naturelle en tournant la page de la cosmologie pour passer à celle de la biologie. Au niveau cosmique, rien d’exceptionnel ne va se produire dans notre région avant 3 ou 4 milliards d’années. À ce moment, la Voie lactée fusionnera avec deux autres galaxies se rapprochant de nous à grande vitesse : les Nuages de Magellan puis Andromède. C’est un phénomène courant au sein des amas à cause de la taille des galaxies et de leur relative proximité. Lors de cette rencontre, les étoiles auront peu de chances d’entrer en collision car elles sont très distantes les unes des autres. Les trois galaxies vont donc s’interpénétrer sans cataclysme majeur, et s’unir en une configuration nouvelle. Au niveau du Système solaire, ces changements devraient néanmoins induire quelques conséquences. En effet, on sait qu’il est chaotique : de petits effets peuvent totalement déstabiliser planètes et astéroïdes. La fusion des galaxies perturberait ainsi les orbites, avec, à la clé, de nouveaux bombardements d’astéroïdes, des tremblements de terre et des modifications climatiques majeures. Plus dramatique sera l’évolution du Soleil. Dans 5 ou 6 milliards d’années, il se transformera en géante rouge. Le mot n’est pas exagéré : son diamètre dépassera alors celui de l’orbite terrestre. Bien avant d’être engloutie, la Terre sera devenue une fournaise inhabitable. Le stade de géante rouge est la dernière étape avant la supernova. L’explosion finale laissera un cadavre stellaire appelé naine blanche, une petite étoile peu lumineuse. Le reste du Système solaire sera réduit en cendres. 201

Partie 2. L’écosystème galactique

Le devenir de l’Univers à plus long terme s’est précisé grâce à la découverte de l’accélération de l’expansion. On sait maintenant qu’il connaîtra une mort froide : un monde de plus en plus vaste et sombre, que Jean d’Ormesson qualifie de « désert glacial d’un dernier éparpillement ». Nous pouvons ajouter un paradoxe intéressant : si le cosmos grandit ainsi démesurément, en parallèle, sa partie observable rétrécit. Pour prendre une analogie, imaginez un châtelain très âgé qui achèterait les terres autour de sa propriété afin d’agrandir son parc. Cependant, perdant ses capacités physiques, il pourrait de moins en moins le parcourir, ni même le voir. Son horizon se rétrécirait dans un parc en croissance. Une situation aussi étrange affectera l’Univers, en raison de la vitesse finie de la lumière. Voici le raisonnement : – Selon la loi de Hubble-Lemaître, les zones les plus lointaines s’éloignent le plus vite. – À une certaine distance, leur vitesse de fuite dépasse celle de la lumière. Ne vous en étonnez pas : d’après la relativité générale, aucun corps ne peut dépasser cette vitesse, mais cela ne s’applique nullement à l’espace-temps. Or, c’est bien ce dernier qui est en expansion. Il peut donc croître plus vite et entraîner avec lui les galaxies. – Ainsi, au-delà de cette distance, ces dernières fuient trop rapidement pour que leur lumière nous parvienne. De là, naît un horizon cosmologique, concept déjà rencontré précédemment : une sphère nous entourant, au-delà de laquelle nous ne voyons rien. – Avec l’accélération de l’expansion, ce phénomène de myopie doit s’accentuer dans le temps. De plus en plus de galaxies passeront au-delà de l’horizon pour disparaître à tout jamais de notre vue : la partie visible de l’Univers se rétrécira comme une peau de chagrin. S’il existe des civilisations à cette époque avancée du futur, elles ne pourront voir qu’un nombre très réduit de galaxies, indépendamment de la qualité de leurs télescopes. On calcule que d’ici une centaine de milliards d’années (sic), leur champ de vision se restreindra au superamas local, dont la Voie lactée fait partie. Cet amas se sera largement

… 202

Les clés secrètes de l’Univers

Les grands mystères de l’Univers

… regroupé sous l’action de la gravitation. Ainsi verront-elles un monde très restreint. Pour résumer, ces civilisations n’auront pas la chance de voir le reste du cosmos, ni même d’observer l’expansion car le superamas sera plutôt en contraction. Pire encore, elles ne pourront pas détecter le rayonnement fossile qui sera aussi passé de l’autre côté de l’horizon. Elles ne connaîtront plus rien des deux grandes découvertes de l’astrophysique du xxe siècle : l’expansion et le Big Bang. L’image que leur donnera le monde sera celle de la science du xixe siècle. Il est à souhaiter qu’elles aient conservé des livres d’histoire.

À une échéance extrêmement lointaine, disons 100 000 milliards d’années environ (sic), l’Univers deviendra obscur. L’ensemble du gaz aura été consommé et les dernières étoiles s’éteindront. Il subsistera des cadavres stellaires et des trous noirs de toutes tailles. Le cosmos sera redevenu sombre comme il l’était avant la formation des premières étoiles. Il aura atteint l’état le plus dégradé qui soit : pour reprendre notre analogie, « l’eau aura dévalé la pente et sera arrivée à la mer ». On peut imaginer les dernières civilisations survivre en se mettant en orbite autour des nombreux trous noirs. Elles y trouveront encore quelques moyens de subsistance. Elles pourront reconstituer un disque d’accrétion en ramassant les astéroïdes ou cadavres célestes croisant dans les environs. Des panneaux ou antennes leur permettront alors de récupérer une partie de l’énergie émise lors des repas de l’ogre. Une fois l’espace aux alentours entièrement écumé, elles pourront projeter leurs propres objets vers lui : vaisseaux devenus inutiles, télescopes ou morceaux de structure. Approchant de la fin, elles se résoudront peut-être à s’y lancer elles-mêmes de façon à savoir enfin ce qu’il y a à l’intérieur. Ce serait la fin… à moins que, comme certains théoriciens le pensent, le centre ne recèle une entrée vers un autre monde. C’est tout ce que nous leur souhaitons. À défaut, le Créateur pourra se remettre au travail pour forger un nouvel Univers, si ce n’est déjà fait. 203

8 Les ingrédients de la vie

« La vie est une manifestation obligatoire des propriétés combi­ natoires de la matière. » Christian de Duve

DARWIN AVAIT TOUT COMPRIS Comme Einstein et Lemaître le seront plus tard, Charles Darwin est un visionnaire. Il a marqué d’une empreinte majeure la pensée humaine en modifiant fondamentalement notre compréhension du monde. Nous avons vu comment Lemaître remet en question l’idée de l’Univers immuable : il le fait par la notion d’expansion qu’il extrapole vers le passé. À son époque, au xixe siècle, Darwin suit une démarche similaire en dénonçant le fixisme des espèces : il s’appuie sur la notion de descendance ou transmission héréditaire pour remonter le temps. Avec la théorie de l’évolution, il conçoit que les animaux proviennent d’ancêtres plus primaires et il est le premier à les classer selon un arbre généalogique. Dès lors, il imagine que plus 207

Partie 3. L’apparition de la vie sur Terre

on recule vers le passé, plus les formes de vie devaient être simples. En poussant cette logique jusqu’au bout, il se demande quel être primitif avait pu se trouver au sommet de cet arbre. Il envisage une origine très élémentaire et probablement minérale, cependant il n’en parle jamais en dehors d’un cercle d’amis très intimes. À son époque, il est délicat de communiquer sur l’idée de l’évolution naturelle et particulièrement sur le passage du singe à l’Homme. Dans ce contexte, en aucun cas, il ne prendrait le risque de discourir sur les débuts de la vie. De surcroît, sa rigueur de scientifique lui dicte de ne pas spéculer sur des idées qui ne soient étayées par l’expérimentation. Toutefois, on trouve dans sa correspondance privée, quelques allusions au thème des origines, telle cette phrase restée célèbre sous le nom de la petite mare de Darwin : « Mais si (et quel grand si !) nous pouvions concevoir, dans quelque petite mare chaude, en présence de toutes sortes de sels d’ammoniac et d’acide phosphorique, de lumière, de chaleur, d’électricité, etc., qu’un composé de protéine fût chimiquement formé, prêt à subir des changements encore plus complexes, aujourd’hui une telle matière serait instantanément dévorée ou absorbée, ce qui n’aurait pas été le cas avant l’apparition des créatures vivantes. » Cette longue phrase un peu chargée énonce deux idées importantes. La première, tout à fait révolutionnaire, est celle d’un passage spontané de la matière minérale au monde vivant : des minéraux présents dans la soupe chaude, se seraient transformés en diverses protéines. Ces molécules organiques se seraient ensuite reproduites et auraient entamé l’évolution des espèces. La thèse développée dans ce livre s’inspirera de cette idée appelée aujourd’hui l’abiogenèse : la naissance spontanée de la vie depuis la matière inerte. Nous avons déjà découvert comment l’Univers s’est structuré par les mécanismes généraux de l’auto-organisation. Les mêmes seront à l’œuvre pour créer la vie à partir du minéral. 208

Les clés secrètes de l’Univers

Les ingrédients de la vie

Selon la seconde idée exprimée dans cette phrase de Darwin, toute vie très primitive a nécessairement disparu sans laisser de traces car elle a servi d’aliment à ses descendantes. En d’autres termes, ne nous attendons pas à trouver des fossiles datant des tout débuts ! C’est ce qui rend si difficiles les recherches sur l’origine de la vie. Nous avons retrouvé des témoignages d’activité bactérienne remontant à 3,7 milliards d’années. Il s’agit déjà d’une forme vivante très sophistiquée. Avant elle, une protovie bien plus primitive a dû exister, cependant elle n’a probablement laissé aucune empreinte : il s’agissait de substances molles, peut-être amorphes. L’apparition de la vie est plus obscure que le Big Bang qui, lui, a laissé des traces fossiles. Il faut bien le dire, nous sommes très peu avancés pour décrire comment elle a pu émerger du minéral. Nous essaierons néanmoins de le faire, tout en précisant d’emblée que l’essentiel des thèses de cette troisième partie est de nature spéculative. Nous avions ainsi qualifié les théories fondées sur des extrapolations à défaut de preuves directes. Nous cheminerons donc des débuts la vie à la bactérie, en présentant des hypothèses et rien de plus en l’état actuel de la science. Fort heureusement, il existe des moyens de sonder le passé ancien et d’échafauder des scénarios crédibles. Nous nous appuierons principalement sur deux auteurs contemporains ayant fait avancer la connaissance dans cette voie. Le premier, le Belge Christian de Duve12, a reçu le prix Nobel de physiologie pour ses études sur la cellule. Il a aussi travaillé sur l’origine de la vie par une approche originale, en s’intéressant au métabolisme, c’est-à-dire au jeu complexe des réactions chimiques du vivant. Comme l’évolution s’est construite par ajouts successifs, il imagine que le métabolisme des toutes premières formes de protovie doit être encore largement présent aujourd’hui chez les êtres vivants. Dès lors, si l’une de ces réactions apparaît dans un grand nombre d’espèces différentes de nos jours, elle remonte probablement aux débuts de l’histoire. Par ce moyen, il reconstitue le métabolisme le plus ancien, en extrapolant le fonctionnement actuel des cellules. 12.  Poussière de vie : Une histoire du vivant. Christian de Duve. 1996. 209

Partie 3. L’apparition de la vie sur Terre

Le second est l’Américain Stuart A. Kauffman13, éminent spécialiste de l’auto-organisation. À la fin de ses études de médecine dans les années 1960, il s’intéresse à la découverte récente de F. Jacob et J. Monod, montrant que certains gènes en commandent d’autres. Il conçoit alors le génome entier comme un réseau complexe où une partie des gènes dirige l’autre. Son premier travail consiste à appliquer cette idée à la différenciation cellulaire, un thème détaillé plus loin. Il s’agit du mécanisme permettant à l’embryon d’engendrer des cellules de peau, de foie ou des neurones. Encore étudiant, il parvient à le simuler par ordinateur. Il décide alors d’abandonner la médecine et deviendra l’un des pionniers des sciences de la complexité. Il emploiera extensivement les mathématiques et les simulations informatiques pour explorer le domaine du vivant. Nous inspirant de ces deux visionnaires, nous énoncerons que la vie sur Terre était probable, contrairement à une idée communément admise. Dans le parfait prolongement de l’évolution cosmique, 10 milliards d’années après le Big Bang, une nouvelle bouffée de diversité va se réaliser sur notre planète à une vitesse incroyable comparée aux phénomènes très lents animant le cosmos : – de très longues molécules, dites polymères, vont se développer et créer une variété chimique virtuellement infinie ; – par leurs capacités de catalyse, elles vont multiplier la vitesse et l’efficacité des réactions, des milliers de fois, voire des millions. Une multitude de nouvelles molécules interagissant avec efficience, voici le secret de l’origine de la vie. Comme on liste les ingrédients d’une recette de cuisine avant de la réaliser, nous allons, dans ce chapitre, inventorier les éléments et les mécanismes précurseurs de la vie. Après avoir décrit l’infiniment grand et l’infiniment petit, pénétrons maintenant le domaine de l’infiniment complexe.

13.  The Origins of Order. Stuart A. Kauffman. 1993. 210

Les clés secrètes de l’Univers

Les ingrédients de la vie

DÉFINIR LA VIE Avant de rechercher ses origines, encore faut-il savoir de quoi nous parlons exactement. Différentes définitions en ont été données, la plus curieuse étant celle de Woody Allen : « La vie est une maladie mortelle, sexuellement transmissible. » On s’accorde généralement pour définir l’être vivant comme un système dynamique doté de trois propriétés : 1. Dissiper l’énergie. En d’autres termes, fournir un travail à l’image d’une machine. 2. Être capable de se reproduire, c’est-à-dire d’engendrer des copies de lui-même. Ce point est de loin le plus énigmatique dans la recherche de nos origines. 3. Enfin, présenter un taux d’erreur dans la réplication, de façon à produire des variations dans la descendance. Elles sont ensuite triées par sélection darwinienne. Manfred Eigen, un autre prix Nobel ayant travaillé sur l’apparition de la vie, résumait cela en une seule phrase : « un système dissipatif doté de capacité de reproduction, avec probabilité d’erreur ». Nous allons maintenant préciser ces trois caractéristiques. La première est très courante dans la nature, pas seulement chez les êtres vivants. La vie suppose la fourniture d’un travail pour la recherche de nourriture, la digestion, le métabolisme et la reproduction. Pour cela, elle doit impérativement consommer de l’énergie et la dégrader. Nous avons vu au cours des chapitres précédents, différents exemples de tels systèmes dissipatifs, le plus illustratif étant l’étoile. Nous les avons schématisés sous la forme symbolique de la machine de Marly (chapitre 6, fig. 35). Elle montre comment la dissipation d’énergie permet la montée vers la complexité. Elle fait appel à l’énergie mécanique alors que les êtres vivants dissipent plutôt de l’énergie chimique. Dès lors, nous adopterons une représentation analogue et plus appropriée : la petite mare chaude de Darwin (fig. 41). Cette machine chimique exprime bien ce qui se produit dans le corps d’une cellule et de tout être vivant : 211

Partie 3. L’apparition de la vie sur Terre

– des molécules complexes y sont apportées comme nutriments. Ici, une partie vient du cosmos, le reste est fabriqué grâce à l’énergie du Soleil (les UV) ou des orages (la foudre) ; – ces ingrédients se prêtent à toutes sortes de réactions élaborant à leur tour une variété de nouveaux produits. C’est le métabolisme ; – l’énergie chimique se dissipe dans le flux d’écoulement de l’eau, évacuant la chaleur et les produits dégradés.

Figure 41 | La petite mare de Darwin, un système dissipatif loin de l’équilibre.

On remarquera que la machine de Marly ou son équivalent chimique, la petite mare chaude, entretiennent un déséquilibre permanent entre une source d’énergie et le milieu où elle se dissipe. C’est pourquoi on les qualifie de systèmes dynamiques éloignés de l’équilibre. Si leur source d’eau venait à se tarir, ils atteindraient l’équilibre tout simplement en s’arrêtant, c’est-à-dire en mourant. Leur fonctionnement exige d’un côté, un apport régulier d’énergie, et de l’autre, sa dissipation sous forme dégradée. Ils ont été particulièrement étudiés par le physicien belge, prix Nobel, Ilya Prigogine14. Tous les êtres vivants fonctionnent ainsi. Le corps humain en est un exemple : il exploite un déséquilibre entretenu par le Soleil qui 14.  Entre le temps et l’éternité. Ilya Prigogine et Isabelle Stengers. 1993. 212

Les clés secrètes de l’Univers

Les ingrédients de la vie

fait vivre les végétaux, lesquels nourrissent les animaux. L’Homme tire de l’énergie chimique de ces aliments et de l’oxygène, et il la dégrade en chaleur par son activité mécanique et chimique. Notre organisme dissipe 100 watts en moyenne, l’équivalent d’une ampoule électrique. La vie de l’Homme moderne suppose une dépense supplémentaire : celle de nos machines, voitures et chaudières. Notre étoile entretient constamment ce déséquilibre entre la production d’énergie chimique et sa dissipation dans le milieu ambiant. Si la lumière du Soleil venait à disparaître, comme l’ont vécu les derniers dinosaures il y a 66 millions d’années, la température s’égaliserait partout sur Terre. Dans une telle situation d’équilibre, l’être humain disparaîtrait irrémédiablement. La vie est ainsi entretenue par le déséquilibre thermodynamique. Dans notre quête des origines, cette qualité de système dissipatif appellera deux questions clés. Quelles sources d’énergie régulières les premières formes de vie ont-elles pu exploiter ? En quels endroits une concentration chimique suffisante a-t-elle pu se constituer ? Parlons maintenant de la deuxième caractéristique de l’être vivant : la réplication, c’est-à-dire sa capacité à fabriquer des copies de luimême. Dans la nature aujourd’hui, cette fonction est réalisée par l’ADN, longue molécule capable de se dédoubler pour constituer deux nouveaux brins. La reproduction de l’ADN dans la cellule est un phénomène tellement sophistiqué que l’on ne parvient pas à imaginer comment une molécule primitive aurait pu y parvenir de manière simplifiée. Le mathématicien John von Neumann, connu pour ses travaux en mécanique quantique, s’était intéressé à l’origine de la vie. Il avait recherché la forme la plus simple d’un réplicateur sous un angle théorique. Il avait effectivement inventé un objet mathématique capable de fabriquer une copie de lui-même de façon autonome, mais ce résultat était très complexe. De même sous l’angle biologique, trouver une molécule pouvant se répliquer a été un sujet de recherches très intenses. À ce jour, elles restent dans une impasse. Les premières théories sur nos origines, évoquées plus loin, ont toutes buté sur 213

Partie 3. L’apparition de la vie sur Terre

cette pierre d’achoppement. Nous verrons comment Kauffman a contourné l’obstacle : les premières réplications ne seraient pas le fait d’une molécule, mais d’un grand nombre considéré comme un tout. Enfin, la dernière qualité de l’être vivant peut surprendre : c’est le fait de commettre des erreurs dans la réplication. Si la reproduction était parfaite, une espèce serait faite de clones indifférenciés. Aucune évolution ne serait possible. Au premier accident écologique, la disparition d’une partie des aliments ou l’apparition d’un milieu toxique, ce serait l’extinction définitive. Fort heureusement, les fautes sont naturelles ! Par exemple chez l’Homme, un petit taux d’erreur s’introduit dans la réplication de l’ADN : à chaque génération, sur 1,5 milliard de lettres constituant l’information génétique d’un individu, une en moyenne se reproduit de façon erronée. On peut comparer cela à une secrétaire tapant 25 fois l’intégralité du Petit Robert et ne faisant qu’une seule faute de frappe. Pourtant, cette minuscule imperfection, réitérée sur des millions d’années, a permis les quelques mutations clés ayant transformé le singe en Homme. L’évolution est possible grâce à ces infimes variations et à la sélection intervenant ensuite pour filtrer les plus adaptées au milieu. Tout en ignorant le mécanisme de la reproduction par l’ADN, Darwin avait découvert le moteur de l’évolution : – d’une part, la production systématique de variations, appelées aujourd’hui mutations ; – d’autre part, le tri exercé sur elles par la pression de la concurrence entre individus. Cette capacité du vivant à commettre des erreurs paraît banale, mais la réalité est bien plus sophistiquée. Une espèce peut prospérer si le taux d’imperfection est extrêmement finement ajusté : trop de fautes entraîne sa dégénérescence, et trop peu la rend vulnérable aux changements de l’environnement. Aujourd’hui, chez chaque espèce, ce taux est maintenu sur une valeur très précise, par la sélection darwinienne. Il s’agit d’un état critique auto-organisé, concept déjà 214

Les clés secrètes de l’Univers

Les ingrédients de la vie

développé à propos des étoiles. À titre d’exemple, le virus du sida présente un taux d’erreur ajusté à un niveau très élevé. Cette particularité fait que, par des mutations incessantes, il déroute le système immunitaire de son hôte. Elle explique aussi que l’on n’ait jamais réussi à élaborer un vaccin contre le sida. Pour rechercher les origines de la vie en posant bien le problème, nous retiendrons donc ces trois caractéristiques : dissiper de l’énergie, s’autorépliquer et le faire avec des variations aléatoires. SUR TERRE, LES CONDITIONS ÉTAIENT RÉUNIES POUR PERMETTRE LA VIE L’agrégation de la Terre dans le Système solaire s’est terminée il y a 4,46 milliards d’années. De nombreuses observations l’attestent précisément, dont la datation des roches par la radioactivité. Ensuite, il a fallu 300 ou 400 millions d’années pour que sa surface refroidisse en dessous de 100 °C, température propice à la vie. Cependant, à ce moment, il y a un peu plus de 4 milliards d’années, les conditions restaient peu favorables car la majorité de l’eau du globe terrestre s’était évaporée et échappée dans l’espace. Entre – 4 et – 3,8 milliards d’années, se produit un épisode de forte instabilité : des comètes, petits astres composés de glace et de poussières, et des astéroïdes plus rocheux, chutent en quantité sur notre planète. Leurs orbites ont été déstabilisées par la grande masse de Jupiter. Pendant 200 millions d’années, ce bombardement cométaire très intense va profondément modifier la surface du globe. Les innombrables cratères apparaissant sur la Lune datent aussi de cette époque. Sur Terre, la tectonique des plaques et l’érosion en ont supprimé les traces. La première contribution des comètes est un apport massif de glace qui recharge la planète en eau et forme les océans. Il s’accompagne d’un dépôt de minéraux variés qui la fertilisent. Comme nous l’avons dit, la chimie cosmique a produit bien plus que des minéraux : elle a engendré en quantité les premières substances organiques qualifiées 215

Partie 3. L’apparition de la vie sur Terre

de briques de la vie. Elles s’assembleront plus tard, en macromolécules, les constituants des êtres vivants. Sur 200 millions d’années, l’apport total en molécules complexes venu du ciel est estimé à l’équivalent d’une couche de goudron de 40 mètres d’épaisseur, recouvrant toute la surface du globe. Un exemple frappant de la richesse de la chimie cosmique nous est donné par une météorite tombée à Murchison en Australie en 1969. Elle dégage une odeur d’alcool toujours perceptible aujourd’hui. Nous y avons trouvé une foison de substances organiques : pas moins de 70 acides aminés (dont huit figurent parmi les constituants des protéines), des sucres et même quelques maillons d’ADN. La seconde conséquence du bombardement cométaire est une situation cataclysmique : température brûlante, opacité de l’atmosphère, orages très violents, volcans gigantesques et tremblements de terre. Ces bouleversements rendent la planète temporairement inhabitable, mais ils déclenchent aussi une activité chimique intense favorable à l’émergence de la vie. Un exemple nous en est donné en 1953 : un étudiant américain de 23 ans, Stanley Miller, construit une expérience destinée à reproduire les conditions prébiotiques sur Terre. Dans une cornue, il chauffe de l’eau sous atmosphère de méthane, d’ammoniac et d’hydrogène. Le tout est soumis à des arcs électriques de 60 000 volts simulant la foudre. Il constate que l’eau se transforme progressivement en une soupe brunâtre très riche en molécules organiques. Plus de la moitié des acides aminés connus dans les protéines y sont présents. En dehors de l’effet de surprise, l’expérience n’a pas grande valeur scientifique. Elle n’a pas été réalisée selon un protocole clair, ce qui rend difficile son interprétation. De surcroît, l’hypothèse d’une atmosphère de méthane s’est avérée fausse par la suite : le gaz carbonique était dominant. Néanmoins, elle montre de façon retentissante qu’il n’existe pas vraiment de fossé entre les mondes du minéral et de l’organique. L’expérience de Miller restera, au moins à titre symbolique, une avancée historique dans la quête de nos origines. 216

Les clés secrètes de l’Univers

Les ingrédients de la vie

Il faut donc attendre la fin de cet épisode de bombardement cométaire, il y a 3,8 milliards d’années, pour que les conditions sur Terre deviennent favorables à la vie. Cette chronologie est très importante, comme nous le verrons un peu plus loin. À cette époque, les océans sont formés. Ils sont riches d’une grande variété de substances qui, aujourd’hui, disparaîtraient en quelques jours étant donné la voracité des bactéries et la rapidité de leur multiplication. Une mousse de poussières cosmiques fertiles doit les recouvrir, tel un capuccino. Pourtant, ce milieu reste encore trop dilué pour que la chimie complexe du vivant s’y développe spontanément. Pour trouver le berceau de la vie, il faut rechercher des endroits combinant deux facteurs : la présence d’une source d’énergie régulière et d’une forte concentration en molécules. Seuls quelques environnements particuliers peuvent réunir ces conditions sur Terre : 1. Les eaux stagnantes. Sur la planète chaude, les précipitations devaient être fréquentes et abondantes. On imagine de nombreuses petites mares où se concentraient les substances transportées par l’érosion ou provenant de la mer. L’énergie était apportée par la décomposition de l’alcool et autres composés organiques, ainsi que par l’oxydation du fer. La foudre et les UV du Soleil contribuaient à accroître la variété chimique (fig. 41, vue précédemment). 2. Le bord des mers. À cette époque, la Lune se trouvait sur une orbite plus basse qu’aujourd’hui et provoquait des marées plus importantes. Aussi, les zones côtières devaient subir journellement des cycles d’inondation et d’évaporation. De grandes quantités de fer prêt à s’oxyder offraient une énergie chimique abondante. 3. Au fond des océans, dans les cheminées hydrothermales. Il s’agit d’endroits où l’activité volcanique dégage continuellement des gaz très chauds, principalement de l’hydrogène sulfuré. Ce flux gazeux apporte des nutriments et de l’énergie calorique et chimique. Aujourd’hui, on estime qu’une seule de ces cheminées peut créer 2,5 kg de biomasse par heure, incluant les bactéries et la chaîne alimentaire qui en résulte. 217

Partie 3. L’apparition de la vie sur Terre

4. Dans le sous-sol. On a récemment envisagé un nouveau milieu propice à l’émergence de la vie : les roches. En effet, on a découvert des bactéries à 7 km de profondeur dans le sous-sol. Cet environnement prébiotique, très riche en minéraux, est traversé de flux liquides et gazeux. Il dispose de l’énergie nécessaire sous forme chimique. Parmi ces différentes pistes, celle des sources hydrothermales est privilégiée aujourd’hui pour plusieurs raisons. D’abord, il s’y développe une faune unique dont des bactéries capables de supporter les fortes chaleurs. Il se trouve qu’elles appartiennent à la lignée des archées, la souche la plus ancienne. Enfin les études de C. de Duve ont apporté un argument supplémentaire : les composés dérivés de l’hydrogène sulfuré incluent toutes les molécules essentielles pour construire le métabolisme actuel des êtres vivants. QUAND LA VIE EST-ELLE APPARUE ? Dans le chapitre 2, j’évoquais mon étonnement le jour où, étudiant, j’ai découvert la théorie du Big Bang. Une surprise du même ordre m’attendait bien plus tard quand j’ai commencé à m’intéresser à la biologie : la date d’apparition de la vie est singulièrement précoce. Pour dire les choses de façon lapidaire : elle est survenue sur Terre aussitôt qu’elle a pu le faire ! D’abord les faits. Comme l’avait pressenti Darwin, observer directement des fossiles des premières formes de vie paraît inenvisageable. On a identifié des traces ressemblant à des filaments ou des cellules, dans des roches remontant au-delà de 4 milliards d’années, peu avant le bombardement cométaire. On les a attribuées à la vie car il s’y trouve une forte proportion de carbone 12 par rapport au carbone 13. Le premier est connu pour être plus abondant dans les substances d’origine organique. Ces découvertes restent cependant très controversées car, depuis une époque si reculée, les risques de contamination des roches sont très élevés. À défaut d’observation directe, on dispose de fossiles d’un type différent : des concrétions rocheuses fabriquées par des micro-organismes. 218

Les clés secrètes de l’Univers

Les ingrédients de la vie

Tel le corail construisant la roche des récifs, certaines bactéries s’assemblent en colonies et fabriquent des espèces de champignons de calcaire appelés stromatolithes. La preuve la plus ancienne d’une activité microbienne, incontestée, réside dans de telles formations pierreuses trouvées dans la région de Pilbara en Australie et datées de 3,5 milliards d’années. Des traces antérieures, sur lesquelles subsistent des doutes, remontent à 3,7 milliards d’années. Cette date est surprenante car elle se situe très près de la fin du bombardement cométaire : une centaine de millions d’années ! Si les conditions sur Terre sont devenues propices à la vie dès la fin de cet épisode cataclysmique, il faut comprendre qu’elle est apparue en un temps extrêmement court à l’échelle géologique. La nature donne l’impression d’avoir été très pressée de créer la vie ! La découverte est insolite : elle signifie qu’à cette époque reculée, elle avait déjà atteint le stade de la bactérie, un organisme pourtant très structuré. Sachant à quel point l’évolution darwinienne est lente, beaucoup de biologistes doutent qu’en partant de zéro, elle soit parvenue à ce niveau de complexité en une centaine de millions d’années. Une explication pourrait être l’intervention divine, mais elle pose une question embarrassante : si l’on admet que le Créateur ait agi si rapidement aussitôt la Terre devenue habitable, alors pourquoi une fois la bactérie formée, aurait-il interrompu son travail durant les 3 milliards d’années suivantes ? En effet, notre planète a été exclusivement peuplée de bactéries et autres êtres monocellulaires pendant tout ce temps, jusqu’à l’apparition des premiers êtres multicellulaires il y a 800 millions d’années. Pourquoi le Créateur aurait-il laissé ainsi s’écouler un tiers de la durée de vie du Soleil sans réaliser le moindre progrès d’ampleur significative ? Alors, il nous reste à rechercher des éléments de réponse scientifiques. Il existe deux pistes. Selon la première, la vie serait apparue avant le bombardement cométaire, il y aurait entre 4,3 et 4,0 milliards d’années. Puis pendant les 200 millions d’années cataclysmiques, elle se serait maintenue à l’abri sous terre. C’est un schéma plausible car 219

Partie 3. L’apparition de la vie sur Terre

les bactéries s’adaptent à n’importe quel milieu, en particulier au sous-sol riche en molécules nutritives. Selon la seconde piste, la vie serait bien survenue sur la planète Terre il y a environ 3,8 milliards d’années, mais en provenant d’un autre astre. L’idée n’est pas si extravagante qu’elle n’y paraît. En effet, on sait qu’à cette époque, les conditions sur Mars étaient similaires aux nôtres et donc propices à la vie. Il est aussi prouvé que nous recevons constamment des météores venant de Mars. Il s’agit de cailloux éjectés dans ­l’espace à l’occasion de collisions entre la planète et d’autres bolides. Il en tombe de l’ordre d’une tonne par an sur Terre. Ces roches arrivent après avoir séjourné dans le vide pendant un siècle, un millénaire ou quelques millions d’années. Or une bactérie peut survivre tout ce temps : dans le sol gelé de Sibérie, on en a trouvé datant de 3 millions d’années et on les a ressuscitées. On sait aussi, qu’abritées dans une météorite de plus d’un mètre de diamètre, elles survivraient sans problème à l’échauffement lors de la chute dans l’atmosphère terrestre. Ainsi, le scénario d’une vie sur Mars, venant inséminer notre planète, est plausible. Il resterait à expliquer son apparition sur Mars… Ce scénario, comme le précédent, a au moins le mérite de contourner le paradoxe de la fenêtre de temps très courte entre le bombardement cométaire et la vie. On ne sait donc pas exactement où et quand la vie est apparue sur Terre, ni d’où elle venait, mais il est clair qu’elle a émergé dès que les conditions sont devenues idoines. Intéressons-nous maintenant au comment. UNE INNOVATION : LES MOLÉCULES APPRENNENT À PARLER Une des propriétés essentielles de la nature est de fabriquer la complexité à partir de règles très simples. Quelques lois physiques se résumant à des formules mathématiques suffisent à engendrer un monde d’une extrême richesse. C’est une constante dans l’Univers en général et plus encore dans le domaine du vivant. J’avais découvert cette caractéristique pendant mon enfance, dans notre maison de vacances : si après déjeuner, il restait au sol des détritus 220

Les clés secrètes de l’Univers

Les ingrédients de la vie

alimentaires, les fourmis ne mettaient guère plus de deux heures pour construire un réseau sophistiqué d’autoroutes reliant ces points à leur base de vie pour y acheminer la nourriture. Comment des êtres dotés de si petits cerveaux et dont la vue ne dépasse pas quelques centimètres, pouvaient-ils élaborer des ouvrages collectifs aussi grands et précis ? Existait-il une fourmi architecte en chef, chargée de dessiner les réseaux de transport en fonction de cartes du terrain et des rapports fournis par les ouvrières ? Non, bien sûr. Avec un minuscule cerveau de 100 000 neurones, ces insectes se limitent à obéir à une dizaine de règles très simples reposant sur la perception des traces odoriférantes qu’elles laissent sur leur chemin (les phéromones). En voici quelques exemples : – « Si je ne sens rien, je marche au hasard jusqu’à trouver un aliment. » – « Si j’en trouve un, je cherche à rejoindre la base en déposant des phéromones. » – « Si je croise un chemin porteur de phéromones, je le suis. » – etc. Ce mécanisme extrêmement simple a été simulé sur ordinateur par John Koza, spécialiste de l’intelligence artificielle. Sur son écran, se déplacent de petits points, des e-fourmis en quelque sorte, programmées pour répondre au jeu de règles déjà évoqué. La simulation montre la façon dont leur réseau de transport se construit spontanément. Qui plus est, il minimise remarquablement les distances à parcourir. Ce problème, dit du voyageur de commerce, est l’un des plus difficiles en mathématiques. Il s’agit de trouver le chemin le plus court pour effectuer une tournée entre différents points. Comment ces insectes trouvent-ils la solution ? C’est très simple : sur les chemins trop longs, les phéromones tendent à s’évaporer plus vite. Ainsi, lors de leurs hésitations, les fourmis sélectionnent systématiquement les circuits les plus courts car ce sont les plus odoriférants ! Elles n’ont pas besoin d’un algorithme complexe pour optimiser le chemin, comme le font les humains. La sophistication extrême du vivant s’est ainsi organisée petit à petit à partir de règles simples que nous allons découvrir. La première 221

Partie 3. L’apparition de la vie sur Terre

est l’explosion de la diversité moléculaire : de 2 000 variétés minérales, nous passerons à une infinité. Comment une telle richesse est-elle apparue ? Tout simplement parce que certaines molécules se mettent bout à bout ! À l’image des lettres s’assemblant en mots puis en textes, nous allons voir que certaines molécules forment des chaînes sans limite. On les appelle polymères. Avec elles, la variété chimique va s’envoler et permettre une montée radicale vers la complexité. Ce phénomène est d’une importance considérable : il est à l’origine de la vie. Pour le comprendre, nous prendrons une analogie avec le langage qui, au cours des temps, s’est structuré de manière assez proche. Au départ, l’Homme préhistorique disposait, comme les animaux, d’un registre de sons très simple pour signaler l’ennemi, la présence de nourriture ou des attitudes de chasse. De cette étape, il nous reste les 26 lettres de l’alphabet qui, grosso modo, représentent la panoplie des sons élémentaires que nous utilisons. À partir de là, nous avons composé des mots, chacun associé à un sens. Enfin, par une combinatoire complexe reposant sur la syntaxe et la grammaire, nous composons des textes dont la variété peut croître sans limite. La nature a suivi une combinatoire similaire pour créer et développer des êtres vivants chaque fois plus sophistiqués. Voici un tableau établissant le parallèle entre le monde du vivant et le langage : LANGAGE : VIVANT : Lettres de l’alphabet Éléments chimiques (26) (94) Mots Molécules minérales (2 000) (2 000) Textes Molécules organiques (polymères) (infini) (infini) Voyons maintenant comment ont pu s’assembler ces chaînes constituant l’équivalent d’un texte. 222

Les clés secrètes de l’Univers

Les ingrédients de la vie

LES POLYMÈRES OU POURQUOI FAIRE SIMPLE QUAND ON PEUT FAIRE COMPLIQUÉ ? À l’image des enfants d’une école maternelle se tenant par la main pour traverser la rue en file indienne, certaines molécules ont la capacité de se lier en longues chaînes. L’exemple le plus simple est celui des hydrocarbures : un motif élémentaire (CH2) se répète en formant une chaîne (fig. 42). Ce sont les constituants principaux de l’essence consommée par les voitures. Leur longueur va de deux à une quarantaine de maillons. Parmi les objets utilisés dans la vie courante, les polymères sont devenus omniprésents avec la chimie du xxe siècle : tous les plastiques, les caoutchoucs ainsi que beaucoup de fibres textiles sont de cette nature. Par rapport au métal, au bois et divers autres matériaux, ils possèdent deux atouts, leur flexibilité mécanique et leur prix, car ils se fabriquent à bas coût à partir du pétrole.

Figure 42 | Les hydrocarbures ou chaînes carbonées.

223

Partie 3. L’apparition de la vie sur Terre

Aux débuts de la vie, de telles chaînes, dites macromolécules, se sont ainsi assemblées. Les premières ne dépassaient pas une dizaine de maillons. Aujourd’hui, après 3 milliards d’années d’évolution, l’être vivant le plus sophistiqué, l’Homme, stocke son information génétique dans un polymère comportant 1,5 milliard de maillons : l’ADN. L’immense variété moléculaire obtenue grâce à ces chaînes va ouvrir un nombre considérable de possibilités nouvelles que la nature va exploiter. La complexité de l’organisme ne va pas naître d’une quelconque loi, d’une volonté supérieure ou d’une force vitale. Elle va émerger simplement de l’exploration au hasard, de ce nouveau territoire, un peu à l’image des fourmis à la recherche de leur nourriture. Ce cheminement dans les domaines immenses du possible seront guidés, non par des phéromones, mais par la sélection darwinienne. Dans l’exemple des hydrocarbures, chaque maillon est strictement identique. En revanche, les polymères sur lesquels repose la vie, en combinent plusieurs types appelés monomères. Ils sont l’analogue de colliers faits de pierres de couleurs différentes : par exemple vert-bleugris-bleu-bleu-gris-vert-… Dans ce cas, 3 monomères (3 couleurs) se présentent dans un ordre variable, comme les 26 lettres de l’alphabet dans un texte. Les plus présents chez l’être vivant sont les protéines : elles constituent la majeure partie de notre corps et pilotent son métabolisme. Elles naissent de la combinaison de 20 monomères, appelés acides aminés. Il s’agit de petites molécules organiques de 10 ou 20 atomes, dont on trouve des traces dans le cosmos. Il en existe des centaines, mais seules 20 d’entre elles ont été retenues par la sélection naturelle. Ainsi, les innombrables protéines de l’ensemble du règne du vivant, sont toutes des colliers de pierres de 20 couleurs assemblées dans des ordres infiniment variés. Sur le plan informationnel, on peut aussi les considérer comme un texte écrit dans un alphabet de 20 lettres. Sur la figure 43 et dans la suite, nous les représenterons comme un train formé à partir de 20 types de wagons. 224

Les clés secrètes de l’Univers

Les ingrédients de la vie

Figure 43 | La protéine est un polymère fait d’acides aminés.

Le second type de polymère jouant un rôle essentiel dans l’organisme est l’ADN qui stocke notre patrimoine génétique. Ses monomères sont aussi de petits ensembles organiques de 25 ou 30 atomes, dits nucléotides. La nature n’en a retenu que quatre. Ils sont communs à tous les êtres vivants. En termes d’information, l’ADN est donc un message écrit dans un alphabet de quatre lettres. Dans la suite, nous parlerons d’une forme plus archaïque de cette molécule : l’ARN. Les deux étant très proches, nous pourrons les confondre sans nuire beaucoup à la compréhension des choses. À 225

Partie 3. L’apparition de la vie sur Terre

ce stade, disons que l’ARN est aussi fait de 4 nucléotides appelés A, G, C, U (fig. 44), avec une structure similaire à celle de l’ADN. Les deux polymères sont très semblables et se transcrivent aisément l’un vers l’autre dans les deux sens. Nous retiendrons que l’ARN remonte probablement à l’époque la plus primitive, tandis que l’ADN est une « version bis » apparue ultérieurement dans l’évolution. Nous retrouverons donc l’ARN en traitant de l’émergence de la vie. Enfin, l’être vivant utilise d’autres polymères, principalement dans toutes les fibres. Nous n’en parlerons pas car ils n’ont joué aucun rôle essentiel dans l’apparition de la vie, au contraire des protéines et de l’ARN.

Figure 44 | Un brin d’ARN est un polymère fait de 4 types de monomères (Ils sont liés par d’autres molécules non représentées).

226

Les clés secrètes de l’Univers

Les ingrédients de la vie

L’IMMENSE DIVERSITÉ OFFERTE PAR LES POLYMÈRES : UN OCÉAN DE POSSIBILITÉS Pour en revenir à la diversité dans l’Univers, les précédentes bouffées de complexité ont permis de passer de 2 éléments chimiques à l’issue du Big Bang, à 94, puis à 2 000 molécules minérales. Avec les polymères, on accède désormais à un registre virtuellement infini. En effet, pour une chaîne de longueur donnée, il existe de très nombreuses combinaisons possibles des monomères entre eux. Si nous reprenons l’exemple du collier fait de pierres de trois couleurs, nous pouvons les assembler dans autant d’ordres différents : vert-bleu-gris-bleu-bleu-gris-… ou bien : bleu-bleu-vert-gris-gris-vert-… ou encore : vert-vert-vert-bleu-gris-bleu-… Appliquons ce principe à la protéine faite de 20 sortes d’acides aminés : leur choix et la façon dont ils s’ordonnent, font autant de molécules différentes. Pour se convaincre de cette immense diversité, il suffit de considérer les plus petites et de calculer le nombre de configurations qu’elles peuvent prendre : – un seul maillon consiste en un acide aminé : il en existe 20 ; – un assemblage de 2 maillons présente 20 × 20 possibilités, soit déjà 400 types ; – pour une petite chaîne de 3 maillons, il faut de nouveau multiplier par 20 : nous arrivons à 8 000 protéines. C’est déjà quatre fois plus que la variété des molécules minérales sur Terre ! – si nous sautons à une chaîne de 21 maillons par exemple, nous parvenons à 2 milliards de milliards de milliards de possibilités ; – pour une protéine d’une centaine de maillons, une longueur courante chez l’être vivant, les configurations envisageables dépassent le nombre d’atomes composant l’Univers entier. Munie d’une telle variété de polymères, la nature se trouve dans la situation d’un maçon qui, pour construire une maison, disposerait, non pas de quelques outils et matériaux, mais d’une infinité. 227

Partie 3. L’apparition de la vie sur Terre

Dans les années 1970, cet argument a été utilisé par les créationnistes à l’appui de leurs thèses. Un de leurs thèmes majeurs s’apparentait à celui du Grand Horloger de William Paley (1802), destiné à suggérer que la main de Dieu était à l’origine des êtres vivants. Le philosophe anglais imaginait sa réaction si, lors d’une promenade dans le désert, il venait à trouver une montre. Il comprendrait immédiatement qu’elle n’est pas arrivée là par hasard : un homme l’aurait certainement égarée. Par analogie, il déduisait que la complexité de la vie n’aurait jamais pu se réaliser sans intervention divine. Voltaire reprenait la même idée : « L’univers m’embarrasse, et je ne puis songer Que cette horloge existe et n’ait pas d’horloger. » Les créationnistes ont pris un exemple parmi les protéines les plus sophistiquées, l’hémoglobine, dont le rôle est de transporter l’oxygène dans le sang. Elle assemble environ 500 acides aminés dans un ordre particulier. Sachant que le nombre possible de protéines de 500 maillons est virtuellement infini, la probabilité pour qu’une telle molécule apparaisse par le simple hasard est pratiquement nulle. Ils en ont déduit que seule une puissance supérieure avait pu déterminer un choix si pertinent et si peu probable. Pourtant, nous le voyons constamment depuis le début de ce livre, le monde ne fonctionne pas ainsi. Dans la colonie de fourmis, il n'existe pas d'architecte en chef qui cartographie le sol avec des géomètres, puis situe les aliments sur la carte, dessine les autoroutes et enfin organise leur construction. La nature procède tout autrement : par tâtonnements de proche en proche. Aucune intelligence ne s’est amusée à passer en revue l’ensemble des formes possibles d’une protéine de 500 acides aminés pour décider quelle était la meilleure. Elle a simplement commencé à en fabriquer de petits exemplaires de quelques maillons, puis, par touches successives, elle est montée vers des molécules chaque fois plus grandes et plus efficaces. Tout nouvel essai était soit éliminé par la sélection 228

Les clés secrètes de l’Univers

Les ingrédients de la vie

darwinienne, soit retenu, auquel cas il apportait une amélioration servant de base à l’essai suivant. Cette martingale forcément gagnante permet d’arriver aux états les plus improbables et les plus performants, par une succession de purs hasards et sans passer en revue tous les cas possibles. Son seul défaut est sa lenteur, mais le Soleil nous a dotés d’un crédit de temps de 9 milliards d’années, suffisant pour parvenir aux résultats les plus élaborés, par petites touches infinitésimales. Fondamentalement, je ne nie pas l’argument de Paley : nous pouvons voir dans la complexité de l’Univers, la main du Créateur. Je dis simplement que, si c’est le cas, il faut situer son action en amont, au niveau des lois de la nature, plutôt qu’aujourd’hui, dans des choses bassement matérielles comme l’ingénierie de l’hémoglobine. LA CATALYSE, ACCÉLÉRATEUR DES RÉACTIONS CHIMIQUES Les réactions sophistiquées de l’être vivant requièrent un milieu concentré et riche en polymères. Une autre condition est nécessaire : la catalyse. En effet, les réactions organiques naturelles sont lentes et souvent d’un rendement très faible. Un catalyseur est une substance capable de les accélérer. Un exemple classique est le pot catalytique des voitures. Comme le moteur fonctionne très vite, la combustion ne s’exécute pas complètement. Il subsiste dans les gaz d’échappement, des imbrûlés : des morceaux d’hydrocarbures non consumés, et surtout, du monoxyde de carbone CO très toxique. Dans le pot, des grilles recouvertes de céramique, de platine et autres matériaux, ont pour effet de parachever la combustion avant le rejet des gaz. Par quel mécanisme une substance peut-elle ainsi accélérer une réaction chimique ? L’idée est simplement d’accroître la probabilité de rencontre des molécules en jeu. Dans le pot catalytique, le monoxyde de carbone CO (toxique) doit se lier à un atome d’oxygène pour se transformer en dioxyde CO2 (non toxique 229

Partie 3. L’apparition de la vie sur Terre

chimiquement). Pour que cela ait une chance de se produire, les molécules de CO et d’oxygène doivent se croiser. Le principe des catalyseurs minéraux est de les plaquer sur une surface chaude au lieu de les laisser dispersées dans l’espace. Ainsi contraintes, elles seront plus rapprochées les unes des autres, et auront plus de chances d’interagir. Les pots catalytiques sont organisés en nid d’abeille ou en grilles, de façon à présenter un maximum de surface où les imbrûlés peuvent se fixer. Voici un autre exemple simple de catalyse. Si vous essayez de mettre le feu à un morceau de sucre avec un briquet, vous n’y parviendrez pas : il fondra mais ne brûlera pas. Tentez de nouveau après avoir saupoudré le sucre de quelques parcelles de cendre : il prendra feu. Celle-ci accroît sensiblement le rendement de la combustion par effet de catalyse. Dans la chimie du vivant, les réactions sont très sophistiquées et mettent en jeu des forces électriques faibles. Dès lors, elles sont naturellement lentes et de bas rendement. Dans le cas fréquent où de nombreuses réactions s’enchaînent, les rendements se détériorent vite au cours du processus. Par exemple, imaginons une molécule D élaborée à partir de trois réactions successives : ABCD Si chacune présente un rendement de 15 %, ce qui est déjà beaucoup, les quantités produites diminueront rapidement au cours de cette séquence. Selon le calcul, il faudra mettre en jeu 300 unités de A pour obtenir une seule de D à la fin. Le métabolisme nécessitant de nombreux enchaînements de ce type, souvent bien plus longs, ne peut fonctionner sans accélérateur. Au tout début de la vie, des minéraux ont pu jouer un tel rôle : la pyrite de fer, l’argile dont la structure est lamellaire, ou les anfractuosités de certaines roches piégeant les molécules. Si cela a pu favoriser les premières réactions, leur complexité croissante a très vite nécessité des rendements bien supérieurs, ce qui suppose une 230

Les clés secrètes de l’Univers

Les ingrédients de la vie

catalyse bien plus efficace. La solution à ce problème est venue des protéines qui peuvent être des catalyseurs exceptionnels. On les appelle enzymes. Pour comprendre leur nature, nous allons quitter le passé un instant et parler de celles existant aujourd’hui. Elles agissent dans notre corps comme des catalyseurs hyperpuissants, des millions de fois plus efficaces que les premiers apparus à l’origine. Voici un exemple contemporain. Quand un être humain absorbe de l’alcool, disons 2 demis de bière, il lui faut 2 ou 3 heures pour le métaboliser. Ce temps peut paraître long, mais si l’on versait la même quantité d’alcool dans un réservoir d’eau de 70 kg, il faudrait certainement des semaines pour qu’il disparaisse par des réactions chimiques et par évaporation. Dans le corps humain, l’élimination de l’alcool est accélérée par une protéine spécialisée, une enzyme, appelée alcool déshydrogénase. Comment fonctionne-t-elle ? Nous verrons plus loin que son efficience tient à sa géométrie se moulant parfaitement sur la molécule d’alcool. Elle peut ainsi l’attraper et la détruire. Ce sont les formes très diverses des protéines qui leur confèrent des capacités catalytiques très ciblées. LE REPLIEMENT DES PROTÉINES Rappelons qu’il s’agit d’un polymère, c’est-à-dire d’une chaîne. Sur la figure 43, elle est représentée comme un filament. Si elle restait dans cette configuration, elle serait d’une utilité très limitée : tout au plus servirait-elle de fibre. La figure 45 montre que des charges électriques positives et négatives se répartissent sur sa surface. On les qualifie de résiduelles car elles n’interviennent pas pour lier les atomes de la chaîne entre eux. En revanche, elles s’attirent mutuellement et obligent la molécule à se ramasser sur elle-même. Ainsi, toute protéine se replie spontanément en une pelote serrée dont la forme est déterminée par les endroits précis où se situe chacune de ces charges. 231

Partie 3. L’apparition de la vie sur Terre

Ce fait est d’une grande signification. Il recèle une règle fondamentale, déterminante pour la suite, et sur laquelle repose la vie : une protéine = une forme. Voilà pourquoi elle joue un rôle si important dans les organismes vivants. Avec elle, la nature dispose d’un Lego au nombre illimité de pièces, qui va servir à tout faire : attraper des molécules, catalyser des réactions, véhiculer l’oxygène dans les vaisseaux, créer des structures et des mouvements. Chaque être vivant reproduit ses protéines fidèlement en grande quantité, tout simplement en respectant toujours la même séquence d’acides aminés. Nous verrons comment.

Figure 45 | La protéine se replie sous l’action des charges électriques résiduelles.

Reprenons l’analogie du maçon construisant une maison : il lui faut des matériaux et des outils. Dans l’organisme, les deux sont apportés par les protéines (fig. 46) : – certaines constituent les matériaux : squelette des cellules, fibres musculaires, collagène, etc. On les qualifie de structurales ; – les autres sont les clés à molette guidant l’activité chimique : digestion, métabolisme, immunité, etc. Elles agissent par catalyse. Ce sont les enzymes. Ainsi, grâce à leurs configurations variées et aux charges électriques dont elles sont porteuses, elles représentent un couteau suisse aux possibilités infinies. La vie va les exploiter sans limite pour s’organiser. 232

Les clés secrètes de l’Univers

Les ingrédients de la vie

Figure 46 | Une succession d’acides aminés (VHLTPEE…) fait une protéine. Elle se replie, ce qui donne une forme. Elle est alors adaptée à remplir une fonction (structure, catalyse, etc.).

Les protéines, très élémentaires aux débuts de la vie, se sophistiquent au cours du temps, jusqu’à atteindre aujourd’hui une très grande complexité comme celle de l’hémoglobine. De génération en génération, des mutations font apparaître de nouvelles formules, triées ensuite par la sélection. Pour innover, la nature choisit spontanément les moyens les moins coûteux. L’une de ses recettes favorites consiste à réutiliser des morceaux de protéines pour en engendrer d’autres. Par exemple, si l’une d’entre elles se coupe en deux à l’occasion d’une mutation, cela en fait naître deux totalement différentes pouvant servir à de nouvelles tâches. Il en va de même si deux anciennes sont mises bout à bout. Ces opérations, dites de clivage et de ligature, sont illustrées sur la figure 47. On y voit comment trois macromolécules 233

Partie 3. L’apparition de la vie sur Terre

peuvent être créées aisément à partir de deux autres. Beaucoup ont été inventées par cette méthode qui, tout en étant très économique, engendre au hasard une richesse infinie de configurations par simple remaniement de l’existant. C’est pourquoi certains sous-ensembles se retrouvent dans nombre d’entre elles, comme des modules préfabriqués que l’on emploierait dans différents chantiers. On peut dire que la nature tend à faire du neuf avec le vieux, tel le paysan économe qui réutilise un ancien essieu de camion pour remplacer celui en bois de sa remorque et recycle une mangeoire percée, en bac à fleurs. F. Jacob et J. Monod avaient appelé cela le bricolage du vivant. Ainsi, le Grand Horloger de Paley mériterait plutôt le titre de Grand Bricoleur de Génie.

Figure 47 | Le bricolage de protéines : deux d’entre elles (A et B) en fabriquent trois autres (C, D et E) par clivage et ligature.

À une protéine correspond une forme déterminée sans ambiguïté et toujours reproductible : une fois fabriquée, elle se replie systématiquement de la même façon. Pourquoi pas plusieurs ? Si vous faites une pelote avec une ficelle, elle peut prendre toutes sortes ­d’aspects. De même, si l’on crée une nouvelle protéine en laboratoire, on pourra observer deux ou trois formes repliées distinctes. Pourquoi n’est-ce pas le cas chez les êtres vivants ? Tout simplement parce que celles qui sont ambiguës sont forcément rejetées par la sélection 234

Les clés secrètes de l’Univers

Les ingrédients de la vie

naturelle : l’apparition d’une telle macromolécule pouvant se replier de plusieurs manières, provoquerait des effets létaux, ce qui l’éliminerait de la descendance. Le tri effectué inlassablement pendant des milliards d’années a retenu les bonnes protéines. Curieusement, il existe une exception à cette règle : certaines maladies dégénératives du cerveau, comme celle de Creutzfeldt-Jakob, proviennent d’une protéine défectueuse, le prion, susceptible de prendre deux configurations : l’une saine et l’autre pathologique. C’est la seule anomalie de ce type connue et son origine reste inexpliquée. Le biophysicien Vincent Fleury voit l’essence de la vie dans cette genèse de formes toujours plus variées : « On a le sentiment que la vie est indissociable des formes, au point qu’on pencherait volontiers pour une sorte de synonymie entre le fait d’avoir une forme et le fait d’être vivant, synonymie tout à la fois stupéfiante et banale. » LES ENZYMES, REDOUTABLES CATALYSEURS Nous venons de voir que le propre des protéines est de constituer des formes, sortes de couteaux suisses infiniment variés. Celles appelées enzymes assurent la catalyse des réactions chimiques chez les êtres vivants. Elles méritent d’être comparées à des outils électriques. En effet, elles utilisent les charges positives et négatives réparties en elles, pour attirer des molécules, les triturer, les assembler ou les dissocier. En voici un exemple déjà cité : la déshydrogénase, enzyme métabolisant l’alcool. Nous allons voir comment elle agit pour catalyser la destruction de cette substance. La figure 48 en donne une description très schématisée. Une fois repliée, l’enzyme se présente comme un bloc articulé dont une partie peut pivoter par rapport à l’autre, à l’image des mâchoires d’une pince. Elle comprend une cavité dite site catalytique, épousant parfaitement les contours de la molécule ­d’alcool (1). La sélection naturelle a finement ajusté cette empreinte. Le fonctionnement de l’enzyme résulte du seul jeu spontané des 235

Partie 3. L’apparition de la vie sur Terre

charges électriques qui y sont réparties. Elles commencent par attirer l’alcool dans le site catalytique où il se fixe (2). En se logeant là, sa seule présence altère l’équilibre électrique de la protéine. Cela se traduit par un léger basculement de sa structure, suffisant pour briser en deux la molécule d’alcool (3). L’équilibre électrique de l’ensemble est de nouveau altéré, ce qui a pour effet d’éjecter les deux morceaux (4). L’enzyme retrouve alors sa forme initiale. Elle est prête à recommencer ce cycle (5). Il peut être reproduit ainsi des centaines ou milliers de fois par seconde par la même molécule de déshydrogénase fonctionnant à l’image d’une machine électrique, de surcroît automatisée.

Figure 48 | La dissociation de la molécule d’alcool par l’enzyme alcool déshydrogénase.

Cet exemple de catalyse peut surprendre et pourtant, il est très courant dans le monde des enzymes. Il montre la précision extrême avec laquelle ces outils ont été façonnés en des milliards d’années d’évolution. Il me rappelle un souvenir amusant du Japon. Lors des cocktails, j’avais remarqué un fait étrange : une demi-heure après avoir servi les boissons alcoolisées, la moitié des Japonais avaient le 236

Les clés secrètes de l’Univers

Les ingrédients de la vie

visage tout rouge. Plus tard, j’ai appris qu’une mutation, très répandue dans leur population, altérait légèrement la déshydrogénase, avec pour effet de moins bien métaboliser l’alcool. Me demandant pourquoi ce défaut n’affectait pas les Français, je m’étais dit que notre population avait dû subir une sélection darwinienne bien plus efficace qu’au Japon, concernant l’adaptation aux boissons alcoolisées. L’enzyme la plus rapide connue produit l’acide carbonique dans le sang. Elle est capable de catalyser 500 000 réactions à la seconde. Un miracle de l’évolution ! Aujourd’hui, la chimie du vivant peut être ainsi accélérée des millions de fois par ces enzymes faites de centaines d’acides aminés. À l’origine, les premières en contenaient beaucoup moins et étaient bien moins ajustées : quelques dizaines d’acides aminés au maximum. Cela était probablement déjà suffisant pour multiplier le rendement des réactions d’un facteur de 10 ou 100. Avec les enzymes, nous retrouvons l’un des mécanismes d’autoorganisation déjà vu à propos des étoiles : le principe de Langton (chapitre 6, fig. 32). Des particules se regroupent en un tout, puis ce dernier leur impose en retour ses propres lois. Nous avions appelé cela une causalité descendante. Ici des éléments simples, les acides aminés, forment naturellement des chaînes. Elles constituent des macromolécules dotées d’une forte capacité catalytique, lesquelles à leur tour assujettissent les molécules plus simples et les soumettent à toutes sortes de traitements : les forcer à entrer en réaction, les transporter, les modifier ou les casser. Nous observons au passage que ce principe d’auto-organisation est à l’œuvre sur plusieurs échelles comme c’est toujours le cas : – au niveau microscopique : l’enzyme détruit l’alcool ; – à notre échelle : l’Homme fabrique l’enzyme métabolisant l’alcool ; – au niveau de la société : elle produit de l’alcool en quantité ou au contraire, l’interdit. 237

Partie 3. L’apparition de la vie sur Terre

L’Univers paraît ainsi stratifié : chaque couche émerge de la précédente puis la subordonne en retour. OÙ EN SOMMES-NOUS DANS LA RECHERCHE DE NOS ORIGINES ? Nous avons décrit les ingrédients de la recette de cuisine. Les protéines développent une diversité infinie de molécules. Elles représentent un Lego de formes de toutes sortes, les unes pouvant créer des structures, les autres servant d’outils pour accélérer les échanges et l’assemblage. Ces pièces, dotées d’attirances électriques, ne demandent qu’à se combiner spontanément si certaines conditions sont remplies. Dans la parfaite continuité des chapitres précédents, nous voyons la nature progresser par elle-même dans la voie de la complexité. Dix milliards d’années après le Big Bang, l’environnement sur Terre est devenu fertile, notamment dans les cheminées hydrothermales ou dans des mares chaudes : une source d’énergie régulière et une forte concentration en minéraux. Dès que le contexte est devenu favorable, la vie a surgi. Il reste à savoir comment elle a pu émerger du minéral et, point le plus mystérieux, réussir à s’autorépliquer. Des conditions environnementales propices. Des polymères infiniment variés, dont certains servent de catalyseurs. Tout est désormais prêt pour l’explosion : il suffira d’allumer la mèche.

238

Les clés secrètes de l’Univers

9 L’étincelle de vie

« Non seulement la vie ne nécessite aucunement l’intervention d’un Créateur, mais elle est une expression naturelle et émer­ gente de la créativité routinière de l’Univers. » Stuart Kauffman

Pour ne jamais nous perdre au cours de ce voyage dans la complexité, il faut savoir prendre des marques. En entamant ce chapitre, il est utile de faire le point sur le moment et l’endroit exacts où nous nous trouvons. Il y a 3,8 milliards d’années, juste après le bombardement cométaire, la Terre est majoritairement couverte d’océans comme aujourd’hui. L’eau liquide représente un milieu exceptionnellement rare dans l’Univers car elle requiert une plage de température très étroite, d’une centaine de degrés d’amplitude, entre la glace et la vapeur d’eau. Elle s’est enrichie en minéraux et molécules organiques simples, tombés du cosmos. Elle est un solvant doté de propriétés chimiques remarquables et à ce titre, mériterait le nom de 239

Partie 3. L’apparition de la vie sur Terre

catalyseur universel. Quant aux substances venues de loin, elles sont une source d’énergie généreuse. Sur les continents, les UV du Soleil, en l’absence de couche d’ozone, détruisent irrémédiablement toute forme de vie. En revanche, les océans, les plans d’eau et les sous-sols constituent autant d’abris stables et variés. Stables, avec peu d’écarts dans les températures et les compositions chimiques. Variés, car l’érosion, le volcanisme, les marées et les phénomènes météorologiques apportent localement de nombreuses novations. Cette combinaison de stabilité d’ensemble et de diversité locale, une des grandes caractéristiques de la nature, s’observe sur Terre bien plus qu’ailleurs. Notre planète est-elle un endroit singulier dans l’Univers ? Exceptionnel, oui, dans la mesure où le hasard a apporté là une richesse remarquable. Unique, non, si l’on pense à l’immensité du cosmos, voire son infinitude. D’autres planètes parmi les centaines de milliards existant dans notre galaxie, connaissent, ont connu ou connaîtront certainement une variété comparable, avec peut-être une chimie quelque peu différente. Sur Terre, dans les milieux abrités du rayonnement solaire comme les océans, les conditions prébiotiques sont propices au développement d’une chimie fine et sophistiquée menant aux macromolécules complexes. Selon les expériences faites en laboratoire, les premiers polymères ont pu se constituer spontanément jusqu’à atteindre une dizaine de maillons environ. Cette toute petite longueur signifie déjà un nombre immense de molécules possibles : de l’ordre de 10 000 milliards. Elles se replient pour donner autant de formes nouvelles. À ceux doutant que la vie, si complexe, ait pu apparaître d’elle-même, je recommande de penser en premier lieu, à la mare chaude de Darwin qui contenait dès le départ cette variété considérable de substances susceptibles d’interagir. Faut-il le préciser, cette diversité découle simplement des lois de la nature, et particulièrement de la chimie, c’est-à-dire in fine, de la force électromagnétique. 240

Les clés secrètes de l’Univers

L’étincelle de vie

Comme nous l’avons vu, les protéines présentent sur leur surface des charges électriques résiduelles qui déterminent leur forme. Elles créent aussi des attractions et des répulsions entre molécules. Il en résulte une chimie très délicate, bien plus complexe que celle des minéraux. Elles sont des catalyseurs nés : par leurs formes et leurs charges électriques, elles peuvent attirer d’autres molécules et induire en elles un comportement ou une action. Si aujourd’hui, les enzymes sont devenues extrêmement spécialisées et efficientes, ce n’était pas le cas aux débuts. Leur capacité catalytique était approximative. De surcroît, elles se fabriquaient par le hasard. Chacune était susceptible de catalyser modérément telle ou telle réaction chimique. Leur efficacité était de nature statistique. De cette situation floue, naît progressivement une organisation plus poussée où les protéines se reproduisent et deviennent plus précises. J’imagine Darwin découvrant au microscope électronique ce qui grouille dans sa petite mare. Sans aucun doute, il y verrait déjà la vie. Nous nous contenterons de dire protovie, car elle ne correspond pas encore à la définition que nous avons énoncée au départ et prise comme référence. En particulier, à ce stade, elle ne comprend pas de mécanisme de reproduction. Pour parvenir à la vie, il nous reste à parcourir une recette de cuisine des plus complexes. Avant cet exercice, soulignons une réalité importante qui commence déjà à se dessiner : La recette semble être écrite au sein de ses propres ingrédients. À partir du moment où tant de molécules apparaissent et constituent un Lego susceptible d’interactions infinies, accompagnées de catalyse, il se crée une combinatoire : la complexité engendre plus de complexité, et cela peut devenir explosif. LA CRÉATION SPONTANÉE D’INFORMATION Il s’agit d’une des caractéristiques importantes de la vie, dont nous n’avons pas encore parlé. Elle fabrique en permanence de l’information en consommant de l’énergie. Pour un homme, c’est 241

Partie 3. L’apparition de la vie sur Terre

évident : l’étudiant en faisant son devoir de maths, le menuisier en construisant un placard ou le journaliste en écrivant son article. Pour un animal, c’est moins frappant mais tout aussi vrai : l’oiseau bâtit son nid en ordonnant des brindilles, les abeilles organisent leur ruche comme une véritable usine. Toutes ces activités créent de l’information. Nous pouvons nous faire une idée de son ampleur en observant simplement l’ADN humain, la molécule qui définit très précisément l’organisme de l’Homo sapiens, dans lequel l’information s’est accumulée au cours des millénaires. Tel un texte écrit dans un alphabet de quatre lettres, il a pour rôle unique, la conservation de l’information génétique. Il stocke les données constituées pendant 3,8 milliards d’années d’évolution. Notre génome complet contient plus d’information que tous les volumes in-quarto de ­l’Encyclopedia Britannica. Qu’en est-il dans la mare de Darwin ? Nous y trouvons une variété immense de molécules dont de courts polymères, des protéines, de petits fragments d’ARN et des substances minérales. Chacun de ces produits est présent en faible quantité : un saupoudrage en quelque sorte, qui, à première vue, ne signifie pas grand-chose. Pourtant une information très rudimentaire émerge dès cette époque reculée. Elle est de nature chimique : il s’agit tout simplement de la liste des macromolécules et de leurs proportions relatives. Imaginons une analogie : dans un commerce, vous trouvez une liste de courses que j’ai égarée. Elle vous renseigne précisément sur mes habitudes alimentaires : produits sucrés ou salés, chers ou bon marché, bio ou non, et en quelles quantités relatives. Dans la petite mare, la liste des substances présentes ainsi que leurs proportions, sont une information embryonnaire. Une concurrence va s’établir entre ces molécules : au petit jeu de la catalyse, certaines vont sortir gagnantes et prendre une part croissante dans le milieu. Ainsi, la liste qu’elles forment va cesser d’être quelconque : une sous-liste va se dégager au sein du saupoudrage. Dès qu’un tel tri commence à s’opérer, on peut parler de création d’information. 242

Les clés secrètes de l’Univers

L’étincelle de vie

Pour illustrer ceci, nous pouvons aussi faire une analogie avec l’écrit. Imaginons un singe tapant un texte au hasard sur un clavier. Par exemple : « îtrohzour rmirdfhfdeaagbehit erjjé, tjzghjefere ghleo­ sjnvneoeppke » Il peut taper de telles phrases à l’infini sans créer la moindre information car les lettres viennent aléatoirement. En revanche, la phrase suivante véhicule une information profonde : « Maître Corbeau, sur un arbre perché, tenait en son bec un fromage. » C’est le cas parce que, enfant, nous avons entendu de nombreuses fois le mot fromage et nous avons pu l’associer à l’aliment désigné. Il en va de même pour tous les autres mots de notre vocabulaire et donc de cette phrase dans son ensemble. Ainsi, le contenu informationnel de ces deux phrases est totalement différent. Pour le mesurer, le physicien Charles H. Bennett a proposé la notion de profondeur logique. Il qualifie de profonde une information nécessitant un gros travail pour être recréée. Dans ce sens, la première phrase, tapée par le singe, présente une information quasi nulle. Quand nous savons qu’il frappe au hasard, nous avons compris toute sa prose. S’il en tapait 2 000 pages, nous n’y trouverions rien de plus intéressant que dans la première ligne. Au contraire, celle de La Fontaine est d’une grande profondeur logique en raison d’un long passé d’interactions humaines et d’accumulation culturelle. Pour la comprendre, il faut de la réflexion reposant sur des connaissances historiques et littéraires significatives. Si une autre civilisation devait décoder cette information, il lui faudrait commencer par acquérir ce savoir. De la même façon, si nous voyons émerger dans la liste de tous les produits présents au sein de la petite mare, une sous-liste de macromolécules plus fréquentes, cela signifie un accroissement de la profondeur logique. Interpréter pourquoi une liste est devenue prépondérante par opposition à un saupoudrage, supposerait 243

Partie 3. L’apparition de la vie sur Terre

d’examiner en détail par quelles réactions et par quels catalyseurs elle s’est construite, ce qui n’a rien d’évident. Nous avons introduit ici cette notion de création d’information, car elle jouera un rôle essentiel un peu plus loin dans l’histoire, au moment où apparaîtront les premiers gènes. L’AUTOCATALYSE Le phénomène le plus à même d’engendrer de telles sous-listes d’ingrédients est l’autocatalyse, c’est-à-dire le fait qu’au sein d’un groupe de molécules, certaines puissent « s’entraider ». Cela se produit dès qu’une partie d’entre elles catalysent les réactions des autres. Pour en avoir une vision concrète, imaginons que dans la soupe originelle, un produit C se fabrique à partir des substances A et B : A + B  C (à titre d’exemple : hydrogène + oxygène  eau) Supposons que C donne à son tour une autre molécule E : C+DE et que E engendre de nouveau le produit A considéré au départ : E+FA Nous avons ainsi décrit un cycle : le produit A consommé à l’origine est reconstitué. Nous allons le perfectionner en admettant que la dernière réaction engendre non pas une molécule de A, mais deux, ce qui sera utile pour la suite : E + 2F  2A Sur la figure 49, nous voyons ces trois réactions symbolisées en (1), par des fils joignant les produits entre eux. En (2), les mêmes fils sont placés différemment pour mettre en évidence le cycle. Comme les réactions de chimie organique sont le plus souvent lentes et imparfaites, un tel cycle a généralement très peu de chances de se maintenir. Supposons ensuite que, par hasard, la molécule E (un polymère) catalyse l’une des réactions, par exemple la première. Cela est représenté par un trait pointillé en (2). Alors, le cycle va s’accélérer, se renforcer et se stabiliser. On a nommé cycle autocatalytique ou hypercycle, ce genre de chaîne capable de s’auto-entretenir. 244

Les clés secrètes de l’Univers

L’étincelle de vie

Figure 49 | Formation d’un hypercycle : Le cycle A  C  E  2A est catalysé par l’influence d’une de ses molécules : E.

Non seulement un hypercycle se renforce grâce à l’autocatalyse, mais il peut aussi se multiplier. Dans notre exemple, la dernière réaction fabrique deux molécules de A. L’une va servir à réalimenter le cycle, quant à la seconde, elle peut faire démarrer un nouvel exemplaire de l’hypercycle, identique au premier. On verra alors ces entités se multiplier indéfiniment avec pour seule limite l’épuisement d’un des produits consommés (B, D ou F). En s’imposant par sa robustesse et sa productivité, un tel ensemble va rapidement faire émerger une sous-liste dominante des produits A, C et E. Comme déjà dit, cette singularité est en soi une création d’information. On voit au passage que le destin des molécules B, D et F est d’être consommées. Deux rôles se dessinent donc dans la soupe : A, C et E forment une espèce d’organisme élémentaire se répliquant, tandis que B, D et F sont relégués à la fonction d’aliment. Ce n’est pas encore la vie mais cela y ressemble déjà. 245

Partie 3. L’apparition de la vie sur Terre

L’hypercycle est une notion connue depuis le xixe siècle. Elle a été développée et appliquée aux origines de la vie, par le biophysicien contemporain allemand Manfred Eigen15, prix Nobel de chimie. L’HYPERCYCLE, PREMIÈRE ÉTAPE DE LA PROTOVIE Il est difficile de se représenter concrètement un hypercycle car il s’agit simplement d’une liste de molécules et de réactions se catalysant mutuellement. Elles se répartissent dans le milieu aqueux et n’ont aucune forme visible, pas plus que du sucre dilué dans le thé. Pourtant, si une telle liste s’impose et consomme un certain nombre d’autres substances, on peut déjà la considérer comme une entité existante. Elle se distingue au sein de la composition chimique de la petite mare. On peut déjà parler d’une sorte de reproduction puisque les hypercycles s’auto-entretiennent en puisant dans l’environnement et peuvent se multiplier selon le principe indiqué sur la figure 49. On voit aussi apparaître un genre de concurrence : deux hypercycles consommant en partie les mêmes ingrédients, vont tôt ou tard entrer en compétition sur les ressources disponibles. Que peut-il se passer quand un nutriment vient à manquer ? Le moins résilient des deux va se trouver privé de nourriture et s’éteindre, l’autre survivra. On observe aussi ce qui ressemble à une prédation. Deux hypercycles peuvent fusionner et en faire naître un nouveau, plus large et plus sophistiqué. L’idée est difficile à se représenter car ils sont dilués un peu partout dans la petite mare et ne présentent pas de forme. Imaginons par exemple qu’à la suite d’un gros orage, deux mares précédemment disjointes communiquent. Les listes de molécules présentes dans les deux fusionnent. Alors, un nouveau jeu de réactions se constitue et se stabilise : on y retrouvera une partie des précédentes et de nouvelles. À la longue, si le milieu est suffisamment concentré, ce mécanisme conduira à des combinaisons d’hypercycles 15.  Steps towards life: Perspective on Evolution. Manfred Eigen. 1996. 246

Les clés secrètes de l’Univers

L’étincelle de vie

de plus en plus complexes. Nous les désignerons plus loin comme des ensembles autocatalytiques. De nos jours, le corps de l’être vivant reste plein d’hypercycles. Le brassage continuel des molécules touche nos propres cellules. Je vous apprendrai peut-être qu’elles sont sans cesse détruites presque intégralement et reconstruites à un rythme rapide. Sur une période de l’ordre d’un mois, toutes leurs parties sont entièrement décomposées et métabolisées : membranes, ribosomes, mitochondries et autres organites. Une seule partie de la cellule échappe à cette autodestruction : l’ADN qui, au sein du noyau, maintient l’information et contrôle la reconstruction. Selon un processus continu, de nouveaux constituants viennent s’assembler spontanément pour remplacer ceux ayant disparu, de sorte que la cellule se régénère en permanence. Soumises à plus d’activité chimique, celles du foie se renouvellent sur une période encore plus courte, de l’ordre de la semaine. Parmi tous les atomes qui composaient votre corps il y a 20 ans, très peu doivent y être toujours présents aujourd’hui. Ce phénomène étonnant provient des nombreux cycles de réactions qui animent le fonctionnement de notre organisme, et de la catalyse particulièrement précise qui s’est développée au cours du temps. Dans la petite mare, on peut qualifier de protovie cette situation où des ensembles de réactions largement catalysées s’organisent et se maintiennent. Cependant, à ce stade, il s’agit d’un état peu résilient. Si des volcans ou des météorites provoquent des changements dans la composition du milieu, il est probable que beaucoup ­d’hypercycles disparaissent, privés de leurs nutriments ou victimes de substances toxiques. De plus, leur pire ennemi est tout simplement la dilution. Il suffit d’un gros orage ou d’une inondation pour faire baisser les concentrations et effondrer les réactions. Les hypercycles sont trop diffus et fragiles pour être considérés comme de véritables organismes. L’étape suivante vers la complexité va changer les choses avec une forme d’encapsulation.

247

Partie 3. L’apparition de la vie sur Terre

L’ÉMERGENCE DES PROTOCELLULES Si les hypercycles s’enfermaient dans une enceinte, ils en tireraient beaucoup d’avantages : ils seraient moins dépendants des fluctuations de l’environnement, ils maintiendraient une concentration élevée en son sein, et ils se protégeraient contre les prédateurs et les substances toxiques. En fait, cette encapsulation va se produire naturellement grâce à une famille de molécules : les lipides. Dans une soupe chimique suffisamment riche, ce genre de corps gras apparaît inévitablement. Comme ils ne peuvent se mélanger à l’eau, ils tendent à se rassembler systématiquement en petites sphères. Vous observez cela tout simplement en battant une vinaigrette. On imagine facilement certains hypercycles (des sous-listes stables de molécules) se logeant dans les gouttes de lipides. Alors, ils peuvent accroître leur concentration et se prémunir de la dilution qui les menace dans l’eau environnante. Ces capsules établissent une dissymétrie favorable entre leur intérieur et leur extérieur, qui sera essentielle à l’apparition de la vie. Curieusement, l’encapsulation fait émerger une ébauche de reproduction par division cellulaire. Il suffit d’observer une simple vinaigrette, pour voir se scinder en deux spontanément les gouttes d’huile dépassant une certaine taille. Imaginons l’une d’elles abritant différents exemplaires d’hypercycles. Si en prospérant elle a « pris du poids », cela va provoquer sa scission. Ainsi naîtront deux nouvelles gouttes héritant chacune d’une partie des hypercycles. La mère aura donné deux filles de composition chimique similaire. On reconnaît la division cellulaire. Aussi étonnant que cela puisse paraître, elle est un mécanisme naturel émergeant de luimême dans un milieu aqueux où résident des lipides. Elle résulte simplement des forces électriques entre les molécules de corps gras et d’eau. La goutte d’huile est une première étape menant vers la notion de cellule. Dans un environnement s’enrichissant chimiquement, un nouveau type de capsule bien plus performant va apparaître grâce à l’émergence des membranes. De nouvelles bulles vont se constituer, ne contenant plus de l’huile cette fois, mais de l’eau. L’innovation est d’importance majeure car l’eau est un milieu bien plus fertile. 248

Les clés secrètes de l’Univers

L’étincelle de vie

D’où viennent ces membranes ? Il s’agit d’une classe de lipides dont les molécules s’assemblent naturellement pour former des surfaces. Elles ont de plus la propriété de se replier spontanément en sphères comme les gouttes d’huile. On se retrouve donc avec des bulles d’eau enfermées dans une peau lipidique. La ressemblance avec l’huile va plus loin : ces capsules tendent aussi à se scinder en deux à partir d’une certaine taille. Ainsi naissent les protocellules, bulles d’eau entourées d’une membrane. Elles préfigurent les bactéries et les cellules actuelles. Les hypercycles vont y trouver un milieu particulièrement accueillant. Les membranes étant omniprésentes dans notre organisme, il est utile de préciser leur nature. Elles sont faites de phospholipides, des corps gras tout à fait communs, entrant dans la catégorie des détergents. Ils devaient être déjà présents dans la soupe prébiotique. À l’image du savon, leurs molécules présentent une extrémité hydrophobe et l’autre hydrophile. La première « n’aime pas » l’eau et tend à se lier aux graisses. Au contraire, la seconde, « attirée par l’eau », est soluble. Dotée de ces deux capacités, la molécule de savon accroche facilement les corps étrangers et impuretés de toutes natures, puis se dilue dans l’eau grâce à sa tête hydrophile. Les molécules de phospholipides ont la forme d’un têtard dont la tête serait hydrophile et la queue hydrophobe (fig.  50). Dans le milieu aquatique, leurs queues hydrophobes cherchent à fuir l’eau. La façon la plus simple d’y parvenir est de se regrouper côte à côte, comme des hommes debout se serrant l’un contre l’autre pour être moins exposés à un vent froid. Si vous imaginez des millions de personnes ainsi agglutinées, cela constituerait une nappe humaine. Selon le même principe, les molécules de phospholipides se réunissent pour éviter l’eau et forment une membrane. Remarquons au passage que cette propension à se regrouper en nappe est de nature purement électrique. Nous sommes donc devant un nouvel exemple d’auto-­ organisation, sous la simple action des forces naturelles ! Le morceau de surface ainsi assemblé n’est pas encore stable. En effet, une de ses faces reste hydrophobe et cherche toujours à fuir l’eau. Pour ce faire, elle trouve rapidement la solution : il suffit que



249

Partie 3. L’apparition de la vie sur Terre

… deux membranes se collent par leur face hydrophobe et le tour est joué. Ainsi apparaît la membrane bicouche (fig. 50). Elle est beaucoup plus stable, pourtant, il lui reste une étape finale pour atteindre la stabilité maximum. Les bords de la surface bicouche possèdent encore des queues hydrophobes exposées à l’eau. Comment peuvent-elles se mettre à l’abri ? Tout simplement en courbant la surface et en se rejoignant, ce qui pousse la membrane à prendre la forme d’une sphère. Une fois regroupées en bulles, les molécules de phospholipides ont atteint l’état d’énergie minimum. Les membranes bicouches, particulièrement stables, constituent l’enveloppe de toutes les cellules et bactéries actuelles. Elles interviennent massivement dans tous leurs organites.

Figure 50 | La formation spontanée des membranes bicouches et des protocellules.



250

Les clés secrètes de l’Univers

L’étincelle de vie

… En déroulant pas à pas ce phénomène, on découvre un fait extraordinaire : il suffit de mettre des phospholipides dans l’eau et l’on obtient automatiquement des membranes bicouches sphériques, c’est‑à-dire des protocellules. Elles émergent tout simplement des forces électriques. Or ces substances étaient très certainement présentes dans la mare de Darwin. Les premières membranes ont dû apparaître spontanément en petite quantité. Ensuite, elles se sont multipliées lorsque des hypercycles se sont mis à synthétiser les phospholipides. Ce jeu physique entre zones hydrophobes et hydrophiles est d’une importance primordiale : il est à l’origine de la plupart des formes fabriquées par les organismes vivants. Il montre aussi à quel point l’eau est essentielle à la vie. Enfin, il illustre ce principe énoncé plus haut : la recette de cuisine était déjà écrite dans ses propres ingrédients.

Une fois les hypercycles abrités dans la protocellule, comment peuvent-ils se nourrir malgré sa paroi ? Comment les molécules qu’ils consomment peuvent-elles traverser une membrane étanche ? La solution est apportée par certaines protéines capables de s’y fixer et d’ouvrir des pores pour laisser passer les nutriments (fig. 51). C’est très exactement la façon dont beaucoup de substances (ou de virus) pénètrent dans nos cellules : des macromolécules accrochées à la membrane jouent le rôle de sas pour les trier et les faire entrer. L’existence de telles protéines paraît encore très improbable, pourtant ce n’est pas le cas : parmi leur grande variété, il ne faut pas s’étonner que certaines aient la forme ad hoc pour servir de porte d’entrée. À cette époque primitive, il faut concevoir l’action catalytique comme étant de nature statistique. Dès qu’une énorme quantité de macromolécules différentes est concentrée dans un milieu, il en existe toujours qui sont dotées de la bonne forme, au moins approximativement. Elles agissent donc plus par leur nombre que par leur précision. Ce principe va guider Kauffman vers une explication statistique de l’émergence de la vie. 251

Partie 3. L’apparition de la vie sur Terre

Dernière innovation d’importance : l’encapsulation fait enfin apparaître dans la petite mare, des entités clairement délimitées et identifiables. Disons-le : des êtres. La concurrence qui a d’abord joué de façon très diffuse au niveau des molécules, puis des hypercycles, peut désormais opérer entre des individus, les protocellules. Une sélection naturelle naît aussitôt parmi elles : les plus armées se développeront et avec elles, les hypercycles qu’elles portent. Les plus faibles seront absorbées et serviront d’aliment. La figure 51 montre comment s’organise une protovie déjà très proche du comportement actuel des bactéries ou des cellules : – la prédation : deux protocellules fusionnent. Ce processus est très naturel : le seul contact des deux membranes peut le provoquer. Celle présentant les meilleures protéines et le métabolisme le plus stable impose sa formule chimique à l’ensemble ainsi constitué ;

Figure 51 | Les protocellules et la protovie.

252

Les clés secrètes de l’Univers

L’étincelle de vie

– la division cellulaire : elle se produit aussi mécaniquement, à partir d’une certaine taille. Chacune des deux filles hérite de la panoplie des substances de la mère, ses hypercycles. Aujourd’hui, ces mécanismes sont toujours à la base du fonctionnement des cellules. Ils se sont simplement sophistiqués au cours du temps par l’élaboration continuelle d’enzymes chaque fois plus performantes. La concurrence entre les êtres vivants a toujours joué essentiellement sur la sophistication et l’efficacité de leurs protéines. LE PROTOMÉTABOLISME Conséquence importante de l’encapsulation, les réactions chimiques s’enrichissent dans un milieu plus concentré. De nouveaux hypercycles plus complexes vont apparaître et remplacer peu à peu le saupoudrage de molécules. Ainsi se crée de l’information chimique. Quand deux protocellules fusionnent, la mieux équipée impose sa composition et tend à grossir. Comme nous l’avons vu, à une certaine taille, les lois physiques obligent les plus grosses à se scinder en deux. Lors de cette division, leur contenu se répartit à peu près également entre les deux filles, permettant ainsi la transmission de l’information à la descendance. Les protocellules se trouvant en concurrence, les conditions sont réunies pour que lentement mais sûrement, la sélection naturelle entre en jeu et améliore sans cesse leur adaptation au milieu. Parmi les réactions chimiques présentes, celles qui la rendent la plus résiliente vont être systématiquement retenues. Elles vont constituer progressivement un protométabolisme à même d’assurer les fonctions vitales : –  Capter l’énergie. Le fonctionnement des hypercycles nécessite un apport d’énergie. Celle-ci réside essentiellement dans deux réservoirs naturels. Le premier est le fer, très abondant sur Terre. Aujourd’hui, il se trouve sous forme oxydée, mais dans le passé très 253

Partie 3. L’apparition de la vie sur Terre

ancien, il était à l’état natif. Il ne demandait qu’à s’oxyder en dégageant de l’énergie. En captant ce fer, les protocellules ont disposé d’un carburant bon marché. Une autre source est présente dans les cheminées volcaniques au fond des océans : elles rejettent beaucoup d’hydrogène sulfuré hautement énergétique. Si la vie est apparue en ces endroits, elle a pu y trouver en quantité l’énergie nécessaire à son fonctionnement. – Absorber et traiter les nutriments. Comme nous l’avons vu, une partie des molécules sert d’aliments aux autres. Le milieu prébiotique est riche en substances organiques venant du cosmos, une alimentation généreuse. Les protocellules apprennent à les capter par les pores de leur membrane, puis à les utiliser dans des séquences de réactions. L’aboutissement de cet enchaînement est la fabrication de protéines et d’ARN de plus en plus sophistiqués. – Neutraliser les produits toxiques. Le métabolisme primitif reste extrêmement fragile et peut être contrarié par des molécules aux effets délétères. Au sein des hypercycles, certaines réactions permettent de les éliminer. – Se défaire des substances dégradées, issues de toute cette activité chimique. À cette époque, ce jeu de réactions est très élémentaire et approximatif par rapport à ce qu’il est devenu aujourd’hui. Abritées dans la protocellule, les enzymes (des protéines) commencent à dépasser la longueur d’une dizaine de maillons. Elles gagneront en complexité au fur et à mesure de l’évolution, sous l’action de la sélection, pour atteindre de nos jours des tailles de centaines ou de milliers d’acides aminés. En observant les cellules contemporaines chez différentes espèces, C. de Duve a reconstitué une image de ce métabolisme primaire. Il a commencé par identifier les substances chimiques et les réactions fréquemment présentes dans une majorité d’organismes. Il est parti du principe que les plus universelles doivent être aussi les plus archaïques. En d’autres termes, il a fouillé le monde vivant pour en dégager le métabolisme fossile des origines. 254

Les clés secrètes de l’Univers

L’étincelle de vie

Nous avons parlé du protométabolisme sans en donner une image concrète. Ce n’est pas aisé, sauf à entrer dans le détail de réactions chimiques très complexes. Néanmoins, de façon schématique, nous pouvons mentionner les plus fondamentales identifiées par C. de Duve : elles sont résumées dans les grandes lignes sur la figure 52. Elle se lit en commençant par le haut où l’on voit les ingrédients présents naturellement dans le milieu prébiotique : – deux sources d’énergie : le fer dans les mers et les émanations d’hydrogène sulfuré dans les cheminées volcaniques terrestres ou aquatiques. En s’oxydant, elles dégagent, l’une comme l’autre, de l’énergie nécessaire à une grande partie des réactions ; – des substances organiques simples, venant du cosmos. Nous avons vu qu’elles devaient former une mousse couvrant les océans primitifs. On y trouve en abondance acides aminés, thiols, polyphosphates et phospholipides. Partant de ces briques de la vie, le métabolisme va échafauder progressivement les macromolécules constituant l’être vivant.

Figure 52 | Le métabolisme fabrique les constituants du vivant à partir des ingrédients prébiotiques.

… 255

Partie 3. L’apparition de la vie sur Terre

… Le cheminement est résumé sur la gauche de la figure  : à partir de l’énergie et des ingrédients prébiotiques, une cascade complexe de réactions anime le fonctionnement de l’organisme. Il mène, en bas du tableau, aux principales molécules-clés de la vie : – les protéines : elles assurent les structures élémentaires, telles les portes d’entrée dans la membrane, et l’activité catalytique (enzymes) ; – les acides nucléiques : l’ARN, forme primitive de l’ADN. À ce stade très ancien, il assure simplement des tâches catalytiques comme le font les protéines ; – les phospholipides, constituant les membranes. Au centre du tableau, des composés particuliers, les thioesters, jouent un rôle de pivot. Cela conduit C. de Duve à qualifier l’époque prébiotique de monde du thioester et du fer. On voit aussi apparaître, juste en dessous, une molécule de très grande importance : l’adénosine triphosphate (ATP). Chez tous les êtres vivants, elle est responsable du transport de l’énergie nécessaire à l’activité musculaire et au métabolisme. En outre, elle sert de précurseur pour la formation de l’ARN.

LE GERME DE LA VIE : L’ENSEMBLE AUTOCATALYTIQUE Cette description de la protovie peut vous paraître complexe. Pourtant, à l’époque où nous nous situons, il y a près de 4 milliards d’années, elle reste très pauvre par rapport à la « vraie vie » d’aujourd’hui. Rapprocher deux situations aussi différentes, revient à comparer une pirogue hawaïenne avec un porte-avions doté de radars, d’ordinateurs, de missiles et de chasseurs. Nous allons voir que le passage de l’une à l’autre n’a pas été continu. Il a subi à un moment donné, une transition qui a accéléré les choses, un peu comme l’inflation a transformé brutalement l’Univers à ses débuts. Elle a été imaginée par Kauffman à partir de modèles mathématiques et de simulations. Ce changement présente un caractère explosif, d’où le titre choisi pour ce chapitre : « L’étincelle de vie »… ayant mis le feu aux poudres. 256

Les clés secrètes de l’Univers

L’étincelle de vie

Avant d’expliquer ce phénomène, résumons ce qu’est la protovie. Elle se situe dans de petites mares chaudes ou bien près des cheminées volcaniques au fond des océans. La richesse chimique de ces endroits favorise la constitution de protocellules abritant une variété de produits en réaction permanente. Il y apparaît de nombreux hypercycles. Kauffman qualifie d’ensembles autocatalytiques, ces milieux où beaucoup de réactions se catalysent mutuellement. Il s’agit en quelque sorte de la généralisation de la notion d’hypercycle. On peut illustrer un tel ensemble schématiquement (fig. 53) en reprenant le graphisme déjà utilisé précédemment : – une molécule est figurée par une lettre ; – une réaction telle que A + B à C est représentée par trois traits reliant ces trois substances et un point symbolisant le rapprochement de A et B ; – enfin, les influences catalytiques apparaissent en traits pointillés : ici la molécule E catalyse la réaction mentionnée ci-dessus. Sur le schéma, on voit un réseau complexe de produits et de réactions assorties de liens catalytiques. Par simplicité, il est volontairement limité à 13 molécules. En réalité, on peut imaginer un stade primitif où ces ensembles autocatalytiques comprenaient quelques milliers de substances. Aujourd’hui, les organismes vivants en comptent plutôt des centaines de milliers : chez l’Homme par exemple, environ 100 000 protéines distinctes catalysent toutes sortes de réactions produisant beaucoup d’autres molécules différentes. Comment est-on passé d’un millier de protéines dans la protovie à 100 000 aujourd’hui ?

Figure 53 | Un ensemble autocatalytique de 13 molécules.

257

Partie 3. L’apparition de la vie sur Terre

On pourrait attribuer cette évolution au lent ouvrage de la sélection naturelle sur une grande durée. C’est vrai mais insuffisant. Un ensemble autocatalytique d’un millier de produits, aussi sophistiqué soit-il, ne peut pas se développer progressivement à long terme. Certes, il prospère quand les conditions sont excellentes et les nutriments abondent. Cependant, il se dégrade si des pénuries ou des changements environnementaux surviennent : alors, des pans entiers de l’ensemble (des hypercycles) cessent d’être alimentés et disparaissent. L’information chimique qu’ils contiennent se perd. La formule appauvrie qui en résulte, se transmet ensuite à la descendance lors des divisions de la protocellule. La population a toutes les chances de dégénérer. Aussi complexes soient-ils, les ensembles autocatalytiques que nous avons décrits ne sont pas des formes robustes et stables. Quelle étincelle a pu faire dépasser ce stade incertain et « allumer la postcombustion » ? Elle n’est pas le fait d’une puissance surnaturelle. Elle n’est même pas d’origine physique… Elle provient simplement de l’arithmétique, comme 1 + 2 font 3 ! L’ÉTINCELLE AYANT MIS LE FEU AUX POUDRES Kauffman a analysé les ensembles autocatalytiques en utilisant non pas un télescope ou un microscope, mais ce que j’appellerais un « complexoscope », c’est-à-dire une panoplie d’outils mathématiques et de simulations numériques. Il serait long et difficile d’expliquer sa démarche, cependant le résultat se formule assez simplement. L’idée consiste à mesurer la diversité moléculaire, c’est-à-dire le nombre de protéines différentes présentes dans le milieu. Au contraire de la chimie minérale reposant sur un maximum de 2 000 molécules, celle du vivant accède à un registre quasi infini grâce aux polymères. Des protéines de plus en plus longues apparaissent, chacune se repliant de façon distincte. L’important est que toutes ces nouvelles formes sont autant de catalyseurs potentiels. Si les conditions sont favorables, un effet boule de neige s’enclenche, schématisé sur la figure 54. Le 258

Les clés secrètes de l’Univers

L’étincelle de vie

seuil explosif est franchi au moment où il existe une telle diversité moléculaire et un tel registre de formes différentes, que chacune des r­ éactions de l’ensemble est plus ou moins catalysée par une ou plusieurs d’entre elles.

Figure 54 | La diversité moléculaire croît de façon explosive à partir d’un certain seuil par un effet boule de neige.

Ce phénomène d’allumage apparaît très clairement dans les simulations par ordinateur : la figure 55 montre comment la variété des molécules explose au franchissement d’un seuil critique. L’axe horizontal représente l’efficacité de la catalyse. Elle peut se mesurer en pourcentage de réactions catalysées. Au passage du seuil, on voit la diversité moléculaire croître exponentiellement avec pour seule limite, l’épuisement des ressources en nutriments. Cet effet boule de neige déclenche une création exubérante de nouvelles substances, facteur de créativité mais aussi de chaos. Kauffman a découvert ce mécanisme par simulation informatique en utilisant la théorie des graphes. Il ne s’agit donc pas de biologie, de chimie ou de physique, mais de mathématiques : il faut y voir une caractéristique combinatoire de la matière, encore un aspect de l’émergence. 259

Partie 3. L’apparition de la vie sur Terre

Figure 55 | Allumage d’un ensemble autocatalytique. Lorsque l’efficacité de la catalyse s’accroît, il parvient à un seuil à partir duquel le nombre de nouvelles molécules explose.

Une fois allumé, l’ensemble autocatalytique connaît un foisonnement de molécules peu compatible avec la vie car trop d’entre elles le déstabilisent : on peut les qualifier de toxiques. Le secret de la vie repose sur un équilibre très précis dans lequel : 1. l’ensemble s’allume, assurant ainsi une grande variété chimique avec beaucoup de réactivité ; 2. sans diverger de manière chaotique avec la production de nombreuses substances indésirables. En d’autres termes, la vie résulte d’un réglage fin de l’ensemble autocatalytique juste en dessous de son seuil critique. Nous avons déjà rencontré une telle situation avec les étoiles : elles peuvent fabriquer les éléments (oxygène, fer, etc.) parce qu’elles se maintiennent de façon stable, à la limite de l’explosion nucléaire. Nous avions appelé cela un système critique auto-organisé (chapitre 6). Un principe 260

Les clés secrètes de l’Univers

L’étincelle de vie

analogue va faire apparaître la vie juste au seuil d’une explosion, non pas nucléaire, mais chimique cette fois. À LA FRANGE ENTRE L’ORDRE ET LE CHAOS En résumé, un ensemble autocatalytique peut se trouver dans trois situations : en deçà du seuil critique, au-delà, ou bien pile dessus. Pour illustrer l’équilibre délicat propre aux êtres vivants, reprenons ces trois cas (fig. 55). 1. L’état sous-critique. Il caractérise la protovie dans ses débuts. La catalyse y est d’une efficacité insuffisante pour faire exploser la variété moléculaire. Le jeu de substances contenu dans la protocellule s’appauvrit facilement si certains ingrédients viennent à manquer ou si le milieu se dilue. Dans ce cas, des pans entiers de l’ensemble s’éteignent. À titre d’exemple, les organismes de personnes particulièrement faibles ou âgées peuvent connaître une situation de ce genre. Si elles sont en carence de certains nutriments ou vitamines, leur métabolisme perd des réactions utiles, ce qui entraîne une cascade de conséquences néfastes voire létales. 2. L’état surcritique. C’est la situation inverse : celle d’une protocellule dont toutes les réactions sont catalysées. Elle a passé le seuil de l’allumage. Il s’y forme un nombre croissant de nouvelles substances, de façon chaotique. Les seules limites à cette explosion sont les carences qui surviennent inévitablement sur certaines des ressources en nutriments. Curieusement, un exemple de cet état est… l’environnement sur Terre. Avant l’émergence de la vie, seule la chimie minérale siégeait sur notre planète. Elle était dans l’état sous-critique. Plus tard, avec le foisonnement des êtres vivants, la variété moléculaire est devenue considérable. Les espèces végétales émettent une grande quantité de substances très diverses, souvent pour se livrer entre elles une guerre chimique sans merci. L’Homme a amplifié ce phénomène en relâchant beaucoup de nouveaux produits dans l’environnement. En certains lieux où la concentration est élevée, ce dernier peut passer 261

Partie 3. L’apparition de la vie sur Terre

dans l’état surcritique, sans mécanisme d’ajustement. Alors, toute pollution déclenche inévitablement une cascade de réactions non désirées, de façon chaotique. Cette divergence explique l’un des graves problèmes écologiques de notre époque. On utilise quotidiennement des bombes d’aérosols pour désodoriser, tuer les moustiques, lutter contre les acariens et assouplir le linge à repasser. On en trouve plusieurs centaines sur les rayons du moindre supermarché. L’agriculture ne peut plus fonctionner sans pesticides. Chacune de ces substances prise isolément a été testée sur des souris en laboratoire et a passé ces essais sans montrer de danger pour la santé. Néanmoins, c’est oublier qu’en certains endroits, elles se mélangent toutes dans l’environnement et réagissent entre elles. Dans un écosystème en état surcritique, elles provoquent des séries de réactions non anticipées. Une foison de nouvelles molécules en résulte, en partie toxiques. Le hasard fait que certaines d’entre elles ressemblent aux hormones humaines. Leur ingestion produit des effets délétères. On les range parmi les perturbateurs endocriniens. En disséminant massivement des substances complexes autour de soi, on joue avec le feu. 3. L’état juste sous-critique. Si dans une protocellule, l’ensemble autocatalytique s’ajuste dans une situation intermédiaire entre les deux précédentes, à la frange de l’ordre et du chaos, il peut alors combiner deux propriétés essentielles : – engendrer facilement de nouvelles molécules, ce qui favorise son évolution et sa réponse aux changements de l’environnement ; – sans entrer pour autant dans le chaos d’une réaction en chaîne toxique. Tous les organismes vivants sont ainsi finement maintenus sur l’état sous-critique pour combiner adaptabilité et résilience. Grâce à la variété chimique, une carence dans un produit est aisément compensée par l’activation d’autres réactions, comme autant de « plans B » permettant de contourner le déficit. Par exemple, si vous soutenez un effort physique dans la durée, vos muscles consomment le glucose 262

Les clés secrètes de l’Univers

L’étincelle de vie

disponible dans votre sang. S’il vient à manquer, votre métabolisme bascule sur le « plan B » consistant à puiser dans vos stocks de graisses pour les convertir en sucres. Inversement, quand les hommes préhistoriques chasseurs-cueilleurs ne trouvaient pas de gibier (lipidique), ils se nourrissaient de fruits ou de racines (glucidiques). Leur organisme fabriquait alors les lipides à partir des glucides grâce à un autre « plan B ». Aujourd’hui, ce même schéma est à l’origine du fléau de l’obésité, à une époque où l’alimentation est devenue surabondante en sucre. En d’autres termes, la civilisation tend à transformer le « plan B » en « plan A ». Pratiquement toutes les molécules utiles à l’être vivant peuvent ainsi s’élaborer de diverses façons, lui permettant de s’adapter à une grande variété de circonstances et de pénuries. Cette souplesse dans la nourriture a été un facteur clé pour l’hominisation lorsque les Australopithèques ont survécu à des périodes de changements climatiques rapides, fatales pour beaucoup d’autres espèces. Il existe une exception à cette plasticité de l’organisme humain : les vitamines. Il s’agit de quelques substances indispensables trouvées dans l’alimentation, mais que le corps ne sait pas synthétiser. Si elles tombent en carence, pas de « plan B » ! Ce sont pratiquement les seuls cas de manques – minuscules exceptions à vrai dire – que l’état juste sous-critique est incapable de corriger. L’organisme ainsi ajusté se conserve et se reproduit dans la stabilité, tout en étant capable de créativité chimique. Nous allons voir comment il peut rester en permanence dans cet état hautement improbable, tel un funambule qui passerait toute sa vie debout sur son fil. TOUS LES ÊTRES VIVANTS SE MAINTIENNENT AU STADE JUSTE SOUS-CRITIQUE La vie naît d’un ajustement fin entre les deux scénarios : l’explosion de diversité et l’appauvrissement. Par quel miracle un organisme peut-il se maintenir dans un équilibre aussi précaire ? Il ne fait rien 263

Partie 3. L’apparition de la vie sur Terre

de spécial : il a été conçu pour cela ! La sélection darwinienne s’en est chargée en jouant pendant des millions d’années sur toutes les générations antérieures. Elle a tout simplement retenu systématiquement les individus les mieux ajustés. Voyons concrètement comment cela a pu se produire au cours de l’évolution. Rappelons d’abord que les ensembles autocatalytiques sont faits de molécules encapsulées dans une membrane. Ces protocellules sont en concurrence dans la recherche des nutriments. Elles peuvent aussi fusionner, c’est-à-dire être proie ou prédateur. Avec les progrès de la catalyse, certaines arrivent au stade critique de Kauffman : elles s’« allument » et basculent dans l’état surcritique. D’autres n’y parviennent pas. Nous nous retrouvons donc avec deux types de protocellules : – celles restant sous-critiques, sont faibles par la pauvreté de leur variété moléculaire. Peu résilientes aux changements environnementaux, elles risquent de dégénérer et ont de fortes chances de terminer leur carrière en servant d’aliment aux autres ; – celles ayant basculé dans l’état surcritique, sont tombées dans l’excès inverse : leur variété moléculaire exubérante introduit sans cesse des produits toxiques. Cet état chaotique les désorganise et les destine aussi à devenir un aliment. Entre les deux, se trouvent les protocellules les plus proches du seuil critique. Combinant créativité et stabilité, elles ont plus de chances de survivre. Par quel secret sont-elles mieux adaptées ? Il suffit que les réactions en jeu dans leurs hypercycles soient plus stables et par là même, modèrent la création exubérante de substances. Ces réactions agissent en boucle pour limiter la profusion de nouvelles molécules. Elles sont très fortement catalysées et s’imposent sur les autres, inutiles ou nuisibles. Tout ceci devait être très approximatif au début, mais la sélection darwinienne était déjà là pour trier inlassablement les protocellules les plus adaptées. Aujourd’hui, nous ne voyons autour de nous que les survivants de milliards de générations d’êtres de plus en plus finement optimisés. Ceux n’ayant pas eu la chance de 264

Les clés secrètes de l’Univers

L’étincelle de vie

l’être, sont morts prématurément sans laisser de descendance ! C’est pourquoi tous les êtres vivants sont précisément ajustés sur le seuil juste sous-critique. Un exemple emprunté à la médecine, montre la délicatesse de l’état juste sous-critique : les effets secondaires des médicaments. Nous ne pouvons lire la notice d’un produit pharmaceutique sans voir mentionnés 10 ou 20 risques pour la santé. Cela provient de notre état finement réglé au seuil de l’explosion de la diversité moléculaire. Il provoque la profusion de nouvelles substances dès qu’un médicament est introduit dans notre organisme. Parmi elles, certaines sont toxiques et déclenchent des conséquences néfastes. Pour autant, fort heureusement pour nous, notre corps n’est pas en état surcritique. Si c’était le cas, la majorité de la pharmacopée nous serait simplement interdite. Le laboratoire pharmaceutique teste soigneusement les médicaments et leur dosage pour identifier les formules offrant un bienfait sans trop d’effets indésirables. En d’autres termes, il réalise lui aussi un ajustement en zone critique : il affine la composition et le dosage pour obtenir le bénéfice attendu, sans pour autant faire basculer l’organisme dans la zone surcritique. Ainsi, les effets secondaires existent mais restent limités. Cet ajustement en laboratoire, porte sur une seule molécule. Il est tout à fait similaire à ce que la sélection a réalisé patiemment au cours des temps sur toutes les molécules de notre métabolisme. Elle les a retenues une par une en visant systématiquement le stade juste sous-critique. Nous comprenons pourquoi l’évolution est un très long processus : il faut un nombre considérable d’essais basés sur le hasard, pour filtrer les solutions les mieux ajustées dans le plus fin des détails. Le résultat est extraordinaire : la sélection darwinienne a pu effectuer sans difficulté majeure le travail de 100 000 laboratoires pharmaceutiques. C’est aussi pourquoi l’organisme nous paraît si complexe aujourd’hui : le Grand Bricoleur de Génie a travaillé 4 milliards d’années sur une quasi‑infinité d’expériences. 265

Partie 3. L’apparition de la vie sur Terre

UNE NOUVELLE VISION DE LA SÉLECTION NATURELLE Revenons un instant sur la théorie de Darwin, visionnaire qui a été le premier à comprendre le double mécanisme à l’œuvre dans l’évolution : – d’abord, des variations apparaissent à chaque reproduction d’un être vivant ; – ensuite, elle trie les plus adaptées au milieu. Le naturaliste avait lu Malthus et savait qu’une espèce se développe toujours indéfiniment jusqu’à l’épuisement des ressources alimentaires. Or la nature ne nous montre pas cette image. De nombreuses espèces ont leur place au soleil et coexistent, chacune avec une population limitée. Pour lui, cet équilibre devait provenir nécessairement d’une sélection. Cette notion promue par le savant s’est avérée si convaincante que, malgré les oppositions religieuses, elle a fini par s’imposer comme la cause de l’évolution. À l’inverse, le premier point, celui des variations, a été largement sous-estimé pour une raison très simple : avant les années 1950, on ignorait leur cause, faute de connaître les gènes et leur reproduction. À partir de la découverte de la double hélice d’ADN, on a compris que des mécanismes aléatoires provoquaient des erreurs de réplication du génome, créant ainsi une offre diversifiée d’individus tous très légèrement différents. Cette aptitude à engendrer la diversité n’est pas propre à l’Homme et ne date pas d’hier. Dans cet ouvrage, nous replaçons l’explosion des variétés vivantes dans un contexte bien plus général : celui de l’Univers qui organise la matière. En partant des deux gaz issus du Big Bang, il est passé par les éléments chimiques et les molécules, puis par l’étape de la vie, pour finalement parvenir aux espèces les plus raffinées. Le véritable moteur de l’évolution est en marche depuis les tout débuts du cosmos : il s’appelle émergence de la complexité. Dans cet esprit, Kauffman remet en question notre vision du vivant : « Le plus étonnant dans la théorie de l’évolution est que tout le monde pense la comprendre. Pourtant ce n’est pas le cas. Une biosphère ou une éconosphère se construit par elle-même d’une façon 266

Les clés secrètes de l’Univers

L’étincelle de vie

cohérente selon des principes que nous n’avons pas encore appréhendés ». En particulier, il conteste le rôle de la sélection darwinienne comme principal facteur. Il préfère mettre le projecteur sur l’offre foisonnante et variée développée par la nature. Sélectionner est un acte négatif et non constructif : élaguer les branches d’un arbre peut lui être salutaire, mais ce n’est pas le moteur qui l’a fait exister. S’il y a tri, c’est d’abord et avant tout, parce qu’il se crée continuellement une offre nourrie d’organismes différents, tous en ­concurrence. Ainsi, pour Kauffman, il convient de remettre l’offre créative et l’auto-­ organisation en première place dans nos raisonnements. Une fois que les éléments s’assemblent pour engendrer ces formes sans cesse renouvelées, un tri peut s’opérer subsidiairement pour retenir les plus adaptées. Curieusement, c’était tout à fait la vision originale de Darwin, mais elle a été largement oubliée par la suite. Dans ce contexte, le savant explicite le rôle subtil et essentiel de la sélection naturelle : maintenir l’être vivant au stade juste souscritique, c’est-à-dire au point précis où la variété moléculaire est optimale. Nous retrouvons là un nouvel exemple de réglage fin entre l’ordre et le chaos. La vie a trouvé sa place entre les deux en ajustant l’être sur un seuil critique. Pour le philosophe des sciences Dominique Lambert : « La vie est une réalité qui se faufile entre l’ordre et le chaos. » L’approche de Kauffman est critiquée pour ne pas être de la véritable biologie, mais plutôt une sorte de jeu mathématique. On cherche aujourd’hui un substrat expérimental pour conforter ses découvertes. On a déjà mis en évidence un hypercycle de moins d’une dizaine de molécules, capable de s’auto-entretenir. On ne l’a jamais fait pour un grand ensemble de substances sélectionnées au hasard. L’idée est de reconstituer en laboratoire la petite mare chaude dans un récipient, de mesurer la variété chimique qui s’y développe et d’observer le phénomène d’allumage au seuil critique. Comme c’est toujours le cas en science, il faudra attendre une preuve expérimentale convaincante, pour que la théorie fasse l’objet d’un consensus. 267

Partie 3. L’apparition de la vie sur Terre

LA VIE A ÉMERGÉ DE L’INERTE L’allumage des ensembles autocatalytiques est certainement l’un des passages les plus difficiles de ce livre d’histoire naturelle, avec ceux des espaces courbes d’Einstein et de la création des particules lors du Big Bang. Maintenant, il est utile de faire une petite pause dans l’ascension du Mont Complexité pour voir où nous en sommes. À ce stade, la vie est-elle vraiment née ? Les protocellules que nous avons décrites sont-elles déjà des êtres vivants ? Pour y répondre, rappelons de quoi elles sont faites. L’extérieur est une membrane à laquelle s’accrochent différentes protéines capables de faire entrer ou sortir diverses substances. L’intérieur est de l’eau abritant une grande quantité de molécules en forte concentration par rapport au milieu environnant. Ces dernières sont en interaction permanente, sous l’influence de la catalyse. Elles forment une soupe déjà fortement organisée, dans la mesure où de nombreux cycles de réactions se sont renforcés, stabilisés et enrichis. Certes, les protocellules restent rudimentaires comparées aux espèces actuelles, mais elles représentent déjà un degré de sophistication considérable. L’allumage d’ensembles autocatalytiques y fait apparaître une très grande variété chimique. Il ne s’agit pas de petites molécules minérales : ce sont des macromolécules infiniment plus élaborées, essentiellement des protéines et des brins d’ARN. Si une telle cellule primitive était découverte aujourd’hui, il faudrait probablement plusieurs années de travail à une équipe de biologistes pour simplement en donner une description précise. Pour autant, peut-on déjà parler de vie ? Ces protocellules sontelles suffisamment raffinées pour constituer des êtres vivants selon le sens commun ? La réponse est oui. Elles vérifient bien les trois critères de la définition de la vie énoncée au début du chapitre 8 : le fait de dissiper de l’énergie, la capacité de reproduction et l’existence d’erreurs de réplication soumises à sélection naturelle. S’agissant du premier, les cellules primitives dissipent bien une énergie chimique. Elles la trouvent en abondance dans la mare de 268

Les clés secrètes de l’Univers

L’étincelle de vie

Darwin ou près des cheminées hydrothermales au fond des océans. Il s’agit de molécules riches apportées par les roches, le volcanisme, les météorites, ou bien fabriquées par la foudre à une époque où la Terre encore chaude est sujette à d’incessants orages. Ces substances énergétiques pénètrent les cellules et alimentent en permanence les réactions complexes dont elles sont le siège. Nous avons affaire à de véritables machines chimiques mues par une énergie constamment renouvelée. Le deuxième critère, la capacité de reproduction, était présent dès l’apparition des protocellules : elles tendent naturellement à se scinder en deux, comme le font les cellules aujourd’hui. Les produits figurant chez la mère ayant de grandes chances de se retrouver répartis entre les deux filles, il s’agit bien d’un mécanisme de reproduction : à peu de choses près, la descendance est identique à la parenté. Enfin, le dernier critère, l’existence d’erreurs de réplication, est le plus facile à réaliser étant donné la rusticité de la reproduction à ses débuts. Le hasard détermine largement ce que sont les descendants par rapport à leur mère. Il procède de façon grossière : la répartition des molécules chez les deux filles n’est jamais strictement égale. En raison de ces erreurs, une part de la descendance est incomplètement dotée et donc, peu viable. Existant déjà entre ces protocellules, la sélection darwinienne se charge du tri. En conclusion, les trois caractéristiques essentielles de la vie sont bien réunies. Si l’on trouve demain la vie sur une autre planète, il y a de grandes chances qu’elle ait la forme de ces protocellules. Sur un plan plus philosophique, nous pouvons hésiter à considérer comme un être vivant, une simple goutte lipidique contenant des produits chimiques même complexes. Quelle est sa raison d’être ? Aucune, bien sûr, si ce n’est d’être là et de se reproduire. Si vous vous posez cette question à propos des premières cellules, vous pouvez tout aussi bien l’évoquer aujourd’hui à propos d’une bactérie, d’une rose ou bien d’une vache. Toutes ces espèces n’ont d’autre finalité qu’elles-mêmes, leur survie et leur reproduction. Cela nous est 269

Partie 3. L’apparition de la vie sur Terre

difficile à admettre, tant nous sommes habitués à rechercher une cause première. La matière s’est organisée en fabriquant ces êtres, non pas dans un but, mais simplement parce que les conditions sur Terre le permettaient. Pour C. de Duve : « La vie est une manifestation naturelle de la matière qui se produit sans l’aide d’un quelconque principe vital. » Je ne souhaite pas pour autant rejeter l’idée de finalité. D’abord, l’abiogenèse, ou apparition de la vie par voie naturelle à partir du minéral, n’est absolument pas démontrée à ce jour. Elle est supportée par de forts indices, mais elle reste loin d’être prouvée. Les fossiles ne montrent rien avant les premières bactéries. Aucune forme de reproduction élémentaire n’a été réalisée en laboratoire. De plus, en émettant l’idée que depuis le Big Bang, chaque étape de l’histoire s’explique scientifiquement et sans finalité, je n’exclus pas pour autant que l’Univers entier et ses lois physiques puissent découler d’un dessein divin. Celui-ci serait une cause première. Les caractéristiques du monde naturel auraient alors été conçues de façon qu’après le Big Bang, tout puisse se dérouler sans intervention divine concrète. Nous pouvons clore ce chapitre en disant que désormais, la vie est apparue. À partir de ce point, l’évolution va se poursuivre par une succession impressionnante d’améliorations, fruits d’un cheminement aléatoire et des choix systématiquement pertinents de la ­sélection. Cela nous mènera d’étape en étape, jusqu’à l’être vivant le plus complexe, l’Homme. Les prochains chapitres reprendront toutes les transitions majeures, comme l’apparition de cellules élaborées, des êtres multicellulaires, du cerveau, de la conscience et finalement, de la société humaine. Commençons par la première innovation critique : l’émergence des gènes.

270

Les clés secrètes de l’Univers

10 L’émergence des gènes

À propos du premier clonage d’un mammifère, la brebis Dolly, en 1997 : « Je me souviens que nous avons bien rigolé au laboratoire en apprenant cette nouvelle. Cloner un mouton alors qu’ils sont déjà tous semblables ! » Pierre Sonigo, Institut Cochin

Nous avons déjà insisté sur le fait que la protovie fabriquait de l’information. Il s’agit d’une vérité très générale : c’est très exactement ce que l’Univers reproduit sans répit depuis ses débuts. Le passage du gaz créé par le Big Bang, à un cosmos structuré en étoiles et galaxies, en est un exemple. Il en va de même de la naissance des 94 éléments chimiques dans les étoiles et de leur assemblage en molécules. Avec l’apparition des polymères, la création d’information se poursuit et va connaître une croissance fulgurante. Aujourd’hui, le point culminant de l’évolution est l’espèce humaine : l’information définissant notre organisme réside dans notre génome, l’ADN. Repliée en 271

Partie 3. L’apparition de la vie sur Terre

chromosomes dans le minuscule noyau de chacune de nos cellules, une seule de ces molécules mesure 1,80 m de long et contient autant de données que les plus grandes encyclopédies jamais écrites ! Elle consigne toute l’information développée au cours des millénaires pour aboutir à Homo sapiens. Au stade des toutes premières cellules, nous avons vu comment se créait une information chimique. En se diversifiant et en se sophistiquant, les réactions faisaient apparaître une liste de produits de plus en plus stable, à la place d’un saupoudrage. Muni de cette liste, un excellent biologiste pourrait reconstituer la cellule comme le maçon construit une maison sur plans. Une novation que j’ai appelée découplage va voir le jour : certaines macromolécules vont se spécialiser dans le stockage de l’information pure, les autres se contentant d’animer l’activité chimique. Pour comprendre ce phénomène, nous pouvons faire une analogie intéressante avec l’ordinateur. Avant lui, les premiers automates étaient des machines conçues pour effectuer une tâche déterminée, par exemple une horloge pour donner l’heure. Ils détenaient une information technique difficile à mettre en évidence : elle était simplement enfermée dans le mécanisme qu’un inventeur savant avait imaginé et construit. À l’origine, elle était née dans les plans qu’il avait dessinés. Elle reflétait son ingéniosité à travers des rouages, des leviers et des ressorts. Avec le métier à tisser Jacquard inventé en 1801, apparaît pour la première fois de l’histoire l’idée de découpler la mécanique et l’information. Chaque motif de tissu est codé sur une bande de carton perforé qui commande la machine à la place de l’opérateur. À l’époque, cette distinction apporte une efficacité considérable au tissage, au point de provoquer un chômage important dans la profession et de déclencher la révolte des canuts à Lyon. Une innovation analogue sera reprise plus tard en informatique. Les premiers calculateurs, tels la machine de Pascal, possédaient leur propre intelligence inscrite dans leurs rouages et autres mécanismes. Dès ses débuts, inspirée par le mathématicien Alan Turing, l’informatique prend 272

Les clés secrètes de l’Univers

L’émergence des gènes

un parti différent : localiser l’information sur un support à part. Ainsi naît la séparation entre le hardware (la machine) et le software (­l’information pure), qui s’avérera extrêmement fructueuse. Un tel partage des rôles, ou découplage, va s’effectuer parmi les polymères présents au sein des protocellules : certains d’entre eux vont se spécialiser dans la maintenance de l’information. Ce sont les gènes, dont le rôle premier sera de tenir à jour une liste et une description des molécules importantes. Plus tard, ils deviendront un véritable logiciel programmant l’organisme. Les autres polymères, les protéines, se contenteront d’assurer le fonctionnement du hardware : sa structure, son métabolisme. Cette distinction fondamentale a permis à la vie d’atteindre le degré de sophistication extrême que nous lui connaissons aujourd’hui. En partant des protocellules, simples sacs d’eau et de molécules, nous allons voir comment ont pu se constituer des êtres munis d’organes et d’un métabolisme élaboré. Pour cela, il nous faut désormais pénétrer l’immense complexité du vivant. QUE SONT LES GÈNES ? Si nous pouvions examiner au microscope le contenu d’une protocellule, que verrions-nous ? D’abord, de petites molécules : les unes minérales (ammoniac, phosphates, etc.), les autres organiques (sucres, benzène, etc.). Ensuite, nous distinguerions aisément de longues chaînes plus ou moins repliées : les polymères qui ont joué le rôle principal dans l’apparition de la vie. Il en existe essentiellement deux types (fig. 56) : 1. Nous avons beaucoup parlé du premier, les protéines. Rappelons qu’il s’agit de polymères assemblés à partir de 20 acides aminés : un alphabet de 20 lettres en quelque sorte. Elles s’appellent leucine, sérine, etc. 2. Quant au second, il a été évoqué au chapitre 8 : des brins d’ARN (un acide nucléique, forme archaïque de l’ADN). Ils sont constitués de 4 sortes de maillons, un autre alphabet de 4 lettres cette fois. 273

Partie 3. L’apparition de la vie sur Terre

Figure 56 | Deux types de polymères coexistent dans la cellule primitive.

Néanmoins, à l’origine de la vie, ils jouent des rôles équivalents. Ils effectuent des tâches particulières dans la protocellule : catalyser des réactions, fabriquer les phospholipides des membranes, pratiquer des points de passage à travers elle, etc. Par ailleurs, les deux stockent de l’information. Cela tient simplement à leur nature : une séquence de maillons différents peut toujours être considérée comme un texte ou une bande perforée codée ! Pourtant, à y regarder de plus près, les deux types de molécules ne sont pas également doués pour ces deux rôles. Les protéines sont excellentes dans la gestion quotidienne de la protocellule pour une raison déjà évoquée : elles se replient en des formes diverses et bien ajustées, susceptibles d’effectuer toutes sortes de fonctions avec la précision du laser. En revanche, leur repliement dense et rigide les 274

Les clés secrètes de l’Univers

L’émergence des gènes

rend moins aptes au rôle de réceptacle de l’information. Par exemple, si vous voulez lire les données contenues dans une bande magnétique, il faut pouvoir la dérouler. Ceux ayant connu l’époque des cassettes audio, se souviennent des sacs de nœuds provoqués par un enroulement défectueux. Une bande qui resterait en pelote, collée par des forces électriques, ne pourrait jamais être lue. C’est pourquoi les protéines sont peu adaptées au stockage de l’information. À l’inverse, l’ARN est plus doué pour cette fonction car il a moins tendance à se replier : ses brins restent relativement souples et libres. De ces deux propriétés très complémentaires de l’ARN et des protéines, naît le découplage : l’ARN se spécialise comme réceptacle de l’information, le gène, tandis que les protéines conservent les rôles productifs (structure, métabolisme, etc.). En d’autres termes, dans la fourmilière de l’ensemble autocatalytique, l’ARN s’arroge la mission de la reine et laisse aux protéines celle de fourmis ouvrières. Les deux fonctions cessent de se confondre et se localisent dans deux types de polymères distincts. Dans la fourmilière, la reine est détentrice de l’information génétique et se charge d’engendrer toutes les autres fourmis. De la même façon dans la cellule, l’ARN devient dépositaire de l’information chimique en acquérant la vertu de fabriquer les protéines. Nous allons voir comment. LES PROTÉINES REPRODUITES EN SÉRIE À PARTIR D’UN PATRON : L’ARN Les deux types de polymères, ARN et protéines, n’ont a priori rien de commun, pourtant on décèle entre les deux, une similarité tout à fait singulière : il se trouve que les maillons de l’ARN (nucléotides) sont approximativement trois fois plus courts que ceux de la protéine (acides aminés). Si les deux chaînes sont mises côte à côte, un triplet de maillons du premier se situe donc en regard d’un seul maillon de la seconde (fig. 57). La nature va exploiter cette coïncidence. 275

Partie 3. L’apparition de la vie sur Terre

Figure 57 | ARN et protéines : on peut mettre en regard un triplet de nucléotides et un acide aminé.

À ce stade du tout début de la vie, l’activité des protéines reste limitée car elles se forment au hasard : il en existe toutes sortes de versions, plus ou moins utiles. Leur efficacité résulte d’une moyenne statistique et non d’une spécialisation. Cette situation va changer car certaines enzymes vont devenir capables d’assembler les protéines sur mesure. Le processus que nous allons décrire est une des plus merveilleuses inventions de Dame Nature, appelée traduction de l’ARN. On le retrouve chez tous les êtres vivants. Pour comprendre cette novation, rappelons comment est née l’industrie du disque. Au départ, on a conçu le rouleau de cire pour enregistrer une voix ou la musique. Çà et là, il en existait de toutes sortes, mais chaque exemplaire était unique. Plus tard, on a mis au point le disque de vinyle fabriqué en série par pressage. On commençait par en graver 276

Les clés secrètes de l’Univers

L’émergence des gènes

un en métal, une matrice, par le même procédé que la gravure sur cire. Puis celui-ci était utilisé pour presser des milliers de copies en vinyle. Pour revenir aux polymères, l’ARN va jouer le rôle de matrice et l’information dont il est porteur va servir à répliquer en quantité des protéines parfaitement identiques. L’innovation est d’une importance considérable : au lieu de reposer sur des protéines nées par hasard et imparfaites, la cellule pourra reproduire les bonnes formules avec exactitude et en abondance. Ce travail de traduction est effectué par un dispositif complexe appelé ribosome, une sorte d’enzyme faite d’ARN. À l’origine, son rôle se limitait à faciliter la mise bout à bout des acides aminés en chaînes. L’opération était facile dans la mesure où ces petites molécules sont dotées de « crochets » ne demandant qu’à se lier. À un certain stade de l’évolution, cette machinerie, avec le concours de différentes enzymes, s’est montrée capable, non seulement de fabriquer une protéine, mais de le faire en suivant un modèle donné. L’ARN a joué ce rôle de patron, comme la bande de carton perforée du métier Jacquard ou celle de l’orgue de Barbarie. Le travail du ribosome consiste à lire un brin d’ARN pas à pas et en parallèle, à assembler la protéine, maillon par maillon (fig. 58). Imaginons le chef d’une gare de triage qui dispose de nombreux wagons et doit composer un train en appliquant scrupuleusement une liste. Sa tâche est de les sélectionner un par un et de les mettre bout à bout dans le bon ordre. Ici, la liste est incarnée par le brin d’ARN détenteur de l’information. Au centre de la figure, on voit le ribosome représenté avec deux fentes. Dans l’une, l’ARN s’introduit comme une bande de carton perforée. L’autre sert à faire entrer les acides aminés un par un, tels les wagons successifs. Chaque fois qu’un triplet d’ARN est lu, l’acide aminé correspondant est recruté dans l’environnement proche. Il entre dans la deuxième fente et ­s’accroche à la protéine en formation. Dans le monde d’aujourd’hui, cette opération se fait au rythme de 8 acides aminés par seconde s’ils sont ­disponibles en quantité suffisante dans le milieu. 277

Partie 3. L’apparition de la vie sur Terre

Figure 58 | L’assemblage d’une protéine en suivant la séquence d’un brin d’ARN. Le dessin est très simplifié : le ribosome est accompagné de plusieurs dizaines de catalyseurs non représentés ici.

On ne sait pas comment un mécanisme aussi complexe a pu s’élaborer. Comme toujours, des formes primitives ont dû apparaître, qui se sont ensuite affinées par la sélection naturelle. Probablement aux tout débuts, seuls quelques courts brins d’ARN étaient susceptibles de se copier en petites protéines avec l’aide d’enzymes. Si un tel cycle apparaissait, il avait toutes les chances d’être retenu, étant donné son efficacité : par rapport à la situation précédente où les protéines s’assemblaient plus ou moins aléatoirement, la seule présence du brin d’ARN garantissait que certaines d’entre elles se fabriquent de façon répétitive. Ainsi s’est réalisé progressivement le découplage de l’information : l’ARN a servi de patron pour répliquer un catalogue de plus en plus fourni de protéines. 278

Les clés secrètes de l’Univers

L’émergence des gènes

Ce mécanisme, toujours à l’œuvre dans la vie contemporaine, a permis un très haut degré de complexité dans le fonctionnement de l’organisme. On l’appelle expression des gènes. En voici un exemple. Quand vous courrez, vous ressentez le besoin d’éliminer la chaleur produite. Des signaux chimiques sont émis vers les cellules de la peau pour déclencher le réflexe de la transpiration. Or nous disposons dans notre génome d’un « gène de la sudation ». Il a été acquis à l’époque où les Australopithèques, premiers singes bipèdes, ont commencé à courir dans la steppe. Une mutation leur a conféré la possibilité de refroidir leur corps pendant l’effort, ce qui leur a donné très vite une endurance exceptionnelle. Comment les signaux chimiques déclenchent-ils la transpiration ? Ils activent dans les cellules de la peau la production de copies du « gène de la sudation », sous forme de brins d’ARN. Par la traduction expliquée plus haut, ceux-ci servent de patrons pour fabriquer en grand nombre une protéine : elle provoque la sécrétion de sel dans les glandes sudoripares. Comme le sel attire l’eau, cela déclenche la transpiration. Ce processus se développe sans arrêt jusqu’à ce que l’organisme refroidisse. Alors, des contre-ordres seront envoyés pour stopper l’expression du gène et la sudation. On voit bien dans cet exemple, comment fonctionne le découplage de l’information : la reine des fourmis, le génome, détient la clé pour élaborer les protéines, et celles-ci se limitent au rôle de fourmis ouvrières. LE CODE GÉNÉTIQUE Revenons sur le fonctionnement étonnant du ribosome (et enzymes associées) qui assemble les protéines. Cette machinerie, particulièrement sophistiquée, sait reconnaître un triplet de maillons sur l’ARN et recruter un acide aminé donné, présent dans le voisinage immédiat. Pour ce faire, elle doit être capable de lire les deux alphabets dont nous avons parlé : celui de l’ARN, par triplet, et celui de la protéine. De plus, elle doit établir une correspondance claire entre l’un et l’autre, pour qu’à chaque triplet s’associe un acide aminé particulier : 279

Partie 3. L’apparition de la vie sur Terre

Triplet de maillons de l’ARN (alphabet de 4 nucléotides, A, G, C, U) Au triplet CUA, s’associe l’acide aminé : Au triplet AGC, s’associe l’acide aminé : Au triplet ACG, s’associe l’acide aminé : etc.

Acide aminé de la protéine (alphabet de 20 acides aminés) Leucine Sérine Thréonine etc.

On a appelé cette liste le code génétique. Curieusement, la nature a ainsi créé une table tout à fait similaire à celles utilisées en télécommunication pour traduire un texte en signaux chiffrés et réciproquement. Cette innovation est apparue avec le télégraphe Morse en 1838 : un message était converti en impulsions électriques (fig. 59). De la même façon, la cellule établit une traduction entre deux alphabets.

Figure 59 | Le code Morse et le code génétique.

280

Les clés secrètes de l’Univers

L’émergence des gènes

Vous serez surpris d’apprendre le nom du savant qui, le premier, a imaginé le code génétique : il s’agit de Georges Gamow… l’inventeur du rayonnement cosmologique ! La nature des gènes était mystérieuse jusqu’en 1953, date à laquelle Watson et Crick découvrent la structure en double hélice de l’ADN. On comprend alors que cette longue molécule, ou sa variante l’ARN, doit organiser la production des protéines. En revanche, on ne saisit pas encore le lien entre les nucléotides qui la composent, et les acides aminés dont sont faites les protéines. La longueur très différente des maillons utilisés par les deux polymères brouille les cartes. C’est là qu’intervient Gamow. Non content d’avoir exploré l’infiniment grand (la cosmologie) et l’infiniment petit (les réactions nucléaires du Big Bang), il se lance dans le domaine de l’infiniment complexe (la génétique). Un an après la découverte de la nature des gènes, il présente l’idée centrale du code génétique, permettant la fabrication des protéines à partir de ces derniers : – il suffit de regrouper trois par trois les maillons de l’ARN ; – ces triplets ayant une longueur à peu près similaire à celle des acides aminés, les deux peuvent se mettre en regard ; – il doit donc exister entre eux un tableau de correspondance. Ne parvenant pas à décrypter ce codage tout seul, Gamow forme un groupe de travail composé des meilleurs biologistes du moment. Réputé pour son humour, il le baptise Club de la Cravate ARN. Cette congrégation se compose de 20 membres titulaires (les 20 acides aminés !) et 4 membres honoraires (les 4 nucléotides !), tous affublés de cravates brodées représentant la fameuse molécule en hélice. Malgré ces efforts de motivation, l’équipe ne parvient pas à décrypter le code. Le tableau complet le sera bien plus tard, en 1966. La communauté des généticiens reconnaîtra que l’astrophysicien les a bien aidés en proposant très tôt et avec justesse, l’idée théorique du code. Cette histoire montre bien à quel point la génétique se résume à un traitement d’information. Nous irons d’ailleurs plus loin dans ce sens, en comparant le génome à un ordinateur. 281

Partie 3. L’apparition de la vie sur Terre

Autre fait étonnant : le code génétique est universel. Toutes les espèces, bactéries, champignons, animaux et végétaux, utilisent la même table à de très rares et infimes variations près. On peut en déduire trois enseignements. Le premier est que toute la vie actuelle remonte à un ancêtre unique, ce qui est amplement démontré par la génétique. Cela ne signifie pas pour autant qu’aucune autre forme de vie n’a existé. On peut simplement dire que si cela a été le cas, ces êtres différents ont disparu sans laisser de trace. Lorsque l’on découvre de nouvelles espèces de bactéries exotiques, on vérifie toujours si elles utilisent bien le code génétique, car il n’est pas exclu que l’on trouve un jour des êtres vivants primitifs issus d’une souche distincte. Le second enseignement est que ce code a certainement été mis au point très tôt dans l’histoire, peu de temps après l’apparition de la vie, c’est-à-dire au stade historique où nous nous situons dans le présent chapitre. À ce titre, il constitue l’un des plus anciens fossiles du règne du vivant. Enfin, il doit être le résultat d’un long processus de maturation : au départ on peut imaginer que par affinité chimique, certains triplets se soient appariés à tel ou tel acide aminé. Une première ébauche de code naissait. À partir de là, l’évolution a dû retenir les associations qui marchaient le mieux. Le code génétique devait varier d’un individu à l’autre et comporter de nombreuses ambiguïtés. Néanmoins, l’innovation apportée par les gènes était tellement fructueuse que la sélection darwinienne a dû largement se focaliser sur elle et filtrer, de génération en génération, les formules les plus efficaces. Ainsi, un code unique s’est dégagé de proche en proche et s’est stabilisé. Il y a quelque chose de paradoxal dans ces deux dernières conclusions : le code génétique serait apparu très tôt et sa mise au point aurait été très longue. On peut rapprocher cette contradiction du mystère déjà évoqué au chapitre 8 : les premières bactéries sont nées en une centaine de millions d’années, durée bien trop courte aux yeux de nombre de biologistes. Ils clament que l’évolution darwinienne 282

Les clés secrètes de l’Univers

L’émergence des gènes

suit un processus très efficace mais aussi très lent et doutent qu’une bactérie ait pu s’élaborer si rapidement. Parmi leurs arguments, le temps requis pour obtenir un code génétique unique, fiable et stabilisé, est l’un des plus souvent avancés. Ils en déduisent que la vie pourrait être apparue plus tôt, avant le bombardement cométaire, peut-être sur une autre planète ou bien dans le sous-sol terrestre. LA REPRODUCTION DES CELLULES À partir du moment où les gènes existent et où l’information est découplée, la reproduction va devenir bien plus fiable. Jusque-là, quand une protocellule se divisait, les protéines se partageaient à peu près entre les deux filles. Une fois ces molécules produites en série par les gènes, la transmission d’une génération à l’autre devient plus rigoureuse : si ces derniers se répartissent bien entre les deux descendantes, alors elles seront complètement équipées pour engendrer toutes les protéines importantes. On peut illustrer cela par une analogie. Imaginons un commerçant vendant des statuettes en bronze qu’il coule lui-même avec ses propres moules. Il fabrique ces objets à la demande, dans les quantités requises, à partir des moules (les gènes) et du métal à fondre (les acides aminés). Ainsi fournira-t-il la clientèle sans craindre les ruptures de stock. C’est le rôle joué par les gènes dans l’organisme : répliquer toutes les protéines dont notre corps a besoin. Cette entreprise peut-elle se reproduire, c’est-à-dire se transmettre d’une génération à la suivante ? Au moment où il prend sa retraite, ses deux fils souhaitent continuer l’activité indépendamment l’un de l’autre, le premier à Paris, le second à Marseille. S’il transmet un jeu complet de moules à chacun de ses fils, les deux seront autonomes et pourront poursuivre le commerce. Selon ce même principe, avec l’ARN stockant l’information génétique, la reproduction se simplifie grandement : désormais, si la descendance reçoit quelques copies de chaque gène, le patrimoine est transmis. Bien sûr, cela suppose qu’ils soient présents en de multiples exemplaires dans la cellule mère. On imagine 283

Partie 3. L’apparition de la vie sur Terre

qu’il existait des enzymes capables de réaliser des duplicatas des brins d’ARN. Ainsi, des gènes isolés devaient flotter un peu partout au sein des cellules primitives, en quantité indéterminée mais suffisante pour assurer la production des protéines et la transmission du patrimoine génétique. En résumé, les gènes sont apparus dès que les protéines ont pu être synthétisées par des brins d’ARN. En termes plus généraux, on pourrait dire : dès qu’un polymère est parvenu à en fabriquer un autre en répliquant sa propre séquence. Ce mécanisme a pu émerger au fur et à mesure que la catalyse se sophistiquait. Au départ, le processus de copie devait être très partiel et entaché de nombreuses erreurs. Cependant, la sélection naturelle a certainement exercé une très forte pression pour l’imposer. En effet, les deux avantages déjà décrits, l’expression des gènes et leur transmission dans la descendance, se sont très vite avérés déterminants dans la population des cellules primitives. Des enzymes de plus en plus savantes, voici comment progresse le vivant depuis les premiers ensembles autocatalytiques. Là encore, nous ne voyons aucun chef d’orchestre : les forces électriques au sein des catalyseurs et l’évolution darwinienne suffisent pour élaborer toute la complexité du vivant, devant laquelle nous ne pouvons qu’être admiratifs. La recette de cuisine était écrite dans ses ingrédients ! POURQUOI LA RECHERCHE DES ORIGINES DE LA VIE REPRÉSENTE-T-ELLE UN SI GRAND DÉFI ? Le scénario proposé dans ce chapitre est spéculatif et nous devons nous garder d’être trop affirmatifs. Notre attitude face au mystère de la vie rappelle les alpinistes occidentaux du xixe siècle se lançant dans l’ascension de l’Everest pour la première fois après sa découverte. Beaucoup reste à faire et le chemin est incertain. La séquence des événements présentée me paraît la plus convaincante pour une raison bien simple : elle repose sur l’auto-­organisation, au même titre que l’histoire de l’Univers dans son ensemble. Elle 284

Les clés secrètes de l’Univers

L’émergence des gènes

s’inscrit donc harmonieusement dans le contexte cosmologique. Les mécanismes de base de la montée vers la complexité sont déjà à l’œuvre dans le cosmos bien avant la vie, sous une forme plus rudimentaire. Sur Terre, une planète particulièrement favorable, ils connaissent une accélération extraordinaire et produisent des résultats infiniment plus sophistiqués. L’écart entre la vie dans son état actuel et ses prémisses les plus anciennes – les ingrédients chimiques élémentaires présents dans l’espace – pose un défi considérable aux scientifiques, tant ce fossé est large. Ce qui rend l’équation si difficile, c’est tout simplement la façon dont travaille le Grand Bricoleur de Génie. S’il s’agissait du Grand Horloger de Paley, il y a longtemps qu’on aurait retracé comment et pourquoi il a fabriqué une montre : les principes de base seraient apparus facilement en observant le balancier, le ressort et les rouages. L’image est séduisante, cependant elle ne s’applique pas du tout au monde vivant : la nature ne procède aucunement à la manière d’un horloger. Elle ne s’assigne pas d’objectif et ne conçoit pas de plan d’ensemble. Elle se contente d’utiliser le hasard pour trouver de petites inventions de proche en proche, elle sélectionne systématiquement les meilleures, et cela à l’infini. Elle ne suit pas le cheminement de l’ingénieur mais plutôt celui d’une personne cherchant la sortie d’un labyrinthe par essais et erreurs. De là vient toute la difficulté de la tâche du chercheur : pour comprendre les origines de la vie, il lui faut décrypter une sorte de mouvement brownien sur des milliards d’années d’histoire. Un concept important pour appréhender l’évolution a été explicité par Kauffman : le possible adjacent, déjà évoqué au chapitre 1. Dans l’espace incommensurable des combinaisons possibles des polymères, la nature avance à tâtons en s’appuyant sur la catalyse. Parmi les incessantes mutations apparaissant aléatoirement, il arrive qu’une d’entre elles soit déterminante. Par exemple, les premières cellules se nourrissaient de minéraux en solution, mais ces ressources ont fini par s’épuiser. Un jour, une mutante est devenue capable de tirer de l’énergie de la lumière solaire : elle a fait apparaître une nouvelle 285

Partie 3. L’apparition de la vie sur Terre

molécule, la chlorophylle, apte à transformer la lumière en énergie chimique. La cellule ainsi dotée a cessé de dépendre des nutriments minéraux. Dès lors, cette mutation remarquable a été immédiatement retenue par la sélection et s’est rapidement répandue. L’invention de la chlorophylle, à l’origine de l’ensemble du monde végétal, était un événement latent. Le jour où, par le hasard, il est advenu, une porte s’est ouverte d’un seul coup, débouchant sur un champ d’opportunités immense. Kauffman appelle possible adjacent un tel territoire de potentialités, proche et pouvant devenir soudainement accessible. Pour prendre un exemple humain, l’apparition de la machine à vapeur a déclenché une avalanche d’innovations provoquant la révolution industrielle. Avant, la mécanisation était très limitée. La machine à vapeur était une potentialité dormante, dans un espace de possibilités disjoint mais accessible (adjacent). Dès son invention, toute la société s’est engouffrée dans la brèche pour se mécaniser. Il en va de même pour la nature car elle a horreur du vide : si un nouveau champ d’opportunités devient accessible par le fait du hasard, elle s’y précipite frénétiquement. Alors, elle s’y promène les yeux fermés et l’explore à tâtons. Elle y trouve sans cesse une foison de variations et d’améliorations, jusqu’au jour où un autre domaine du possible adjacent s’ouvre soudainement et engendre à son tour une nouvelle explosion de diversité. Ce scénario se déroule depuis près de 4 milliards d’années. Comment retracer un tel parcours essentiellement aléatoire ? Le défi posé aux biologistes lancés à la recherche de nos origines, est de reconstituer le chemin en zigzags d’un bricoleur aveugle. Qui aurait prévu que des mammifères à fourrure, dont les lointains ancêtres étaient des poissons, retourneraient un jour dans l’eau des océans pour se transformer de nouveau en poissons (ou plus exactement en cétacés) ? L’évolution est ainsi faite de détours imprévisibles, d’essais et d’erreurs. Sachant combien le thème de l’origine de la vie est ardu, il me paraît utile de rendre hommage aux chercheurs ayant eu le courage 286

Les clés secrètes de l’Univers

L’émergence des gènes

de s’y consacrer, en évoquant maintenant les principales tentatives lancées au xxe siècle et leurs apports. L’ÉNIGME DE L’ŒUF ET DE LA POULE Les recherches sur nos origines sont allées longtemps d’idée en idée, apportant différentes pierres à l’édifice de la connaissance, mais sans qu’un scénario vraiment crédible ne s’en dégage. Elles commencent dans les années 1920, avec le Russe Alexandre Oparine qui étudie l’encapsulation des polymères dans des gouttes lipidiques appelées coacervats. Puis le Britannique John Haldane énonce la thèse de l’abiogenèse, c’est-à-dire l’émergence de la vie à partir du monde minéral. Cette idée, pressentie par Darwin, est celle défendue à travers ce livre. Ensuite, les travaux se penchent sur la catalyse, seul moyen de développer la complexité chimique du vivant. Certaines surfaces minérales ont la propriété de coller les molécules, favorisant ainsi leur rapprochement et leurs réactions. C’est le cas des argiles et de la pyrite, deux catalyseurs naturels. Différentes thèses fondées sur les caractéristiques de ces matériaux voient le jour, cependant aucune ne parvient à expliquer l’apparition de la vie, faute de répondre à la question cruciale de la reproduction : comment une molécule a-t-elle pu, la première fois, produire une copie d’elle-même ? Alors, la science cherche à attaquer de front cette pierre d’achoppement : l’autoréplication au stade primordial. Comme la vie primitive repose essentiellement sur deux types de polymères, les protéines et l’ARN, deux classes de théories sont avancées : – celles dites protein first, postulent que tout a dérivé des protéines à l’origine ; – les autres, ARN first, placent l’ARN en premier. Curieusement, il s’agit très exactement du débat de l’œuf et de la poule : pour avoir une poule, il faut un œuf et réciproquement. Qu’y avait-il à l’origine ? En recherchant une molécule capable de s’auto­répliquer, on rencontre inévitablement le même dilemme. Les protéines (la poule) sont invariablement engendrées à partir de l’ARN 287

Partie 3. L’apparition de la vie sur Terre

(l’œuf). Quant à ce dernier, il ne peut se répliquer seul sans l’aide catalytique des précédentes. On ne sait pas dénouer cette boucle. Les deux types de théories de la vie n’ont jamais débouché, faute de résoudre cette énigme. En termes scientifiques, cette distinction a été étudiée et généralisée à l’ensemble du règne du vivant de la façon suivante : – la « poule » symbolise le phénotype. On désigne par ce terme, les traits de l’être lui-même, par exemple le fait d’avoir des plumes blanches ; – l’« œuf » symbolise le génotype. Il s’agit de l’information génétique stockée dans l’ARN au début, ou dans l’ADN plus tard : par exemple, le gène qui détermine la couleur blanche des plumes fait partie du génotype de l’individu. Très grossièrement, on peut dire que le phénotype se réfère au corps et le génotype au gène. Ainsi, la petite taille d’une personne est un trait de son phénotype, c’est-à-dire son organisme. Si l’origine de cette caractéristique est génétique, on en trouvera aussi la trace dans son génotype. Dans ce cas, ce trait se transmettra aux générations suivantes. Au contraire, si sa petite taille a été provoquée par un facteur environnemental comme la malnutrition, elle n’a rien à voir avec le génotype et donc, ne se retrouvera pas chez les descendants. La distinction entre ces deux concepts provient tout simplement du découplage de l’information vu précédemment, une étape majeure survenue dans l’évolution des ensembles autocatalytiques : un type de polymère, l’ARN, s’est approprié le génotype, tandis que l’autre, la protéine, se réservait le phénotype. Vous disposez désormais de la clé pour répondre au dilemme : l’œuf existait-il avant la poule ou l’inverse ?… Voici la solution. Les ancêtres de l’un et de l’autre, c’est-à-dire l’ARN et les protéines, étaient tous deux présents dans la soupe initiale des ensembles autocatalytiques. Les deux se retrouvent aussi dans le cosmos. Au départ, ces molécules ne jouaient pas les deux rôles distincts qu’on leur attribue aujourd’hui. Elles se contentaient 288

Les clés secrètes de l’Univers

L’émergence des gènes

de participer conjointement aux réactions chimiques à l’intérieur de la protocellule. Puis leurs rôles se sont progressivement séparés avec le découplage de l’information : peu à peu, l’ARN s’est spécialisé dans la mission de l’œuf, la protéine dans celui de la poule, et ceci s’est produit en même temps. Lequel a existé avant l’autre ? Les deux mon capitaine ! Revenons à l’histoire des sciences : butant sur ce dilemme, les recherches se tournent en premier vers les protéines car elles composent l’essentiel de la poule (son phénotype). Cherchant à répondre à la question « une protéine a-t-elle pu se dupliquer elle-même ? », ces études parviennent à une impasse. On ne voit pas comment elle pourrait transmettre son information. Cette affirmation est tellement prouvée scientifiquement que Crick l’a baptisée dogme de la biologie. Les protéines peuvent faire énormément de choses, cependant une fonction leur échappe irrémédiablement : véhiculer l’information. Se répliquer par elles-mêmes est donc hors de portée. Alors, on délaisse la poule et l’on se tourne vers l’œuf en se demandant si un brin d’ARN aurait pu se reproduire tout seul. Là aussi, c’est en vain : on ne parvient pas à imaginer cela sans l’aide de protéines. Les recherches sur l’« œuf » aboutissent à la même impasse. Pourtant, une découverte importante les relance en 1982. Le prix Nobel Thomas Cech met en évidence une nouvelle caractéristique de l’ARN : il est capable de catalyse, comme les protéines. Concrètement, un de ses brins peut se replier, adopter une forme unique et influencer une réaction chimique. On imagine alors un brin d’ARN parvenant à fabriquer un double de lui-même par autocatalyse. Cette molécule serait en quelque sorte un « œuf-poule », susceptible d’être à l’origine de la vie. Malheureusement, l’activité catalytique de l’ARN reste trop limitée, ce qui obère les chances de trouver une telle chimère. À ce jour, la découverte de Cech n’a conduit à rien sur nos origines. Elle a néanmoins laissé un enseignement majeur : à l’époque des hypercycles et des ensembles autocatalytiques, l’ARN a probablement joué un rôle clé, peut-être plus encore que les protéines. Pour qualifier 289

Partie 3. L’apparition de la vie sur Terre

cette époque primitive, certains utilisent désormais le terme de monde de l’ARN. L’énigme demeure irrésolue et ces différentes théories restent désarmées face à elle. Après tout, ont-elles posé la bonne question ? Comme vous l’avez certainement remarqué dans la vie courante, si vous êtes confronté à un dilemme du genre « faire A ou faire B », il suffit parfois d’élargir la réflexion pour trouver une nouvelle option : faire les deux ! Dans cet esprit, Kauffman a cherché à résoudre le mystère en partant d’une soupe de polymères contenant à la fois de l’ARN et des protéines, voire tout autre type de polymère. Dans ce sens, les ancêtres de l’œuf et de la poule étaient présents ensemble et de façon indifférenciée au départ. La thèse avancée dans cet ouvrage relève de cette approche dite symbiotique. Elle me paraît aujourd’hui la plus crédible, tout en restant éminemment spéculative et théorique. Je félicite le lecteur d’être parvenu jusqu’ici sans se décourager. Sans aucun doute, la genèse de la vie est le chapitre le plus ardu de cet ouvrage. Désormais, les difficultés théoriques sont derrière nous. Au stade où nous sommes arrivés, le vivant est là, doté des mécanismes principaux toujours à l’œuvre de nos jours. L’évolution darwinienne va s’occuper de la suite. Nous avons décrit un scénario possible de l’apparition de la vie, situé il y a environ 4 milliards d’années. Nous allons voir maintenant comment elle s’est développée durant une première phase interminable de plus de 3 milliards d’années, pendant laquelle seules les bactéries et autres êtres monocellulaires peuplaient la Terre. Nous devrions plutôt parler d’une longue stase, car la nature a fait du sur-place pendant tout ce temps : les bactéries n’ont quasiment pas changé. Après un démarrage en trombe à l’origine, le Grand Bricoleur de Génie semble avoir quelque peu procrastiné. Nous verrons ensuite comment l’évolution s’est réveillée avec ­l’apparition des êtres multicellulaires, il y a 800 millions d’années, puis s’est accélérée jusqu’à l’émergence d’Homo sapiens.

290

Les clés secrètes de l’Univers

11 Trois milliards d’années de vie monocellulaire

« Nous ne percevons rien de ces lents changements en pro­ gression, jusqu’à ce que la main du temps ait marqué le long écoulement des âges. » Charles Darwin

Depuis les premières cellules jusqu’à Homo sapiens, nous allons poursuivre l’ascension du Mont Complexité. À l’origine, nous partirons des êtres les plus simples : les bactéries, petits sacs d’eau contenant de l’ADN, de l’ARN et des protéines. À l’arrivée, ce sera la sophistication la plus extrême : l’Homme avec son cerveau doté d’autant de neurones qu’il existe d’arbres dans la forêt amazonienne ou d’étoiles dans la Galaxie (une centaine de milliards). Sans parler d’organes aussi élaborés que l’œil, le cœur ou la main. Quel chemin accompli en 3 milliards et demi d’années ! Pourtant, cette phase de la grande histoire 293

Partie 4. Des premiers êtres monocellulaires à l’Homme

de l’Univers est la plus accessible sur le plan théorique. Tout se ramène à un mécanisme très primitif : l’évolution darwinienne ou plus exactement, la descendance avec modifications. Pas d’espace-temps courbe, pas d’équations d’Einstein, pas d’autocatalyse ni d’hypercycles… mais une seule règle des plus simples, déjà évoquée. Une fois de plus, le monde va nous montrer sa nature profonde : sa propension à fabriquer la plus grande complexité à partir des lois les plus élémentaires. LA THÉORIE LA PLUS SIMPLE ET LA PLUS FRUCTUEUSE La recette qui nous intéresse ici se décrit très bien par l’exemple classique de la girafe. Son ancêtre, une sorte d’okapi, mange les feuilles des arbres. Si par le fait du hasard, l’un de ces animaux présente un cou un peu plus long que celui de ses congénères, il dispose de plus de nourriture en accédant plus haut dans le feuillage. S’alimentant mieux, il possède une chance accrue de vivre longtemps et d’engendrer une progéniture nombreuse. Dès lors, toute variation allongeant le cou sera favorisée à travers les générations et s’imposera dans le patrimoine génétique de la descendance. Ainsi naîtront de proche en proche, des variantes d’okapis au cou de plus en plus long. Après quelques centaines de millénaires, cela débouchera sur une nouvelle espèce : la girafe, dont la taille se sera stabilisée à la hauteur des arbres. C’est l’illustration de l’adaptation au milieu par la sélection naturelle. En faisant le tour de l’Amérique du Sud à bord du vaisseau le Beagle, le jeune Darwin découvre ce principe par l’observation des animaux dans différentes contrées. Le thème de l’évolution n’était pas nouveau : certains, dont Jean-Baptiste de Lamarck, avaient déjà clairement énoncé que les espèces n’étaient pas fixes. À cette époque où l’on ignore l’existence des gènes et le mode de transmission de l’hérédité, les causes de l’évolution sont obscures. Le savant anglais va les clarifier, démontrant d’immenses talents de visionnaire. Pour Lamarck, l’explication réside dans l’héritage des caractères acquis : en tirant toute sa vie sur son cou, l’ancêtre de la girafe était supposé transmettre à sa progéniture une disposition à s’allonger. L’usage ou le non-usage 294

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

tendait à modifier les caractères de la descendance. Darwin ne nie pas que cela puisse exister, mais il exprime sans ambiguïté qu’il ne faut pas y voir le moteur qui pousse les espèces à évoluer. Selon lui, elles changent par la combinaison de deux mécanismes. D’abord, les individus ne sont pas tous identiques : à chaque génération, se produisent de petites variations par le fait du hasard. Ensuite, comme ils sont en concurrence pour occuper une niche, ceux dotés de différences favorables s’en tirent mieux que les autres. À la longue, les sujets les plus adaptés imposent systématiquement leurs gènes dans la population, tout simplement parce qu’ils ont une descendance plus nombreuse.

Figure 60 | Charles Darwin découvre l’évolution naturelle à l’âge de 25 ans, mais il attendra 25 années de plus pour publier sa théorie et provoquer un tsunami dans la pensée humaine.

295

Partie 4. Des premiers êtres monocellulaires à l’Homme

Avec la découverte de l’ADN en 1953, le développement de la génétique donnera entièrement raison à Darwin. Depuis, nous savons que ces variations sont des mutations dues à un faible taux d’erreur statistique lors de la réplication du génome. Quant à la théorie ­lamarckienne de la girafe dont les efforts influenceraient la morphologie de sa progéniture, elle perd tout son sens avec la génétique : la femelle, comme dans l’espèce humaine, crée son stock de cellules sexuelles (ovocytes) avant sa propre naissance, à un moment où elle n’a pas encore eu l’occasion d’étirer son cou ! Voici donc comment se résume, en quelques mots, tout le substrat théorique de l’évolution : – Une entité se réplique. – Des erreurs apparaissent dans les copies. – Elles introduisent des variations dans la descendance. – Les variantes les mieux adaptées au milieu ont plus de chances de survivre et de se reproduire : elles sont sélectionnées. – Ainsi, de génération en génération, l’espèce accroît son niveau d’adaptation. Nous avons déjà cité ce mécanisme en présentant les prémices de la vie. Il était à l’œuvre de façon très embryonnaire dès les tout débuts, quand l’environnement terrestre a commencé à s’enrichir chimiquement : concurrence entre molécules d’abord, puis entre hypercycles, puis entre protocellules et enfin entre bactéries. Il a largement inspiré la définition de la vie que nous avons énoncée au chapitre 8. Il suffit ainsi de quelques lignes pour décrire cette procédure, on ne peut plus simple. Pourtant, depuis la cellule la plus élémentaire, elle a mené aux êtres les plus sophistiqués dont l’Homme. C. de Duve écrit à ce sujet : « Ce qui convertit le fouillis du hasard en ordre, c’est la sélection naturelle (…). En partant d’un bruit de fond, la sélection a réussi toute seule, à en extraire toute la musique de la biosphère. » Cette règle, à la fois si simple et si fructueuse, laisse penser que, dès qu’un milieu devient suffisamment riche chimiquement, comme cela s’est produit sur Terre, la montée vers la complexité doit se déclencher 296

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

inexorablement ici ou là. La vie doit apparaître et les êtres vivants atteindre de hauts degrés de sophistication pourvu que les conditions environnementales soient favorables et durables. Pour vérifier cette thèse, une part importante de l’astronomie et de l’astronautique se dédie aujourd’hui à la recherche de la vie dans le cosmos. L’ÉVOLUTION DARWINIENNE, UNE MARTINGALE TOUJOURS GAGNANTE Les créationnistes, opposants à cette théorie, n’admettent pas qu’un processus aussi rudimentaire puisse faire émerger toute la complexité des êtres vivants et plus encore, celle de l’Homme. Pourtant, ce procédé construit lentement et sûrement les systèmes les plus improbables, comme le dit le biologiste et statisticien R. A. Fisher : « La sélection naturelle est un mécanisme pour engendrer l’improbabilité au degré le plus extrême. » Pour le comprendre, nous pouvons comparer l’évolution darwinienne à une martingale dans les jeux de hasard. Il s’agit d’une ­procédure inventée pour gagner à coup sûr au casino. Voici la plus simple d’entre elles, en prenant l’exemple de la roulette. L’idée est de mettre de côté une cagnotte qui va grandir systématiquement au cours du jeu, quels que soient ses aléas : – Je joue 1 € sur rouge et dans la suite du jeu, je jouerai toujours rouge. – Si j’ai gagné à ce premier tirage, j’empoche 2 €. J’en mets 1 dans ma cagnotte et utilise l’autre pour rejouer. La martingale continue. – Si au contraire, j’ai perdu, je ne me démoralise pas : je joue de nouveau (rouge), mais cette fois je mise le double, soit 2 €. – Si je gagne, j’empoche 4 €. J’en mets un dans ma cagnotte, j’en garde deux qui remboursent ma mise de fonds, et il me reste 1 € pour recommencer à jouer. La martingale reprend. – Et ainsi de suite. Vous avez compris : j’accumule régulièrement des gains dans cette cagnotte sans ne jamais rien perdre sauf très temporairement. Autrement dit, à la longue, je gagne à coup sûr ! 297

Partie 4. Des premiers êtres monocellulaires à l’Homme

Alors pourquoi les casinos ne sont-ils pas envahis de joueurs pratiquant ce mode d’emploi ? Tout simplement parce que, contrairement aux apparences, le succès n’a rien d’assuré. La faille réside dans le mot temporairement. Si la roulette produit une longue série de noirs, je dois disposer de suffisamment de trésorerie pour doubler la mise à chaque fois, jusqu’à ce que sorte le rouge. Voyant ainsi ma mise croître exponentiellement, je risque d’épuiser mes réserves et de mettre fin à ma tactique faute de moyens. Arrivé à ce stade, j’ai perdu tout l’argent que j’avais apporté pour jouer, avec peut-être une grosse dette de jeu en plus. Inversement, si j’ai beaucoup de chance, une très longue série de rouge se produit. Alors, je gagne sans arrêt. Certaines martingales peuvent ainsi faire sauter la banque c’est-à-dire provoquer la banqueroute du casino. Pour éviter que les joueurs téméraires ou la banque ne terminent en faillite, les tables de jeu paient des gardes dont une des tâches est de vérifier que personne ne joue mécaniquement une martingale. Si vous essayez, vous serez rapidement démasqué et reconduit à la sortie. Une photo de vous sera prise et retransmise à tous les autres casinos, lesquels disposent à l’entrée de gardiens physionomistes. En quoi l’évolution darwinienne ressemble-t-elle à une martingale  ? D’abord, elle repose aussi sur une procédure répétitive constituée de règles très simples. En mathématiques, un tel jeu d’instructions ­s’appelle un algorithme. Un automate élémentaire pourrait l’exécuter. La seconde raison est que les deux phénomènes sont systématiquement gagnants… au moins théoriquement : la martingale permet d’accumuler une cagnotte, quant à l’évolution, elle conduit à des êtres sans cesse plus adaptés. Cependant, sur le plan pratique, ils ne peuvent réussir indéfiniment. Au casino, la martingale se termine tôt ou tard en désastre pour l’une des parties, car ni l’établissement ni le joueur ne disposent d’une caisse infiniment remplie. Dans le cas de la nature, une limite existe aussi par l’épuisement des ressources, mais elle est repoussée très loin. Si l’énergie solaire alimente généreusement toutes les espèces (directement par la lumière ou par l’intermédiaire de la végétation), celles-ci ont tout loisir de produire des descendants 298

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

à l’infini comme autant de tirages à la roulette. La biosphère donne l’image d’un joueur disposant d’immenses réserves financières. De plus, elle bénéficie de beaucoup de temps pour poursuivre inlassablement sa martingale : le casino est ouvert depuis 3,7 milliards d’années ! Et le Soleil nous en promet 3 ou 4 de plus. Dès l’ouverture du jeu, en un temps étonnamment bref, la nature va créer la bactérie. Celle-ci représente toujours aujourd’hui le gros de la biomasse, même si des êtres bien plus complexes sont apparus au cours des âges. QU’EST-CE QU’UNE BACTÉRIE ? Les cellules décrites dans les chapitres précédents donnent une bonne idée de la bactérie la plus primitive : une vésicule d’eau d’une taille de l’ordre du micron, abritant des macromolécules (ADN, ARN, protéines) et divers produits chimiques (fig. 61). Combien de types de protéines contenaient-elles ? Nous ne le savons pas. Cependant, des calculs laissent entendre qu’il leur en fallait un minimum de 200 pour disposer d’un métabolisme élémentaire et être capables de reproduction. Au cours du temps, l’évolution a sophistiqué les différents composants de la bactérie. Le premier changement important a concerné le génome. Après s’être localisée dans des brins d’ARN, l’information génétique s’est transcrite dans une autre molécule très ­similaire : l’ADN. Comparée à la première, elle est plus résiliente. Par ailleurs, ses brins s’apparient en formant la célèbre double hélice. Cette structure favorise une reproduction très précise : lors de la division ­cellulaire, l’hélice se déroule et se sépare en deux brins. Chacun est porteur de l’information complète et permet de reconstituer une nouvelle double hélice identique. D’autres innovations ont affecté la structure et le fonctionnement des bactéries : – Leur membrane s’est durcie : en s’associant à des protéines ou à des sucres, elle a évolué en une coque rigide prenant généralement une forme de sphère ou de bâtonnet. 299

Partie 4. Des premiers êtres monocellulaires à l’Homme

– Leur aptitude à se nourrir s’est améliorée, notamment en envoyant des enzymes dans le milieu extérieur pour digérer les aliments situés à proximité. Ensuite, leur membrane absorbe les nutriments décomposés et devenus assimilables (des acides aminés par exemple). C’est le principe de la digestion externe. – Elles se sont dotées d’organes élémentaires faits de protéines, tel le flagelle permettant à beaucoup d’entre elles de se déplacer. – Enfin, elles ont mis au point toutes sortes de méthodes pour attaquer les autres cellules par émission de toxines ou par injection de substances à travers leur membrane. Ces tactiques agressives font qu’une partie des bactéries est nocive pour notre organisme. Juste retour des choses, nombre de leurs stratagèmes ont été repris et exploités par l’Homme pour lutter contre elles : ainsi sont nés les antibiotiques.

Figure 61 | Une bactérie (flagellée).

Derrière l’apparente simplicité de ces êtres élémentaires, se cache un fonctionnement déjà complexe reposant sur des protéines sophistiquées. Développons l’exemple intéressant du flagelle, cet organe de locomotion de certaines bactéries, rappelant celui dont sont dotés les spermatozoïdes. Elles l’utilisent comme propulseur pour se diriger vers les aliments dont elles perçoivent la présence. En analysant sa composition, nous découvrons que ce n’est pas l’Homme qui a 300

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

inventé la roue, mais la bactérie ! En effet, il s’agit d’une tige semirigide tournant à la manière de l’hélice d’un bateau. Son attache à la membrane est formée d’un ensemble de roues concentriques constituant un véritable moteur électrique (fig. 61) : le stator est accroché à la coque et le rotor est solidaire du flagelle. À quelle vitesse cet équipage peut-il tourner ? Les espèces les plus performantes, championnes de la locomotion, arrivent à 1 000 tours par minute ! Le plus étonnant à propos de ces organes déjà très sophistiqués, est qu’ils s’auto-assemblent. De même qu’il n’existe pas dans le règne du vivant, de Grand Horloger qui concevrait les pièces détachées, il n’existe pas plus de Grand Ouvrier pour les assembler. Comment donc un flagelle rotatif, mu par un moteur électrique, peut-il se monter spontanément ? La bactérie se limite à en fabriquer les composants : il s’agit d’une quarantaine de protéines dont les plans sont inscrits dans le génome. Ensuite, celles-ci se combinent par elles-mêmes pour construire le flagelle, telles des pièces de Meccano « sachant » à quel endroit elles doivent venir se placer et dans quel ordre. Cette construction se réalise par étapes : un premier composant se fixe à la membrane, un second s’articule avec le précédent, puis vient un t­ roisième, etc. Pour comprendre comment ces protéines peuvent s’auto-assembler, il faut revenir à la figure 48 du chapitre 8, où nous voyions l’une d’entre elles s’attacher à une molécule d’alcool. Ici intervient le même mécanisme d’attraction électrique entre des molécules si elles ont la forme appropriée pour s’accoler. La pièce de Meccano ne « sait » pas où elle doit se rendre : elle se contente de se promener dans le liquide de la cellule. Quand le hasard l’amène à l’endroit où elle doit se fixer, l’assemblage se fait spontanément, tout simplement parce qu’elle dispose exactement des contours idoines. Les deux s’unissent solidement par le seul jeu des attractions électriques, car elles ont été faites l’une pour l’autre. Une par une, toutes les pièces finissent par s’accoupler dans le bon ordre bien que les rencontres soient purement aléatoires : le stator d’abord, puis le rotor 301

Partie 4. Des premiers êtres monocellulaires à l’Homme

et enfin le flagelle. On retrouve ce principe selon lequel la recette de cuisine est inscrite dans les ingrédients. Comment expliquer que ces molécules suivent si fidèlement une telle partition musicale en l’absence de chef d’orchestre ? C’est encore la sélection naturelle qui est à l’œuvre : si au cours de l’évolution, au gré d’une mutation, apparaît une protéine capable de s’auto-­ assembler avec les autres pour constituer un flagelle plus performant, elle est retenue. Alors, elle se transmet à toute la descendance. Si au contraire, une mutation n’améliore pas l’organe, voire le dégrade, elle est tout simplement rejetée, toujours du fait de la concurrence entre bactéries. En imaginant cette martingale conduite pendant des millions d’années sur des milliards de milliards de milliards… de milliards d’individus, nous comprenons que les protéines les plus efficaces aient été sélectionnées pour fabriquer les formes les plus improbables, tel le flagelle et son moteur électrique. Outre ces caractéristiques ingénieuses, les bactéries se distinguent du reste du vivant par leur extrême diversité. Nous en connaissons une dizaine de milliers de types, essentiellement les plus dangereuses car, bien évidemment, la recherche s’est toujours focalisée sur elles. Cela a commencé à la fin du xixe siècle, avec la découverte du staphylocoque et du bacille de Koch. Cependant, il existe bien plus d’espèces : entre 5 et 10 millions, qui nous sont tout simplement inconnues. Depuis une vingtaine d’années, nous commençons à comprendre l’importance de celles habitant notre corps en symbiose avec lui : le microbiote. Quantitativement chez un individu, ces bactéries sont aussi nombreuses que nos cellules, mais étant bien plus petites, elles représentent un poids plus faible : de l’ordre d’un kilogramme pour un homme. On les trouve principalement dans l’intestin, sur les muqueuses et sur la peau. On a identifié environ 5 000 espèces dont on étudie intensément les effets sur notre santé. La multiplicité de ces parasites symbiotiques pose une question sur la nature humaine : Homo sapiens est-il un individu ou bien plutôt un écosystème ? 302

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

Grâce à leur simplicité, les bactéries se reproduisent selon un cycle très court allant de quelques minutes à quelques heures. En leur sein, le génome (de l’ADN) se duplique en permanence. Dès qu’un brin complet est synthétisé, elles se divisent. Cette reproduction exubérante est leur grande force : elles envahissent toute niche extrêmement rapidement. Sur Terre, si elles pouvaient disposer d’une quantité de nourriture illimitée, il leur suffirait de quelques jours pour atteindre une masse totale égale à… celle de la planète. Elles font toujours le plein dans toutes les niches possibles et imaginables, sous la seule contrainte de l’alimentation disponible. La profusion de leur descendance s’accompagne d’un nombre très élevé de mutations et leur confère une capacité d’adaptation infinie. Nous pouvons dire qu’au casino de la vie, elles sont imbattables pour dérouler la martingale de Darwin. LES BACTÉRIES DOMINENT LA BIOSPHÈRE Quitte à saper un peu plus le moral de ceux qui verraient encore l’Homme au centre de l’Univers, je dirais que nous ne dominons même pas notre propre planète : les bactéries y règnent en maîtres depuis au moins 3,5 milliards d’années. Numériquement, que pèsent nos 7,55 milliards d’Homo sapiens devant leur nombre dans l’environnement ? Il s’en trouve 10 milliards dans un seul gramme de terre près des racines d’une plante (précisons : dans la nature, pas dans une culture, car les sols y ont été considérablement appauvris par l’usage de produits chimiques). Nous savons organiser notre vie en exploitant les ressources de la planète, mais elles tirent bien mieux leur épingle du jeu : elles ont colonisé extensivement les niches les plus diverses. Outre les océans et la surface des continents, nous les rencontrons dans les nuages ainsi qu’à plusieurs kilomètres de profondeur dans le sous-sol rocheux. Elles vont jusqu’à se développer dans les milieux les plus extrêmes : cheminées volcaniques sous-marines où la température atteint 170 °C, glaces de l’Antarctique à – 30 °C, fosses océaniques où la pression dépasse 1 000 atmosphères, eaux très 303

Partie 4. Des premiers êtres monocellulaires à l’Homme

salées telles celles de la mer Morte, et même des lacs contenant une forte teneur en arsenic. Les bactéries sont capables de dévorer à peu près tout ce qui existe sur Terre, y compris la roche ou les métaux. En 2017, nous avons fait une découverte étonnante : les restes en acier du Titanic sont rongés par une espèce baptisée Halomans titanicae. Comme les bactéries maximisent toujours leur population dans une niche donnée, on estime qu’elles auront raison de l’épave en une vingtaine d’années. Dans le fameux continent du plastique où des déchets s’accumulent au milieu du Pacifique sur une surface de trois fois celle de la France, on y a trouvé une nouvelle souche bactérienne apparentée à celle du choléra, qui se nourrit… du plastique ! Nous ne représentons pas grand-chose face à elles. À l’époque des épidémies de peste ou de typhus, l’Homme était plus modeste ­qu’aujourd’hui devant les attaques microbiennes. Au xxe siècle, le développement des antibiotiques nous a donné un sentiment ­d’invincibilité sur lequel nous devons désormais nous interroger. Ces thérapies reposent en général sur différentes tactiques naturelles inventées par les bactéries pour se détruire entre elles. En les reproduisant chimiquement, nous avons mis au point des armes létales pour nous en débarrasser. Tout commence en 1928, quand Alexander Fleming découvre par hasard un tel mécanisme : dans une culture microbienne, il constate que des moisissures empêchent la reproduction des staphylocoques. La substance en cause, la pénicilline, est identifiée, fabriquée, puis testée par les militaires au front dès 1940. À cette époque à Boston, un incendie dramatique dans une boîte de nuit brûle 400 personnes : beaucoup seront sauvées grâce à l’antibiotique. Des dizaines de milliers de soldats blessés au combat le seront aussi. S’ensuivra une course au développement de ces médicaments miracles, qui finiront par soigner toutes les maladies microbiennes. Ce succès n’allait pas durer longtemps. Dès les premières années de ses recherches, Fleming s’était rendu compte que des germes résistants apparaissaient très vite lors des manipulations. Il avait déjà prévenu la communauté scientifique qu’il faudrait utiliser ces remèdes avec 304

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

parcimonie. La résistance aux antibiotiques se comprend facilement : ils s’appuient tous sur des méthodes naturelles de lutte entre bactéries. Il existe donc, disséminées dans le monde bactérien, toutes sortes d’antidotes inventées pour se protéger. Elles se matérialisent par des gènes de résistance. Ces derniers se propagent très rapidement entre microbes car ils se livrent à un brassage génétique permanent en échangeant entre eux des fragments d’ADN, les plasmides (fig. 61). Ceux-ci se communiquent horizontalement au sein des colonies bactériennes, beaucoup plus vite que s’ils devaient se transmettre verticalement par l’hérédité, génération après génération. Les bactéries ont développé ce moyen apparenté à la sexualité, pour court-circuiter l’évolution darwinienne et s’adapter plus promptement. Aujourd’hui, il faut admettre que la plupart des microbes sont déjà devenus plus ou moins résistants à un ou plusieurs antibiotiques. Nous sommes souvent obligés d’en tester deux ou trois avant de trouver celui qui agira sur un germe donné. D’ailleurs, par cette pratique, nous ne faisons qu’accélérer l’apparition de souches multirésistantes. Depuis quelques années, nous assistons à la mort de patients qu’aucun antibiotique n’a pu soigner. La grande époque de répit ouverte avec la pénicilline lors de la dernière guerre semble approcher de sa fin. Malheureusement, la relève par de nouveaux antibiotiques tardera à venir pour deux raisons. La première est qu’à ce jour, tous les mécanismes d’origine naturelle ont été identifiés et exploités : désormais, il faut en inventer d’autres en partant d’une feuille blanche, ce qui suppose des études infiniment plus longues. La seconde est financière : aucun laboratoire pharmaceutique ne se lance dans de telles recherches coûteuses et aléatoires, étant donné le prix très bas des antibiotiques sur le marché. L’usage immodéré de ces médicaments dans l’alimentation du bétail et pour les soins aux particuliers dans les pays en voie de développement, favorise la propagation de gènes de résistance. Selon C. de Duve, si nous n’agissons pas rapidement pour corriger le cours des choses, la sélection darwinienne pourrait revenir en flèche sur notre espèce et se venger. 305

Partie 4. Des premiers êtres monocellulaires à l’Homme

Il est néanmoins probable qu’avec les progrès futurs de la génétique, nous conservions le dessus dans la bataille contre les bactéries. Pourtant, une autre situation peut provoquer leur revanche : un désastre planétaire ou cosmique comme la chute d’un gros astéroïde. Un bolide de 10 km de diamètre, tel celui ayant décimé les dinosaures au Crétacé, détruirait la majorité de l’humanité par famine et intoxication. Une collision avec la comète Swift Tuttle, qui a la mauvaise idée de croiser près de notre planète tous les 133 ans, serait un cataclysme 27 fois plus énergétique, nous plongeant dans un nuage de poussières toxiques pour des dizaines d’années. Il en serait fini de la végétation, de tous les mammifères dont Homo sapiens, et de la plupart des insectes, mais non des bactéries ! Passé cette période, elles se retrouveraient seules en ordre de marche pour recoloniser toutes les niches sur Terre, comme il y a 3,7 milliards d’années. On peut imaginer que la montée vers la complexité reprenne. Cependant, si jadis elles ont mis 3 milliards d’années à s’organiser en êtres multicellulaires, elles pourraient bien rester de nouveau seules pendant 3 milliards d’années. Or c’est le temps prévu pour l’arrivée d’une autre catastrophe : l’échauffement final du Soleil et la destruction du Système solaire. Dans l’hypothèse, heureusement peu probable, de la chute d’une grosse comète sur Terre, le passage de l’Homme sur notre planète n’aurait été qu’un épisode éphémère de 300 000 ans. Sur 7 milliards d’années de domination bactérienne, cela représenterait 0,004 % de son ère ! On peut imaginer un autre cataclysme plus improbable encore et bien plus grave : une supernova explosant près du Système solaire. Le rayonnement dégagé stériliserait la faune et la flore. Pourtant, les bactéries survivraient à coup sûr, réfugiées au fond des fosses océaniques ou à des kilomètres de profondeur dans le sous-sol rocheux. Certains spécimens résistants à la radioactivité sont capables de supporter des doses de radiations 5 000 fois supérieures à celles tolérées par l’Homme. Souhaitons que nous ne subissions jamais un tel destin : il donnerait aux bactéries l’occasion de se 306

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

venger d’Homo sapiens, cette espèce qui durant un temps très bref, aura eu l’impudence de les taquiner avec ses antiseptiques et ses antibiotiques. LE VIVANT POURSUIT-IL UNE FINALITÉ VERS LA COMPLEXITÉ ? Cet appel à la modestie face aux bactéries nous mène à une question fondamentale : existe-t-il une finalité vers la complexité ? L’histoire, depuis l’abiogenèse jusqu’à l’Homme, donne cette impression. Pourtant cela ne coule pas de source, loin de là. Nous allons voir que des arguments objectifs laissent même penser l’inverse. Que dit la théorie de l’évolution à ce sujet ? Contrairement à une idée reçue, la sélection naturelle n’a pas pour effet premier la montée vers la complexité. Elle vise uniquement l’adaptation au milieu. Si elle œuvrait pour engendrer la complexité, les bactéries n’auraient pas accaparé toutes les niches dans une situation monopolistique pendant 3 milliards d’années et elles ne régneraient pas en maître aujourd’hui. Si une espèce primaire et bien adaptée entre en concurrence avec une autre plus élaborée mais moins adaptée, la première gagne à coup sûr à la martingale darwinienne. Pour vérifier s’il existe une quelconque finalité vers la complexité, le biologiste et paléontologue Daniel McShea a observé la colonne vertébrale de plusieurs espèces fossiles sur une trentaine de millions d’années. Il a défini des critères permettant de voir si les vertèbres se sophistiquaient au cours du temps : une sorte de mesure de la complexité sur cet échantillon. Disposant ainsi d’un indice objectif, qu’a-t-il constaté ? Des différences sont bien apparues à travers les générations, mais sur la période étudiée, elles ne pointent nullement vers plus de complexité. Cette dernière ne se développe pas systématiquement, mais uniquement par exception, sous l’aiguillon du tri darwinien : dès qu’un trait de l’organisme joue beaucoup sur l’adaptation, il fait l’objet d’une sélection sévère. En l’occurrence, les vertèbres ne figuraient visiblement pas parmi les caractéristiques importantes. 307

Partie 4. Des premiers êtres monocellulaires à l’Homme

Alors comment expliquer l’ascension observée depuis 800 000 ans avec l’apparition des êtres multicellulaires, puis des vertébrés et enfin de l’Homme ? Un premier élément est que le monde vivant bénéficie de vents porteurs. Les conditions sur Terre permettent la montée vers la complexité. Si elles cessaient d’être favorables, par exemple avec un réchauffement climatique de grande ampleur, les vertébrés péricliteraient et le balancier favoriserait de nouveau les bactéries et les insectes. Des observateurs extraterrestres visitant notre planète constateraient indubitablement une tendance dirigée vers les formes de vie les plus primitives, sans pour autant y voir une quelconque finalité. Une autre explication de la montée des espèces vers la complexité nous est donnée par le mécanisme darwinien. L’environnement terrestre est très varié : à quelques kilomètres de distance, nous observons des différences significatives de composition chimique des sols, d’humidité et même de température. Si l’évolution favorise l’adaptation, elle exploite toutes ces variations, ce qui implique qu’elle maximise la diversité. En oubliant les effets néfastes de l’activité humaine à ce propos, nous voyons bien comment la nature pousse sans cesse la faune et la flore à couvrir toutes les niches de façon exhaustive : elle a horreur du vide ! Les 8 millions d’espèces animales et végétales peuplant la Terre, ajoutées à un nombre de bactéries du même ordre, l’attestent. La martingale est un principe à la fois très bête et redoutablement efficace. En favorisant la diversité, elle crée çà et là des espèces plus complexes, comme elle en crée des plus dures ou des plus molles, des plus rapides ou des plus lentes, des plus rouges ou des plus bleues, etc. Ainsi les mammifères et les Hommes sont des cas exceptionnels, plus élaborés, parmi une multitude d’autres animaux plus simples. Ces êtres sophistiqués apparaîtraient en quantité très limitée, en tel endroit et à tel moment de l’histoire. De là l’idée que la nature n’évolue pas vers la complexité en moyenne, mais ponctuellement et par le hasard. Nous allons développer ces deux thèses. 308

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

En disant ponctuellement, nous entendons que plus les espèces montent en sophistication, moins elles pèsent en quantité d’individus : la faune est constituée d’un océan de bactéries, puis d’une mer de plantes et d’insectes, et enfin d’un îlot de vertébrés. Les humains se trouvent sur cette île, perchés sur la cime d’un unique cocotier. Cela s’explique de nouveau par le principe de la machine de Marly évoqué au chapitre 6 (fig. 35). Ce système astucieux peut monter de l’eau de plus en plus haut par paliers, à condition d’en perdre une grosse partie en cours de route pour entraîner les mécanismes. Nous avons imaginé une succession de telles machines, destinée à porter l’eau en altitude. En théorie, un tel dispositif est susceptible de le faire à l’infini, néanmoins en réalité, la quantité d’eau remontée diminue fortement avec la hauteur, ce qui impose une limite pratique : seule une fraction infime peut grimper le plus haut. Il en va de même dans le cosmos : une complexité extrême peut s’y développer, mais seulement très ponctuellement. À titre d’exemple, parmi les 4 000 exoplanètes connues à ce jour (au sein d’autres systèmes planétaires), nous comptons sur les doigts d’une main celles pouvant disposer d’eau liquide et abriter une forme de vie. Qu’en déduire ? Plus la complexité est élevée, plus elle est rare, et quand elle atteint celle d’Homo sapiens, elle est devenue rarissime, si ce n’est unique dans le cosmos. Nous n’en avons pas conscience car, à nos yeux, la hiérarchie est inversée. Nous voyons d’abord et avant tout la complexité : nous fréquentons d’autres hommes, nous vivons parmi nos constructions et nos machines, accessoirement nous avons quelques animaux de compagnie, eux-mêmes très sophistiqués. À l’opposé, la faune plus primitive des bactéries et des insectes est très éloignée de notre champ de vision. Les bactéries nous sont invisibles. Quant aux insectes, nous nous débrouillons pour les écarter des endroits que nous habitons. En résumé, nous observons avec myopie l’Univers depuis le haut du Mont Complexité où nous siégeons, et nous perdons le sens de la véritable hiérarchie du monde du vivant. Il faut regarder la Terre avec un microscope pour découvrir qui domine réellement la biosphère. 309

Partie 4. Des premiers êtres monocellulaires à l’Homme

Il faut utiliser un télescope, pour réaliser que nous sommes entourés de gaz et de cailloux dans le cosmos. Cette propension à voir midi à notre porte s’appelle un biais de sélection : en l’espèce, c’est le fait de ne pas appréhender l’intégralité du monde tel qu’il est, mais de le percevoir à partir de nous, par nous… voire pour nous. En conclusion, si ce livre montre en chacune de ses lignes, un Univers propice à la montée vers la complexité, il ne faut pas y voir pour autant une intention. Il s’agit plutôt d’un chemin possible, qu’il emprunte çà et là exceptionnellement. Spinoza disait : « La nature n’a aucune fin qui lui soit fixée d’avance. » Quel rôle joue le hasard dans cette hiérarchie de la complexité ? Le fait qu’elle apparaisse par endroits et soit de plus en plus rare en montant de niveau, est une loi statistique que l’on retrouve un peu partout. En voici un exemple simple : les vagues à la surface de l’eau. Au repos, l’océan est plat. C’est sa position stable. L’énergie du vent le déplace hors de cet équilibre et provoque la houle. Disons qu’en un lieu de la côte vendéenne, elle atteint souvent 30 à 50 centimètres. Elle fluctue et certains jours de mauvais temps, elle dépasse 2 ou 3 mètres. Lors de la tempête Xynthia, une situation très rare s’est produite, avec 8 mètres de creux. Plus exceptionnel encore est le phénomène le plus redouté par les marins au long cours : la vague scélérate survenant parfois pendant de fortes tempêtes. Elle se dresse comme un gigantesque mur d’eau vertical pouvant atteindre une trentaine de mètres. Les conséquences sont généralement fatales. Heureusement, le cas est rarissime. En physique, ces variations par rapport à l’équilibre (le calme plat) sont dénommées fluctuations. Elles se répartissent selon une loi statistique dite loi de puissance : les petites sont très fréquentes, les plus grandes très rares. Observant la répartition de la complexité dans le monde vivant, on voit un scénario ressemblant beaucoup à une telle loi : l’apparition des êtres multicellulaires, des vertébrés, des primates et de l’Homme, pourrait s’apparenter à des fluctuations de plus en plus amples, mais aussi de plus en plus improbables, permises par l’immense pérennité de la nature. 310

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

En abordant le terrain de la métaphysique, je précise toujours que ma démarche n’exclut pas Dieu : certes, je ne vois aucune finalité ou intention se manifester dans l’évolution depuis le Big Bang, mais j’admets très bien que la main divine ait pu intervenir avant, en amont. Elle aurait conçu notre monde avec les bonnes lois et données de départ, intentionnellement. Elle aurait peut-être su « jouer avec les fluctuations », en créant des lois de la nature qui, tôt ou tard, à l’occasion d’une fluctuation statistique, feraient apparaître la vie puis Homo sapiens. Alors, Einstein aurait eu doublement tort quand il raillait l’essence probabiliste de la mécanique quantique en disant « Dieu ne joue pas aux dés ! ». D’abord l’expérience l’a désavoué en confirmant le rôle fondamental du hasard dans la physique des particules. Ensuite, il n’est pas exclu que les probabilités aient fait partie du plan divin ! LES VIRUS : DES FOSSILES DE LA VIE LA PLUS PRIMITIVE Si les bactéries ont dominé le vivant pendant des milliards d’années, elles n’étaient pas seules : les virus ont toujours coexisté avec elles. De quoi s’agit-il ? Vers la fin du xixe siècle, on découvre des agents pathogènes bien plus petits que les bactéries : les virus. Ce sont des créatures beaucoup plus simples. Elles se résument à une coque rigide faite de protéines (la capside) abritant un génome d’ADN ou d’ARN : rien d’autre (fig. 62). On pourrait qualifier le virus de « génome ambulant encapsulé ». On ne le considère pas comme un être vivant, car il est incapable de se reproduire seul. Pour ce faire, il doit parasiter une bactérie ou une cellule et profiter de sa machine de reproduction. Soit il parvient à pénétrer la membrane cellulaire, soit il se contente de la percer pour y injecter son génome (fig. 62). Une fois ses gènes infiltrés dans la cellule, celle-ci va les traiter tels les siens propres et fabriquer, bien involontairement, de multiples répliques du virus. Après en avoir conçu des milliers, elle finit par éclater et les relâcher dans la nature, ce qui propage l’infection. 311

Partie 4. Des premiers êtres monocellulaires à l’Homme

Figure 62 | Un virus bactériophage injecte son ADN dans une bactérie.

On a longtemps pensé qu’à l’origine, les virus provenaient de bactéries qui en avaient parasité d’autres. Selon cette thèse, les intrus auraient progressivement profité des organites de leur hôte pour se défaire des leurs et conserver juste l’essentiel : leur génome et une capsule de protection. Toutes les autres fonctions auraient été « déléguées » aux bactéries hôtes. Cette interprétation est de moins en moins retenue car, selon la génétique, les virus étaient présents dès les tout débuts de la vie : probablement dès l’époque très ancienne où les gènes et les protéines se sont découplés. Il s’agissait simplement de gènes vagabonds circulant de cellule en cellule. Cette fonction des virus existe encore actuellement : ils sont un grand vecteur de fertilisation entre bactéries. En les infectant en série, ils transfèrent de l’information génétique horizontalement entre elles. Cela rappelle l’échange des plasmides, dont nous avons déjà parlé : un moyen de plus d’accroître la diversité. De nos jours, dans les laboratoires de biologie, on utilise couramment des virus modifiés pour aller implanter de nouveaux gènes dans les cellules. Les OGM ont été développés de cette manière. Les virus sont les êtres les plus nombreux sur la planète : on peut en trouver 10 millions dans un seul centimètre cube d’eau de mer. Dans tous les biotopes marins et terrestres, on compte facilement 10 à 100 fois plus de particules virales que de cellules. Dans la nature, le gros de l’information génétique est donc porté par les virus et non par les cellules. Ils jouent un rôle fondamental dans le brassage génétique 312

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

de l’ensemble du monde vivant. On en connaît un peu plus d’une dizaine de milliers, mais il en existe des milliards de milliards. Vue dans cette optique, la pandémie de Covid-19 est on ne peut plus banale. De très nombreux virus séjournent pendant des siècles chez telle ou telle espèce. Ils subissent de nombreuses mutations de sorte qu’un jour, l’une d’entre elles leur permet de franchir la barrière des espèces et de trouver une nouvelle niche où se développer. Celui du sida nous a été transmis par le singe, celui de la Covid-19 par le pangolin qui lui-même l’aurait reçu d’une chauve-souris. Les virus se propagent toujours jusqu’à ce que la majorité de la population hôte ait fabriqué des anticorps (ou bien ait bénéficié d’un vaccin). Généralement, ils ne l’exterminent pas, car cela entraînerait aussi leur perte. Il nous faut à tout prix tirer tous les enseignements de la crise de la Covid-19, car d’autres virus nous affecteront et ils n’auront pas tous la délicatesse de laisser en vie 99,5 % des individus qu’ils infectent. LA CELLULE EUCARYOTE, UN SAUT IMPORTANT VERS LA COMPLEXITÉ Par souci de simplicité, nous avons laissé entendre que pendant 3 milliards d’années, la vie se résumait aux bactéries. Leur nom savant est le procaryote. En fait, un autre type de cellule bien plus complexe a émergé environ deux milliards d’années plus tard : l’eucaryote. Il est le constituant de tous les êtres multicellulaires : tous les animaux, nous-mêmes, ainsi que toutes les plantes. Il est beaucoup plus gros que la bactérie : 25 fois plus grand en dimension, c’est-à-dire 15 000 fois plus volumineux. Il se présente très différemment (fig. 63) : – Il a perdu sa coque, remplacée par une membrane plus souple et perméable. Elle facilite l’absorption de grosses particules ou d’autres cellules, ce qui permet la digestion interne. – Il assure sa rigidité grâce à un cytosquelette fait de protéines en forme de tube : un « châssis tubulaire » en quelque sorte. 313

Partie 4. Des premiers êtres monocellulaires à l’Homme

– Il contient certains organites se chargeant d’élaborer les protéines, et d’autres transformant l’oxygène en énergie chimique (les mitochondries). – Enfin, il dispose d’un noyau contenant le génome. Constitué d’une membrane sphérique, il joue le rôle de coffre-fort pour abriter l’ADN. Seules des copies de ce dernier, appelées ARN messagers, sont autorisées à franchir sa paroi. Ceci rappelle une mairie conservant l’original du livre des naissances, et distribuant des duplicatas des actes.

Figure 63 | La cellule eucaryote, brique constituant toutes les plantes et tous les animaux.

Pour nous permettre d’appréhender cette étrange créature, le grand spécialiste de la cellule, C. de Duve, nous a offert un ouvrage très didactique16. Il raconte les aventures d’un plongeur parvenant à traverser la membrane cellulaire. Il découvre tout ce qui se passe à l’intérieur, jusqu’à vivre un véritable cataclysme quand la cellule entreprend sa phase de division. 16.  Une visite guidée de la cellule vivante. Christian de Duve. 1987. 314

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

Le degré de complexité de l’eucaryote représente un saut très important dans l’histoire naturelle. On y a trouvé un nombre de composants équivalent à celui des pièces détachées d’un Boeing 747. Pour certains biologistes, son émergence était encore plus improbable que celle de la vie. Selon C. de Duve, l’innovation majeure de l’eucaryote est la phagocytose lui permettant d’avaler des corps. Sa membrane, bien plus souple que la coque protectrice du procaryote, peut absorber une particule ou une bactérie. Sa paroi s’invagine (fig. 64), la cavité produite englobe l’objet, puis l’entraîne à l’intérieur dans une membrane en forme de bulle (une vacuole). Le nutriment pourra alors être digéré par des enzymes. Ce mode d’alimentation interne est bien plus efficace que la digestion externe des bactéries. Les enzymes peuvent diffuser de façon beaucoup plus concentrée. On ne peut que s’émerveiller de voir un être si simple, sans système nerveux, faire tout cela par le seul jeu spontané de ses protéines, c’est-à-dire à partir d’une information purement chimique.

Figure 64 | L’eucaryote phagocyte une bactérie.

L’eucaryote est doté d’organites, servant à l’alimentation, à la reproduction et la consommation de l’oxygène. Il est utile de préciser un 315

Partie 4. Des premiers êtres monocellulaires à l’Homme

fait surprenant : ils se forment spontanément par auto-organisation, comme le flagelle de la bactérie évoqué plus haut. Dans un premier temps, les gènes fabriquent les bonnes molécules : protéines, lipides, etc. Il suffit que ces briques soient présentes dans la cellule pour qu’elles s’assemblent par elles-mêmes là où il le faut et dans le bon ordre. C’était déjà une caractéristique étonnante chez la bactérie. Elle le devient plus encore chez l’eucaryote, un être bien plus grand et sophistiqué. LES BACTÉRIES ET LES CELLULES SE METTENT À EXPLOITER LA LUMIÈRE Les premières bactéries sont chimiotrophes : elles tirent leur énergie des minéraux présents dans l’eau ou les roches. La richesse des substances venues du cosmos et apportées par le bombardement cométaire, représente une source importante, mais pas infinie. Comme les bactéries se multiplient toujours jusqu’à l’épuisement des ressources, ces dernières viennent à manquer tôt ou tard. Il y a peut-être 2,5 milliards d’années, apparaît une innovation majeure sur laquelle repose aujourd’hui l’ensemble de la chaîne alimentaire : la photosynthèse. Elle fonctionne grâce à une molécule assez complexe de 137 atomes, la chlorophylle, qui a la propriété d’absorber la lumière et de la transformer en énergie chimique. On la reconnaît à sa couleur verte partagée par quasiment l’intégralité du règne végétal. À partir de cette invention, les bactéries munies de la chlorophylle cessent d’être dépendantes des ressources minérales : on les qualifie d’autotrophes. Elles vivent simplement « de soleil et d’eau fraîche ». Disons un mot de la photosynthèse opérée par cette merveilleuse molécule. Outre la lumière, elle absorbe du dioxyde de carbone CO2. On comprend alors l’importance de la végétation pour lutter contre l’effet de serre et le réchauffement climatique. Sur Terre, la plus grande machine à dépolluer est la forêt amazonienne. Au lieu de la préserver, l’Homme en a déjà détruit 20 % en 50 ans. Dans le futur, la réduction du taux de carbone pourra être organisée par la reconstitution d’une 316

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

masse végétale : c’est le moyen le plus efficace en dehors des efforts de modération de la production humaine. La photosynthèse consomme le dioxyde de carbone, mais qu’en fait-elle ? Elle dégage de l’oxygène, on le sait. Nous verrons plus loin le rôle étonnant joué par ce gaz dans l’évolution de l’environnement, de la faune et de la flore. Elle synthétise aussi une molécule très énergétique appelée ATP (adénosine triphosphate). Cette substance et ses variantes sont essentielles : elles transportent l’énergie dans le corps des plantes et des animaux. Elles nourrissent toutes les réactions du métabolisme, tant l’élaboration des enzymes que leur travail de catalyse. Enfin, la photosynthèse produit des sucres, tel le glucose. Ils permettent aux plantes de construire toutes leurs structures en cellulose : tiges, feuilles ou racines. Ils sont l’aliment recherché par les espèces herbivores. LA CATASTROPHE DE L’OXYGÈNE En parlant des origines de la vie il y a 3,7 milliards d’années, nous avions dit que l’atmosphère n’avait rien à voir avec celle de notre époque : elle était dominée par la vapeur d’eau et le dioxyde de carbone. Ce dernier est précisément le gaz dont nous essayons aujourd’hui de limiter la teneur pour préserver le climat. Dans le passé lointain, il n’y avait pas d’oxygène dans l’air et dans les océans. Les choses changent avec le développement de la photosynthèse qui en dégage des quantités de plus en plus importantes. Dans une première phase, la proportion de ce gaz ne croît pas trop car au fur et à mesure qu’il est libéré, il est absorbé. La raison tient aux grandes masses de fer accumulées au fond des mers, prêtes à rouiller en présence de la moindre trace d’oxygène. Ce fer consomme donc systématiquement le gaz émis par les nouvelles bactéries. Cependant, arrive un moment où toute la quantité de fer s’est oxydée. Alors, la teneur en oxygène dans l’eau et l’air se met à croître fortement. Ce gaz étant toxique pour les formes de vie de l’époque, le monde bactérien commence à étouffer sous les produits de sa propre activité. Il va subir une extinction massive. Nous verrons 317

Partie 4. Des premiers êtres monocellulaires à l’Homme

que de tels cataclysmes ont ponctué périodiquement toute l’histoire de la vie. La nature a toujours trouvé le moyen, non seulement de franchir ces crises, mais aussi de rebondir et profiter de la disparition de nombreuses espèces pour en créer de nouvelles, de façon foisonnante. Dans le cas présent, la catastrophe de l’oxygène s’étale sur des centaines de millions d’années et une partie du vivant parvient à s’y adapter. La première réaction vient, bien évidemment, des enzymes : elles apparaissent par des mutations génétiques, et réussissent à neutraliser l’effet toxique de ce gaz. Cette solution n’aura qu’un temps car la teneur en oxygène continue à croître inexorablement. Dès lors, des transformations bien plus radicales se produisent dans le métabolisme : des organismes vivants parviennent à consommer ce gaz et à en tirer de l’énergie. La menace est ainsi convertie en opportunité car ces nouvelles espèces deviennent beaucoup plus performantes. Il va en résulter de grands changements dans l’évolution, une marche importante dans la montée vers la complexité. Aujourd’hui, dans le monde bactérien, il subsiste des fossiles vivants remontant à cette époque. En effet, si la plupart des bactéries fonctionnent désormais à l’oxygène – on les qualifie d’aérobies –, il reste quelques souches témoins des temps reculés où elles craignaient cet élément : les anaérobies. Parmi ces dernières, figure le bacille du tétanos. On le trouve souvent dans la terre ou dans les métaux rouillés, où il vit à l’abri de l’oxygène. L’agent de la gangrène est aussi anaérobie. Voilà pourquoi il est conseillé d’exposer les plaies à l’air libre et de les laver à l’eau oxygénée. En conclusion, de nos jours, en dehors de l’azote qui est inactif chimiquement, l’oxygène domine l’atmosphère. Il se dissout aussi dans l’eau à la surface des océans. Si l’on excepte certaines bactéries, tous les êtres vivants ont appris à le domestiquer et à en faire une source d’énergie. Il est intéressant de voir comment l’eucaryote s’affranchit de la catastrophe de l’oxygène par un subterfuge. Il y a un milliard et demi d’années environ, la cellule est confrontée à ce gaz toxique devenu 318

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

très abondant. À l’époque, de nombreuses bactéries se sont déjà adaptées à l’oxygène. Pratiquant la phagocytose pour son alimentation (fig. 64), l’eucaryote absorbe couramment de telles bactéries bien plus petites que lui. Progressivement, certaines ne sont plus digérées : elles sont tolérées à l’intérieur de leur hôte. Il se crée une association ou symbiose entre les deux. Chaque partenaire en tire des avantages. L’eucaryote se trouve débarrassé de l’oxygène car la bactérie le consomme. Quant à cette dernière, elle est abritée au sein de la cellule et reçoit de quoi se sustenter de façon stable. La symbiose va encore plus loin car le parasite fabrique l’ATP, cette molécule indispensable au métabolisme de son partenaire. Nous l’avons déjà évoquée deux fois, en décrivant le métabolisme primitif (chapitre 9, fig. 52), puis la photosynthèse un peu plus haut. On la retrouve partout car elle véhicule l’énergie chimique dans le corps. Ces anciennes bactéries parasites se sont transformées pour devenir aujourd’hui, de simples organites appelés mitochondries, vivant de manière autonome au sein de la cellule (fig. 63). Elles ont peu à peu perdu une grande partie de leur contenu devenu redondant avec celui de leur hôte, tout en conservant leur propre ADN, très simplifié. Il leur sert à se reproduire par elles-mêmes. Ainsi, on ne peut réduire le patrimoine génétique d’un individu à ses seuls chromosomes : ce petit ADN mitochondrial en fait aussi partie. Contrairement à l’ADN principal de la cellule, né de la fécondation de l’œuf, celui des mitochondries est transmis directement de la mère à l’enfant, dans l’ovule, sans sexualité. Il a pris une grande importance en génétique : comme il se transmet de mère en mère sans aucune influence de la part des pères successifs, il constitue un marqueur pur de l’évolution. On l’utilise pour observer comment le génome se modifie au cours du temps, en l’absence de tout brassage des gènes par la sexualité. Grâce à des algorithmes mathématiques, l’étude de l’ADN mitochondrial sur des échantillons de populations humaines, a permis de retracer notre histoire et de valider de nombreux points clés : l’origine simiesque de l’Homme, la date de la 319

Partie 4. Des premiers êtres monocellulaires à l’Homme

séparation Homme-singe et son lieu (l’Afrique), et même les grandes migrations géographiques de nos ancêtres préhistoriques. Ces informations tirées des gènes, viennent aujourd’hui confirmer et compléter l’enseignement des fossiles. On peut acheter une telle analyse des gènes sur certains sites Internet étrangers, pour interpréter son propre ADN : on envoie un frottis de salive et on reçoit en retour la liste des endroits du globe dont provient son génome. Le parasitisme symbiotique se retrouve à propos d’un autre organite de la cellule : le noyau. Son origine serait aussi une bactérie absorbée un jour ancien, par un eucaryote. Elle serait restée en synergie avec lui, pour assurer le rôle de réceptacle de l’ADN. La formule ayant bien fonctionné, elle aurait été retenue par la descendance, de sorte que maintenant, chaque cellule eucaryote possède son noyau. L’APPARITION DES ÊTRES MULTICELLULAIRES À l’issue d’une stase de 3 milliards d’années, va se produire une nouvelle révolution, le passage aux êtres multicellulaires : les plantes et les animaux. On situe cette transition il y a environ 800 millions d’années. Pour être plus complet, on a trouvé à Franceville au Gabon, en 2010, des fossiles d’organismes étranges mesurant plusieurs centimètres et capables de creuser des galeries dans la vase. Ils sont datés de 2,1 milliards d’années avant notre époque. Cette forme de vie a dû s’éteindre car apparemment, elle n’a laissé aucune lignée dans le milliard et demi d’années suivant. Bien avant la transition vers l’être multicellulaire, les bactéries s’assemblaient déjà en colonies pour résister à des conditions adverses. C’est toujours le cas aujourd’hui : si elles rencontrent des difficultés, certaines d’entre elles se regroupent grâce à des signaux chimiques, sécrètent collectivement un biofilm de protéines et s’engluent à l’intérieur pour se protéger. Elles restent ainsi à l’abri aussi longtemps qu’il le faut. Quand l’environnement redevient favorable, elles retrouvent un comportement individuel. Elles brisent le biofilm et s’échappent pour coloniser d’autres endroits. Cette tactique grégaire complique 320

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

sérieusement la désinfection des instruments dans les hôpitaux, car le biofilm protecteur se loge facilement dans les moindres interstices des appareils et peut y rester malgré un nettoyage soigneux. Pour autant, ces colonies peuvent-elles être qualifiées d’êtres multicellulaires ? Non car il leur manque des caractéristiques essentielles. Outre le fait de s’agréger, le véritable être multicellulaire combine trois inventions supplémentaires des plus ingénieuses : la différenciation cellulaire, la structuration des cellules entre elles et enfin, la capacité de reproduction. Nous allons détailler ces propriétés l’une après l’autre. LES CELLULES SE DIFFÉRENCIENT L’animal est composé de cellules de différents types : de foie, de peau, de poumon, etc. Au total chez l’Homme, 254 sortes de cellules différenciées coexistent et se partagent les diverses fonctions de l’organisme. Malgré leur nature différente, elles disposent toutes du même génome. Comment est-ce possible ? La raison : dans chacune de ces cellules, seule une partie du génome s’exprime tandis que le reste est inhibé. Pour donner une analogie, on peut imaginer une armée faite de différents spécialistes : des artilleurs, des conducteurs de chars ou des pilotes. L’ensemble de ces effectifs disposerait d’un seul et unique manuel expliquant exactement ce qu’il convient de faire au combat : viser avec le canon, conduire le char ou piloter l’avion. Chaque militaire posséderait le même livre, mais les pages ne le concernant pas seraient occultées. On pourrait de la sorte, marier unicité de l’information (un seul manuel) et différenciation des instructions (chacun ne voit qu’une partie des pages). Chez l’être vivant, un principe équivalent s’applique : dans une cellule différenciée, de foie par exemple, seule une partie des gènes est active. Elle n’est pas la même si l’on considère une cellule de poumon. Qui en décide ? D’autres gènes ! En effet, parmi ces derniers, certains dits régulateurs ont le pouvoir d’inhiber des parties entières du génome. Ce sont de véritables interrupteurs pouvant « éteindre » d’autres gènes et ainsi déterminer un type de cellule. Nous expliquons plus loin comment ceci peut fonctionner. À titre d’exemple, 321

Partie 4. Des premiers êtres monocellulaires à l’Homme

l’œuf donnant naissance à une chenille possède déjà tous les gènes du papillon. Au début, ils sont occultés. Ensuite, lors du passage au stade de chrysalide, le grand livre de son génome est lu différemment : les chapitres « chenille » se referment, tandis que les pages relatives au « papillon » s’ouvrent sous l’action de gènes régulateurs. Quand pour la première fois en 1996, on a réalisé en laboratoire le clone d’une brebis (Dolly), on est parti d’une seule cellule de peau de l’animal. On a opéré un « reset » sur son génome, afin de libérer les zones inhibées et restituer l’intégralité de l’information génétique. En rendant l’ensemble du livre accessible, on a redonné à cette cellule toute la potentialité de recréer un être complet avec ses différentes sortes de cellules. On l’a implantée dans l’utérus d’une mère porteuse. Ainsi est née Dolly, une réplique exacte de la brebis originale. On serait parvenu au même résultat en partant d’une cellule de foie ou de poumon, à condition d’en « réinitialiser » les gènes. L’ÊTRE MULTICELLULAIRE SE STRUCTURE Lors de la croissance de l’individu, les cellules se différencient pour développer les organes et les tissus. Pour constituer un organisme cohérent et coordonné, il est impératif que chacune apparaisse au bon endroit du corps, au bon moment et dans la bonne quantité. Un tas de pierres n’a jamais fait une cathédrale. Les cellules doivent donc se structurer entre elles. Il s’agit là de la seconde innovation majeure ayant permis l’émergence des êtres multicellulaires. C’est encore le gène qui dirige cette tâche. En voici un exemple : l’assemblage des cellules pour former des vaisseaux sanguins. Quand les tissus croissent, un besoin d’irrigation par le sang se manifeste. Alors, des veines et des artères apparaissent d’elles-mêmes. Comment expliquer une telle génération spontanée ? La réponse est une cascade de mécanismes ordonnés par le génome. À l’origine, les tissus insuffisamment irrigués subissent un déficit d’oxygénation. Par une chaîne de signaux chimiques, ce défaut actionne un gène qui commande la fabrication des vaisseaux. Ainsi, 322

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

là où ces derniers viennent à manquer, une substance se répand. Elle provoque à son tour l’apparition de nouvelles cellules différenciées, celles dont sont faits les vaisseaux. Celles-ci se regroupent pour constituer des veines ou des artères. Il ne faut pas s’étonner si ces organes se fabriquent d’eux-mêmes : comme nous l’avons déjà vu chez les bactéries et les cellules, leurs composants s’auto-assemblent dès que les protéines ad hoc sont produites par les gènes et sont présentes. Pilotés par le génome, ces mécanismes font émerger les vaisseaux là où ils sont nécessaires dans le corps. Leur construction s’arrête quand le tissu est correctement irrigué et donc oxygéné. À titre d’illustration, si l’on retire les varices d’une personne, des veines neuves se mettent en place toutes seules dans les mêmes tissus, pour revenir à la normale. L’ÊTRE MULTICELLULAIRE SE REPRODUIT La troisième caractéristique des êtres multicellulaires tient à un principe de reproduction : pour former une nouvelle créature complexe faite de milliards de cellules, il suffit d’une d’entre elles. Avant de connaître la génétique, on pensait que l’acte sexuel donnait naissance à un petit homoncule, réplique miniature d’un être complet, avec tous ses organes. Cet embryon n’avait plus qu’à grandir dans le ventre de la mère. Ce n’est pas la bonne explication : au départ, une cellule unique va engendrer l’individu entier. Dans l’espèce humaine, il s’agit de l’ovule fécondé. La grossesse commence à partir de cette seule et unique cellule. Elle entreprend une première division, puis les deux cellules filles se divisent à leur tour, ce qui en fait quatre, etc. Au bout de quelques réplications, elles commencent à se différencier selon le principe énoncé plus haut. Commandées par les gènes, elles apparaissent là où il le faut pour que l’organisme se structure correctement. Ainsi naissent les organes. Cet auto-assemblage à partir d’une seule cellule est un processus particulièrement complexe. Cela explique probablement pourquoi les êtres multicellulaires ont mis 3 milliards d’années à le trouver et à le mettre en œuvre. 323

Partie 4. Des premiers êtres monocellulaires à l’Homme

Ce mécanisme, la reproduction, ainsi que les deux précédents, la différenciation et la structuration cellulaires, ont été étudiés sur un tout petit animal, le ver Caernorhabditis elegans, mesurant un millimètre de long. Il est transparent et s’observe facilement au microscope. L’intérêt de ce minuscule spécimen est qu’il possède très exactement 959 cellules, visibles individuellement. Seules trois semaines séparent la naissance du ver au stade embryonnaire, de sa première reproduction à l’état adulte. Pendant ce temps-là, avec un peu de patience, on peut suivre comment apparaissent et se localisent ses 959 cellules, une par une. Le prix Nobel John Sulston s’est livré à cet exercice en suivant le développement du ver cellule par cellule sous un microscope électronique. Entre les observations, il tuait le temps en jouant au Rubik’s Cube. Il a noté scrupuleusement l’apparition et le destin de chacune d’elles et a découvert que ce ver présentait un plan de croissance fixe, précis à la cellule près et parfaitement répétitif. Il résulte visiblement d’un jeu d’instructions inscrit dans le génome de la toute première cellule, et se transmettant à travers la descendance. À chaque stade du développement, les cellules se différencient et vont se localiser à l’emplacement idoine. Ce même mécanisme assure la croissance de tous les animaux et de tous les végétaux : chacune de leurs cellules doit apparaître au bon moment et au bon endroit sous la commande des gènes. Ce petit ver montre la véritable nature de notre génome. Pour le comprendre, il faut remonter aux travaux de Jacques Monod et François Jacob qui ont obtenu le prix Nobel pour avoir établi comment se fabriquaient les protéines à partir du génome (la traduction). Une de leurs découvertes est celle des gènes régulateurs dont le rôle n’est pas de faire des protéines, mais de déclencher ou d’inhiber d’autres gènes. Le principe à retenir est qu’un gène peut en commander d’autres, simplement par l’émission de certaines protéines ou de petits brins d’ARN venant se greffer en des endroits précis du génome. En 1964, un jeune étudiant en seconde année de médecine s’interroge sur la différenciation cellulaire qui permet de former toutes sortes de cellules à partir du même génome : cellules de foie, de peau ou neurones. En



324

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

… lisant Monod et Jacob, il découvre que les gènes peuvent se réguler entre eux. Il conçoit alors le génome comme un réseau de milliers d’« interrupteurs » se commandant les uns les autres (le terme exact serait porte logique). La figure  65 en donne une représentation physique  : une planche sur laquelle on a placé des interrupteurs se déclenchant mutuellement. Chacun est relié à d’autres selon un câblage fixe et de plus, doté d’une lampe indiquant s’il est ouvert ou fermé. L’exemple le plus élémentaire de ce genre de dispositif est le va-et-vient, combinaison de deux interrupteurs se commandant entre eux. L’impétrant va parvenir à simuler un réseau de ce type et en déduira des conséquences importantes pour la biologie. Son nom est… Stuart Kauffman.

Figure 65 | Une image physique du programme de S. Kauffman pour simuler la différenciation cellulaire : une planche avec des interrupteurs connectés.

Il imagine qu’un tel réseau en interaction doit se comporter différemment selon le degré de connexion entre ses composants. S’ils sont très faiblement reliés, par exemple si chaque interrupteur en commande un

… 325

Partie 4. Des premiers êtres monocellulaires à l’Homme

… seul autre, voire aucun, alors il entrevoit que le réseau se figera rapidement : les lampes clignoteront un court instant puis toutes s’immobiliseront en position allumée ou éteinte. Ce serait une forme d’ordre. Au contraire, s’ils sont fortement connectés, le savant en herbe prévoit un résultat désordonné. Par exemple, si chacun en commande dix autres en moyenne, tous les interrupteurs devraient clignoter indéfiniment. Ce serait l’image du chaos. Kauffman a l’idée intéressante de rechercher une situation intermédiaire. En ajustant très finement le nombre moyen de connexions dans le réseau quelque part entre les deux extrêmes, on devrait observer un comportement organisé : certaines parties du réseau s’éteindraient tandis que d’autres clignoteraient indéfiniment en boucle. Ainsi apparaîtraient un ou plusieurs îlots s’animant de façon cyclique, au milieu du reste qui demeurerait figé. Cette idée paraît bien éloignée de la cellule. Pourtant, ce n’est pas le cas. Le génome avec ses gènes régulateurs se comporte exactement à la manière de cette planche d’interrupteurs. Comme on le voit sur la figure suivante (66), un gène peut en éteindre ou en allumer un autre. Si l’hypothèse de Kauffman est vraie, des parties entières du génome peuvent ainsi être actives et le reste inhibé. Nous retrouvons l’analogie du livre dont certaines pages sont accessibles (actives) et d’autres cachées (éteintes). En termes de biologie, voilà pourquoi le même génome peut définir à la fois une chenille au début et un papillon ensuite. De même, la cellule de foie ou celle de peau correspondent simplement à un même réseau de gènes dans lesquels des îlots sont animés tandis que le reste est désactivé.

Figure 66 | Les gènes régulateurs se commandent entre eux comme des interrupteurs.



326

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

… Kauffman imagine ainsi la différenciation cellulaire, mais il veut en avoir le cœur net. À cette époque où les ordinateurs commencent à se développer, il se dit que la planche d’interrupteurs doit pouvoir se représenter simplement par un programme. Il demande à un ami mathématicien de l’aider à créer un modèle informatique simulant le dispositif de la figure 65. Ce sera fait en utilisant les réseaux booléens aléatoires, une reproduction mathématique des interrupteurs. Son objectif est de faire tourner ce programme de nombreuses fois, avec des configurations engendrées au hasard et en faisant varier le nombre moyen de liens dans le réseau. Il veut ainsi observer comment se comportent ces réseaux et surtout, vérifier si apparaissent bien des zones actives et d’autres figées. Une fois le programme écrit, il obtient la mise à disposition pendant une nuit entière d’un « gros » ordinateur qui, aujourd’hui, ferait bien pâle figure devant un simple smartphone. Il a préparé ses interrupteurs et leurs liens, sous forme d’un jeu de cartes perforées, le moyen utilisé à cette époque pour stocker l’information. Il entre ces cartes dans la machine et fait tourner son programme de multiples fois pendant toute la nuit. À chaque itération, il observe le comportement du réseau nouvellement configuré. Après, il bat les cartes perforées à la main comme on le fait à la belote et recommence. Au fur et à mesure des essais, il constate ce qu’il avait prévu intuitivement : quand chaque interrupteur en commande deux autres en moyenne, un comportement riche apparaît. Il voit l’ordinateur se mettre en boucle sur différentes parties du réseau et se maintenir dans cet état : c’est la preuve que la simple commande mutuelle des gènes entre eux suffit à faire émerger des formes stables, l’analogue des cellules différenciées. Sachant qu’en mathématiques, ces états stables sont appelés des attracteurs, la découverte peut se résumer ainsi : les 254 cellules différenciées de l’espèce humaine correspondent à autant d’attracteurs de son réseau de gènes. Le jeune étudiant comprend que ce premier succès va très au-delà du thème de la spécialisation des cellules. Il vient de tester comment la complexité émerge à la frange entre l’ordre et le chaos. Nous avons

… 327

Partie 4. Des premiers êtres monocellulaires à l’Homme

… déjà vu ce concept plusieurs fois car il est un des jeux favoris de la nature. À partir de là, S. Kauffman décide d’abandonner la médecine pour se consacrer à la simulation du vivant par ordinateur.

LE GÉNOME DE L’ÊTRE MULTICELLULAIRE EST UN ORDINATEUR Revenons maintenant à l’ADN de l’être multicellulaire : qu’at-il de particulier par rapport à celui de la bactérie ? Sur un plan purement physique, il n’a rien de différent sauf d’être généralement plus long. Sur un plan logique, il en va tout autrement. Il fonctionne comme un grand livre dont certaines pages sont activées et le reste inhibé, en fonction de… ce qui est écrit sur d’autres pages. Cela en fait un véritable ordinateur, dont le programme décide à tout moment d’enclencher telle ou telle fonction. Ce mécanisme explique comment le petit ver dont nous avons parlé se développe, ainsi que toutes les créatures multicellulaires plus complexes. Au départ, une cellule unique, l’œuf fécondé, dispose d’un exemplaire complet du génome qui va tout commander. L’œuf commence à se diviser en deux, puis en quatre, etc. À chaque division, des « gènes-interrupteurs » en déclenchent d’autres en cascade. Ceci a pour effet de programmer chaque cellule : par exemple, un gène lui commande de se différencier en une cellule de foie, et il le fait à un endroit précis de l’embryon. Comme Kauffman l’a mis en évidence, tout est inscrit dans l’ADN, dont les gènes s’activent et s’inhibent au fur et à mesure des divisions cellulaires. Ce sont donc des opérations logiques entre gènes, qui font naître les 959 cellules du petit ver dans un certain ordre, à l’emplacement où elles doivent se trouver. La même séquence logique, programmée dans le génome, se répète chaque fois que naît un nouveau ver. Grâce à cet algorithme bien huilé, chaque individu multicellulaire se développe harmonieusement par le jeu de ses milliers de gènes (environ vingt mille pour l’Homme). Une partie d’entre eux fonctionnent comme des interrupteurs se commandant 328

Les clés secrètes de l’Univers

Trois milliards d’années de vie monocellulaire

mutuellement. Au contraire du petit ver Caernorhabditis elegans, chez les êtres de grande dimension, il existe beaucoup d’aléas car le nombre de cellules se compte en milliards. Malgré cela, le réseau génomique canalise suffisamment l’émergence des cellules pour faire apparaître les formes précises des organes. Malheureusement, le hasard omniprésent nous joue parfois des tours : une petite erreur d’un seul des interrupteurs, un bug en quelque sorte, peut déclencher une maladie de la différenciation cellulaire, appelée… cancer. Des cellules incorrectement configurées se multiplient là où elles ne doivent pas le faire : c’est la tumeur. En résumé, nous avions vu qu’un changement important s’était produit quand les gènes étaient apparus au sein de la protocellule. Nous avions parlé de découplage de l’information. Nous voyons maintenant l’être multicellulaire émerger à partir d’une nouvelle transition : le développement de liens logiques entre gènes. Nous pourrions appeler cette invention, l’informatisation du génome. Chaque fois que se crée un homme, pas moins de cent mille milliards de cellules s’assemblent toutes seules en respectant un schéma précis. Nous pouvons une fois de plus nous demander comment une entité aussi complexe a pu se forger au cours des temps dans l’évolution des espèces, par simple auto-organisation. La réponse est toujours la même : par tâtonnement, sur des milliards de générations ! Nous venons de décrire un nouveau jeu au casino de la vie, avec une martingale qui va réussir inlassablement à fabriquer les créatures les plus sophistiquées et les plus belles. Elles feront l’objet du prochain chapitre.

329

12 Des bactéries aux primates

« Or tandis que notre planète, obéissant à la loi fixe de la gravi­ tation, continue à tourner dans son orbite, une quantité infinie de belles et admirables formes, sorties d’un commencement si simple, n’ont pas cessé de se développer et se développent encore ! » Dernière phrase de l’Évolution des espèces de Charles Darwin

TROIS MOTEURS À L’ŒUVRE POUR ÉLABORER LES ÊTRES LES PLUS COMPLEXES Le chemin qui va nous mener des bactéries à l’ancêtre immédiat de l’Homme est particulièrement tortueux car il a été tracé par… le hasard. Ce dernier est omniprésent, mais à lui seul, il ne pourrait rien réaliser. S’il parvient à faire émerger des créatures de plus en plus diversifiées et sophistiquées, quelque chose doit le guider. Quoi ? Il faut bien le dire, la science actuelle n’apporte que des réponses très partielles. Pourtant, on commence à découvrir différents mécanismes 331

Partie 4. Des premiers êtres monocellulaires à l’Homme

canalisant le hasard. Le premier a été trouvé par Darwin : la sélection naturelle. Plus récemment, depuis le milieu des années 1990, les sciences de la complexité s’attachent à éclaircir ces questions. Ainsi pouvons-nous citer deux autres principes constituant de grands moteurs de l’évolution : celui des causalités montantes et descendantes, et celui du possible adjacent. Nous allons commenter les trois. L’ÉVOLUTION EST-ELLE DÉTERMINISTE ? Connaissant le rôle prépondérant joué par le hasard, il est intéressant de se demander ce qui se produirait si l’on rejouait tout le film du développement des espèces une seconde fois en repartant du début. La question se résume ainsi : les mêmes causes induiraient-elles les mêmes effets ? Par exemple, imaginons la comète Swift-Tuttle percutant la Terre lors de son prochain passage. Tout le vivant disparaîtrait à l’exception d’une fraction du monde bactérien. À partir de cette situation, similaire à celle ayant prévalu il y a 3,7 milliards d’années, l’évolution future conduirait-elle au même genre d’êtres qu’aujourd’hui ? Le film serait-il identique au précédent ou au moins, proche ? Y aurait-il des prés avec des vaches, des fourmis, des arbres, des hommes ? Selon que l’on donne plus d’importance au hasard ou bien aux lois qui le canalisent, on répond par non ou par oui. Si l’on privilégie le rôle des aléas, on envisage des créatures vivantes évoluant de manière totalement différente : par exemple, il serait apparu des bêtes en forme de mille-pattes sphériques, ou encore des sortes de Shadoks… À l’inverse, si l’on considère que le hasard est très fortement contraint et canalisé, on imagine plutôt la nature retrouvant grosso modo les mêmes formules car elles représentent des équilibres probables. Ainsi produirait-elle de nouveau des poissons, des bêtes à quatre pattes et peut-être des créatures pensantes. Je vois pour ma part des raisons de ne pas croire à une telle répétition de l’histoire. Plus loin, nous parlerons de la façon dont les espèces foisonnent spontanément à la suite de chaque grande 332

Les clés secrètes de l’Univers

Des bactéries aux primates

extinction. En examinant leurs fossiles, on est toujours surpris par leur variété et par l’immense créativité du monde vivant. Cela laisse penser qu’en rejouant le film, des êtres bien différents de ceux existant aujourd’hui verraient le jour. L’évolution pourrait très bien ne rien donner d’autre que des bactéries. Ce serait en quelque sorte un arrêt sur image durant des milliards d’années, comme on l’a déjà vu par le passé. Cette stase pourrait bien se prolonger jusqu’à la fin du Système solaire. Adieu veaux, vaches, cochons, couvées… rien de tout cela, ni même l’Homme, ne réapparaîtrait dans le second film. On peut aussi bien imaginer le scénario inverse où l’intelligence se développerait plus vite que dans le premier film, et où différentes lignées conscientes seraient en concurrence. En conclusion, il y a une part de déterminisme dans l’évolution, minoritaire à mon avis, majoritaire pour d’autres. Les paragraphes suivants décriront comment les espèces ont évolué. Nous ne retracerons pas leur généalogie depuis la bactérie. Je vous invite à la voir au Muséum d’histoire naturelle, magnifique fresque du vivant. Nous nous limiterons à décrire certaines des transitions parmi les plus signifiantes et les plus improbables ayant marqué l’évolution. À ces occasions, de vastes domaines du possible adjacent se sont ouverts, dans lesquels le monde s’est engouffré frénétiquement. Chacun de ces épisodes a débouché sur une nouvelle bouffée de complexité, un concept déjà rencontré à propos des étoiles, des galaxies et de l’apparition de la vie. Ici, nous emploierons le terme plus précis de radiation évolutive qui suggère l’émergence de nombreuses espèces dans un temps relativement bref. LES PREMIERS ÊTRES MULTICELLULAIRES Au chapitre précédent, nous avons vu que des cellules pouvaient s’agréger en formant un individu susceptible ensuite de se reproduire à partir d’une seule de ses cellules. Ce principe se met en œuvre dans les océans, d’abord avec des algues puis, peu après, avec des champignons et des moisissures. Toutes ces créatures sont essentiellement 333

Partie 4. Des premiers êtres monocellulaires à l’Homme

sédentaires. Elles puisent leur énergie soit dans la lumière, soit dans les nutriments circulant dans l’eau. Ensuite, apparaissent les premiers animaux. Ils se distinguent des végétaux par leur mobilité. Il est difficile de dater cette évolution, car ces êtres mous n’ont pas laissé de traces. On la situe il y a entre 1,2 milliard et 850 millions d’années. Cette époque a été marquée par la forte progression de l’oxygène dans l’environnement et l’émergence de métabolismes plus performants. Le plus ancien fossile animal connu à ce jour, Dickinsonia, date de 560 millions d’années. Il ressemble à une crêpe de plusieurs dizaines de centimètres de diamètre, rampant au sol au fond de l’eau. La figure 67 montre le développement de ces tout premiers animaux. À l’origine, il s’agit d’êtres plats, capables de se déplacer lentement au fond de l’eau, par exemple à l’aide d’un tapis de cellules ciliées. Ils se nourrissent par digestion externe à la manière des bactéries, c’est-à-dire en diffusant des enzymes autour d’eux puis en absorbant les nutriments digérés. Dans un deuxième temps, naissent de nouvelles créatures un peu plus élaborées : leurs cellules se différencient entre la face du dessus et celle du dessous. La première se durcit à des fins de protection et la seconde forme une cavité pour piéger les aliments contre le sol. Ainsi, la digestion gagne beaucoup en efficacité. Il existe encore aujourd’hui, des animaux très primitifs restés à ce stade. On les qualifie de diploblastes (à deux faces). L’un d’entre eux, très semblable à Dickinsonia, ne possède que quatre types de cellules. Un autre, plus sophistiqué, est la méduse. Ses tissus s’arrangent selon deux faces, même si elle n’a plus l’allure d’une crêpe. Ce sont des fossiles vivants reflétant les tout débuts de l’ère des êtres multicellulaires. Finalement, émergent les espèces triploblastes : la galette se replie sur elle-même pour constituer un ovoïde doté de deux trous : une bouche et un anus. L’eau peut alors circuler à l’intérieur de cet organisme primitif et y apporter des nutriments. La digestion interne gagne encore en efficacité. Tous les animaux complexes ont conservé ce plan d’organisation. 334

Les clés secrètes de l’Univers

Des bactéries aux primates

Figure 67 | Le premier animal multicellulaire a la forme d’une crêpe. Les suivants s’invagineront puis se replieront sur eux-mêmes.

Cette évolution, allant d’une face à deux puis trois, a laissé une curieuse empreinte dans notre espèce. Les trois phases se retrouvent dans les premiers jours de l’embryon humain, comme chez la plupart des animaux : dès les premières divisions cellulaires, on le voit se replier sous la forme de l’ovoïde originel (la blastula). Ces trois phases marquent aussi la nature des tissus dans l’organisme. Au stade le plus primitif de l’embryon, ils se différencient en trois types : – celui de la face extérieure de l’ovoïde, est nommé ectoderme ; – la face intérieure est un tissu d’un genre différent, appelé endoderme ;

… 335

Partie 4. Des premiers êtres monocellulaires à l’Homme

… –  enfin, entre ces deux surfaces, apparaît dans l’épaisseur un troisième tissu, dit mésoderme. Chacune de ces trois familles, issues de l’être primitif triploblaste, se différencie ensuite pour constituer les organes. L’ectoderme (externe) est à l’origine de la peau des vertébrés et de la carapace des insectes. Curieusement, il évolue aussi pour former le système nerveux. L’endoderme (interne) va donner naturellement le tube digestif. Il se diversifie ensuite en foie, pancréas, poumons et vessie. Enfin, le mésoderme (entre les deux autres) comprend les vaisseaux, le sang, les muscles, les reins, le squelette, etc. Ainsi, tous les tissus composant le corps d’un vertébré proviennent de ces trois familles héritées de notre ancêtre, le premier animal triploblaste. Cette distinction en trois feuillets est de grande importance en médecine.

LE DÉVELOPPEMENT DE L’EMBRYON RÉCAPITULE L’HISTOIRE DES ESPÈCES Dans les années suivant la parution de L’Origine des espèces, le biologiste Ernst Haeckel, grand supporter de Darwin, observe l’embryogenèse. Il découvre cette règle fondamentale de la biologie : on retrouve dans la croissance de chaque embryon, les principales étapes de l’histoire du vivant depuis les toutes premières créatures multicellulaires, il y a des centaines de millions d’années. En d’autres termes, le film de toute la généalogie d’un animal depuis ses plus anciens ancêtres, apparaît de façon résumée, dans la formation de son embryon. En langage scientifique, l’ontogenèse récapitule la phylogenèse. Il ne faut pas s’étonner que le passé lointain se répète ainsi chez chaque embryon. Comme il n’existe pas de Grand Horloger, la nature ne suit aucun schéma préétabli : elle évolue simplement vers de nouvelles espèces par variation à partir des précédentes. 336

Les clés secrètes de l’Univers

Des bactéries aux primates

Par analogie, on peut imaginer comment la construction des maisons s’est sophistiquée au cours des temps depuis la préhistoire, par inventions successives. L’Homme primitif a pu construire ses premiers abris dans la terre. Plus tard, ses descendants ont eu l’idée d’utiliser des branches d’arbres pour faire un toit. Quand est apparue l’agriculture, il a découvert que la bouse de vache séchée permettait de monter des murs verticaux. Puis, il a combiné cela avec toutes sortes de matériaux de récupération trouvés autour de la maison. L’évolution repose sur un principe tout à fait similaire : à un moment donné, toute idée est bonne à prendre si elle améliore le quotidien. La sélection, juge ultime, trie les meilleures et les laisse se transmettre. L’ensemble de ces « astuces » accumulées par les espèces au cours des millénaires se récapitule dans la croissance de l’embryon, tel un livre d’histoire. Les exemples de la loi de Haeckel sont nombreux. Chez l’Homme, la formation de l’embryon (l’embryogenèse ou plus généralement l’ontogenèse) reprend différents traits de nos ascendants (la phylogenèse). D’abord, il se développe en milieu aqueux, dans le liquide amniotique, rappel de notre passé sous-marin. Autre caractéristique déjà mentionnée, ses stades évolutifs reproduisent l’apparence des êtres multicellulaires les plus primitifs : d’abord crêpe puis ovoïde. Ensuite, on voit apparaître la colonne vertébrale, chaîne segmentée provenant de nos très lointains ascendants, les vers annelés. Un autre fait étrange concerne les mains du fœtus : elles commencent à se former avec des doigts palmés. Cette phase rappelle qu’il y a 400 millions d’années, les nageoires de nos ancêtres poissons furent à l’origine de nos quatre membres. Peu après la création des mains, ces palmes disparaissent par mort programmée des cellules (apoptose). Ce curieux passage par la main palmée ne sert à rien de particulier dans le développement du futur petit homme : il n’est qu’une trace fossile de son histoire ancienne. Il montre bien comment la nature procède par modifications additives.

337

Partie 4. Des premiers êtres monocellulaires à l’Homme

PLANTES, CHAMPIGNONS ET ANIMAUX Rapidement, les êtres multicellulaires primordiaux se séparent en trois règnes : les végétaux, les champignons (Fungi) et les animaux. Les premiers, des algues, vivent grâce à la lumière solaire qu’ils exploitent par photosynthèse. Ils sont généralement fixes, attachés au fond des eaux. Chacune de leurs cellules s’enferme dans une paroi solide faite de cellulose. Cette substance, produite par la photosynthèse, permet aux végétaux de former des structures semi-rigides pouvant atteindre de grandes dimensions, comme le tronc des arbres aujourd’hui. Les deuxièmes, les champignons, sont aussi sédentaires, mais ils se nourrissent différemment : ils absorbent des débris de l’activité bactérienne, qu’ils ont digérés préalablement de façon externe en sécrétant des enzymes dans leur proximité. Enfin, les troisièmes, les animaux, prennent le parti contraire : se déplacer pour s’alimenter. Ils consomment des végétaux ou bien d’autres animaux. Élaborée au cours des siècles par l’examen minutieux des ressemblances entre espèces, cette distinction en trois règnes reste le classement en vigueur de nos jours tout en haut de l’arbre généalogique. Pourtant, avec les progrès de la génétique, la frontière entre les trois paraît de plus en plus floue. Beaucoup de familles sont difficiles à situer. À titre d’exemple, les anémones de mer, traditionnellement considérées comme des animaux, présentent de nombreux traits propres aux végétaux. Il est utile de rappeler que les créatures des trois règnes sont toutes constituées de cellules eucaryotes dont les caractéristiques sont très similaires. Cette proximité entre végétaux et animaux explique pourquoi la majorité de nos médicaments provient des plantes. Les substances agissant sur les cellules végétales, fonctionnent très souvent aussi sur celles des animaux et réciproquement. L’Homme a ainsi décelé très vite les vertus chimiques de la flore. Une autre raison de l’origine végétale de notre pharmacopée vient de la chimie très riche et diversifiée développée par les plantes. Pourquoi ? Cela tient à leur façon de 338

Les clés secrètes de l’Univers

Des bactéries aux primates

se concurrencer dans la lutte pour la vie. Comme elles sont fixées au sol, leur confrontation s’est exprimée par des moyens indirects : elles se sont engagées dans une véritable guerre chimique. Une très grande créativité en matière de molécules toxiques et d’antibiotiques leur sert à se défendre dans l’écosystème pour garantir leur place au soleil. Avez-vous remarqué que sous les pins, se trouve un tapis d’aiguilles où presque rien ne pousse ? La raison est simple : les aiguilles des conifères diffusent une substance toxique pour les végétaux, destinée à empêcher la concurrence de s’approcher trop près. Par le passé, aux débuts de la chimiothérapie, une molécule extraite du pin a été l’une des premières exploitées pour tuer les cellules cancéreuses. Aujourd’hui, on utilise toujours dans le même but une autre substance tirée du cyprès. LES GRANDES EXTINCTIONS REBATTENT LES CARTES L’histoire naturelle est ponctuée de grandes extinctions qui, à chaque fois, détruisent définitivement entre 70 % et 95 % des espèces existantes. Leurs causes sont en général cataclysmiques : chute d’une grosse météorite comme celle qui détruisit les dinosaures il y a 66 millions d’années, ou bien éruption volcanique géante. Dans les deux cas, des poussières et des gaz toxiques gagnent l’ensemble de l’atmosphère et plongent la Terre dans l’obscurité pour des mois, voire des années. Situées à l’origine de la chaîne alimentaire, les plantes vivant de la lumière solaire meurent en laissant la faune sans nourriture. Les espèces marines pélagiques (vivant en faible profondeur) sont détruites massivement par les retombées acides. Les principales extinctions se sont produites il y a 565, 435, 355, 252, 205 et 66 millions d’années, c’est-à-dire très grosso modo tous les 100 millions d’années. On a cherché à les expliquer par le mouvement du Soleil au sein de la Voie lactée : il se déplace plus vite que la rotation d’ensemble de la Galaxie et par conséquent, il traverse périodiquement les bras de sa spirale. À chaque fois, cela accroîtrait la probabilité de recevoir des météorites. Selon une autre thèse plus simple, le hasard déclencherait en permanence des micro-cataclysmes et, plus rarement, 339

Partie 4. Des premiers êtres monocellulaires à l’Homme

des grands : il s’agirait de la loi statistique dite loi de puissance, faisant qu’il existe la tempête du siècle ou le Big One, nom donné au gros tremblement de terre se reproduisant tous les 50 ou 100 ans au même endroit en Californie ou au Japon. Nous avons aussi parlé de cette loi au chapitre précédent en évoquant comment varie la houle sur les océans. À vrai dire, la périodicité des extinctions reste mal expliquée. En observant l’effet de ces catastrophes sur les 600 derniers millions d’années, on a conclu qu’elles ont toutes été suivies d’une grande explosion de créativité. En libérant la plupart des niches, chacune a permis à de nombreuses espèces nouvelles de voir le jour et de prospérer. Ces phases de radiation adaptative ont joué un rôle majeur dans le passé. On retient habituellement le côté destructeur des extinctions en oubliant qu’elles sont aussi des accélérateurs de l’évolution : vues sous l’angle darwinien, elles ne sont que des épisodes ultrarapides de sélection naturelle. Quant aux mutations, elles ont beaucoup plus de chances de s’exprimer pleinement quand le cataclysme a fait le vide, plutôt que dans la situation précédente où toutes les niches sont saturées. Il est frappant de constater à quel point la martingale de Darwin exploite toutes les opportunités pour engendrer la diversité, même les cataclysmes les plus calamiteux. Ils aident à progresser vers la complexité dans la mesure où, poussant l’écosystème hors de son état d’équilibre, ils favorisent le passage de certaines bifurcations dans l’évolution. De là émergent des espèces radicalement différentes. La plupart des mammifères et nous-mêmes n’auraient probablement pas existé si la suprématie des dinosaures n’avait été renversée par la chute d’un gros astéroïde. Toute la généalogie des êtres multicellulaires est ainsi ponctuée de catastrophes suivies d’explosions de diversité. On ne peut parler d’extinction sans mentionner celle se produisant aujourd’hui, du fait de la colonisation de la planète par l’Homme à marche forcée. Cette année a circulé une vidéo touchante où l’on voyait un orang-outan s’en prendre à une équipe de déboisement qui détruisait son habitat en Thaïlande. Tout seul, il essayait d’intimider les bûcherons, leurs bulldozers et leurs excavatrices. Au Brésil 340

Les clés secrètes de l’Univers

Des bactéries aux primates

actuellement, le rythme de la déforestation atteint la superficie d’un gros département français par an. Comme chaque seconde, il naît 6 humains et il en meurt 3, la population mondiale augmente de 90 millions d’individus par an. Il est donc à craindre que le massacre de la flore et de la faune se poursuive. Or il est extrêmement rapide à l’échelle de l’histoire biologique. Sur 5 à 8 millions d’espèces animales et végétales, 27 000 disparaissent chaque année, c’est-à-dire 3 par heure. Ce rythme est des milliers de fois supérieur à celui de l’élimination naturelle prévalant sur la planète avant notre arrivée. Malheureusement, cette disparition massive n’apportera pas l’élan de créativité que les cataclysmes précédents avaient déclenché. Jusqu’à présent, la flore et la faune avaient toujours rebondi en tirant parti des catastrophes et en exploitant les niches qu’elles libéraient. Mais cette fois, l’Homme ne leur en laissera pas le loisir, à moins de corriger fondamentalement sa façon de vivre ou bien de disparaître à son tour. LA SORTIE DE L’EAU Il y a 550 millions d’années environ, la variété des êtres multicellulaires est déjà stupéfiante. Certains sites livrent une étonnante diversité de fossiles, montrant toutes sortes de créatures très différentes de celles existant de nos jours. Dans les océans, on trouve des algues, des animaux primitifs (éponges, méduses, anémones…), des espèces plus évoluées (vers, mollusques, arthropodes) et au sommet de la pyramide, des poissons. À cette époque, la terre ferme est dénuée de vie. En l’absence de couche d’ozone, les UV solaires très puissants stérilisent irrémédiablement toute forme de vie s’aventurant hors des mers. Pour cette raison, la recherche de la vie sur d’autres planètes commence toujours par celle de l’eau : non seulement ce milieu permet la chimie complexe de la vie, mais il est aussi un rempart efficace contre le rayonnement nocif des étoiles. Certaines espèces se risquent néanmoins hors de l’eau car il existe partout des mares et des zones littorales s’asséchant au rythme des 341

Partie 4. Des premiers êtres monocellulaires à l’Homme

marées. Toutefois, ces tentatives ne se prolongent pas longtemps à cause de l’intensité des UV, de sorte que l’immensité des continents reste stérile. Pour reprendre la terminologie de Kauffman, ces derniers représentent à l’époque, un possible adjacent en attente de colonisation. L’apparition de la fonction chlorophyllienne va ouvrir la porte de cet eldorado. En produisant du dioxygène O2 en quantité, les bactéries marines vont induire des changements majeurs dans l’environnement. Quand la teneur en O2 atteint une valeur importante dans l’atmosphère, une couche d’ozone O3 apparaît en haute altitude. Elle va constituer un bouclier contre les UV les plus nocifs. Alors, le possible adjacent va devenir accessible et la vie va s’étendre sur les continents. Dans un premier temps, des bactéries et des mousses s’aventurent sur la terre ferme. Il y a environ 470 millions d’années, des plantes plus élaborées se développent sur les sols rocheux. Puis, 40 millions d’années plus tard, ceux-ci sont déjà recouverts d’un film végétal. Il contribue à faire croître plus avant la teneur en oxygène et par conséquent, la couche d’ozone protectrice. Une fois le rayonnement UV filtré, la Terre devient habitable. De plus, cette biomasse en croissance constitue un aliment de choix pour motiver les animaux à sortir de l’eau. Parmi eux, différentes espèces vont réussir le tour de force de s’adapter à la sécheresse de l’environnement terrestre : – un arthropode (crustacé). Il était particulièrement inspiré puisque l’ensemble des insectes descend de lui : aujourd’hui, cela représente 1,3 million d’espèces et l’on en découvre encore 10 000 chaque année. Les arachnides proviennent aussi des crustacés : qui n’a pas été frappé par la ressemblance entre le scorpion et le homard ? – un mollusque dont descendent les gastéropodes terrestres : escargots et limaces. Ils ne se sont pas complètement affranchis de l’eau car ils attendent la pluie pour se déplacer ou sécrètent de la bave pour ramper sur une surface sèche ; – enfin, un poisson. Il est notre ancêtre et nous allons en parler plus précisément. 342

Les clés secrètes de l’Univers

Des bactéries aux primates

UN POISSON À L’ORIGINE DES TÉTRAPODES Le long des côtes, les bas-fonds sont alternativement recouverts et asséchés par les marées. Les nombreux animaux qui s’y font piéger constituent une réserve de nourriture abondante et facilement accessible aux prédateurs. Certains poissons se spécialisent pour exploiter cette niche en développant la double capacité de ramper sur les sols boueux et de respirer l’oxygène de l’air (fig. 68). Il existe encore de nos jours une espèce de ce type : le dipneuste, véritable fossile vivant. Pour se déplacer dans les zones marécageuses, il s’appuie sur le sol en utilisant quatre de ses nageoires. Celles-ci se durcissent et se musclent : elles deviendront les membres des tétrapodes, classe dont l’Homme fait partie. S’il avait réalisé cette adaptation avec six de ses nageoires au lieu de quatre, nous serions probablement des hexapodes comme les insectes. Nous disposerions de deux membres supplémentaires : deux bras de plus, deux jambes ou deux ailes peut-être ? On découvre là un des mécanismes contraignant le hasard : parce qu’un ancêtre s’est adapté à la marche à quatre pattes ou à six, toute la descendance respecte ensuite ce plan corporel. Ainsi, les espèces sont strictement formatées par leur propre passé : les bifurcations prises à un moment ou à un autre de l’évolution, en général par le fait du hasard, s’imposent aux générations suivantes. À propos de l’adaptation de la respiration chez notre ascendant aquatique, on imaginerait facilement que ses branchies se soient progressivement habituées à puiser l’oxygène dans l’air et non dans l’eau. Curieusement, il n’en a rien été. Le Grand Bricoleur de Génie a trouvé une astuce différente en exploitant un autre organe des poissons : leur vessie natatoire. Il s’agit d’une cavité d’air leur servant à descendre ou monter plus ou moins profondément dans l’eau grâce à la poussée d’Archimède. En faisant varier le volume de cette vessie, comme le fait un sous-marin avec ses ballasts, ils se déplacent dans le sens vertical. Chez notre ancêtre, la paroi de cet organe a évolué pour permettre à l’oxygène gazeux de passer dans le sang : c’est l’origine de nos poumons. 343

Partie 4. Des premiers êtres monocellulaires à l’Homme

On comprend très bien cette histoire quand on observe aujourd’hui les crabes tourteaux. Ils exploitent précisément la niche des côtes inondées au rythme des marées. Ils peuvent respirer un jour ou deux à l’air libre, tout en restant dépendants de l’eau. Il s’agit tout simplement d’une espèce en train de sortir des océans.

Figure 68 | Le poisson sort de l’eau.

Les premiers animaux terrestres issus du poisson sont des amphibiens, sortes de salamandres. Leur lieu de vie se limite aux zones côtières car ils pondent nécessairement leurs œufs dans l’eau. À partir de là, apparaît une innovation majeure chez leurs descendants, les lézards : l’œuf amniotique. L’embryon est abrité dans un milieu aquatique à l’intérieur d’un œuf que la mère peut désormais pondre sur la terre sèche. Grâce à cette avancée, les lézards vont rapidement envahir l’immensité du possible adjacent constitué par la terre ferme. Ils vont gagner toutes les surfaces d’autant plus facilement qu’à cette époque, il existe un seul continent, la Pangée. L’ordre des lézards s’avérera particulièrement résilient puisqu’ils survivront à la grande extinction du Crétacé, pourtant fatale à leurs descendants, les dinosaures. Le fait que ces êtres très primitifs soient encore présents de nos jours, est un exemple de plus montrant que l’évolution darwinienne ne vise pas la montée vers la complexité. Elle tend plutôt à maximiser l’adaptation par la diversité. 344

Les clés secrètes de l’Univers

Des bactéries aux primates

DINOSAURES D’HIER ET D’AUJOURD’HUI À la suite de l’extinction du Permien il y a 252 millions d’années, la plus grande de l’histoire, les lézards vont survivre et donner naissance à deux classes importantes : les dinosaures d’abord et les mammifères peu de temps après. Les premiers vont s’imposer dans toutes les niches sur terre, en mer et dans les airs : gros herbivores atteignant 30 mètres de long et 90 tonnes, prédateurs de toutes sortes et de toutes tailles, ptérodactyles inventeurs du vol battu, puis espèces retournées dans les océans pour y semer la terreur. Ces êtres dominants vont cantonner les mammifères à la vie nocturne, au moment où euxmêmes dorment. Pour évoluer et se nourrir la nuit, ces derniers vont développer tous leurs sens : l’odorat, l’ouïe, la vue et le toucher par les vibrisses tactiles du museau. Ces qualités leur seront fort utiles lors de l’extinction du Crétacé. À beaucoup d’égards, il convient de consacrer quelques lignes aux oiseaux. On les a longtemps considérés comme des descendants des dinosaures. C’est faux : ils sont des dinosaures ! En fait, ce sont les seuls à avoir survécu au cataclysme du Crétacé. Alors que la chute d’un gros météore avait en grande partie stérilisé la vie sur Terre, le vol était un avantage majeur pour chercher la nourriture là où il en restait. Si vous voulez vérifier que l’oiseau est bien un dinosaure, vous pouvez vous livrer à une petite expérience qui intéressera aussi vos enfants. Vous achetez un poulet plumé mais entier avec le cou et les pattes. Vous l’étalez sur le côté en longueur sur une table où vous placez aussi une image de vélociraptor, tels ceux de Jurassic Park. Vous faites un peu d’anatomie comparée : observez la forme générale du corps, les pattes à trois doigts, la texture de la peau et des paupières. Ces années passées, l’étude chimique des fossiles a montré sans ambiguïté que les plumes sont apparues chez les dinosaures bien avant les oiseaux. On présume qu’elles leur servaient à se protéger contre le froid. Elles présentaient peut-être aussi une vertu cosmétique pour les amours, comme c’est toujours le cas chez les oiseaux. 345

Partie 4. Des premiers êtres monocellulaires à l’Homme

Parmi les fossiles de dinosaures, un vélociraptor à plumes est devenu célèbre grâce à Darwin : l’archéoptéryx. Le savant avait compris que les espèces se déployaient selon un arbre généalogique dans le temps et non sur un tableau fixe créé d’un seul coup par Dieu. Pour convaincre ses contemporains, il lui fallait trouver des exemples de filiation entre espèces passées, cependant la base des fossiles disponibles était bien insuffisante pour cela. Heureusement pour lui, en 1861, on découvre des ossements d’archéoptéryx, une espèce intermédiaire entre les dinosaures connus à l’époque et l’oiseau : il possède déjà des membres antérieurs allongés et des plumes, sans pour autant pouvoir voler. Cette forme suggère une histoire simple : l’animal cherche à se nourrir d’insectes volants. Il saute et s’aide de ses bras à plumes pour accéder plus haut et plus loin. Cela mènera au vol battu et à l’oiseau. Cette découverte a bien servi Darwin qui, pour l’Origine des espèces, recherchait des exemples de fossiles arrangés en lignées comme sa théorie le prévoyait. À vrai dire, l’archéoptéryx est le seul maillon intermédiaire qu’il ait pu présenter à l’appui de sa thèse. Aujourd’hui, on dispose d’une base de fossiles bien plus riche qui illustre mieux la généalogie. En ce petit dinosaure, on ne voit plus un chaînon menant aux oiseaux, mais plutôt une branche éteinte parmi beaucoup d’autres. L’ÉPANOUISSEMENT DES MAMMIFÈRES Il y a environ 200 millions d’années, apparaît la première souche de mammifère issue d’un lézard. Cet ancêtre commun ressemble à un petit rongeur craintif, sorte de musaraigne à longue queue, mangeur d’insectes (fig. 69). Il mesure une vingtaine de centimètres, la taille d’une dent de Tyrannosaurus rex ! À une époque où le règne animal est largement dominé par les lézards et les dinosaures, les mammifères se sont dotés de caractéristiques spécifiques pour vivre discrètement la nuit, se nourrir d’insectes et échapper aux prédateurs. À beaucoup d’égards, leur corps et leur cerveau sont nettement plus sophistiqués, ce qui leur permettra un 346

Les clés secrètes de l’Univers

Des bactéries aux primates

jour de prendre le dessus. Outre la finesse de leurs sens, ils disposent de nombreux atouts tel l’allaitement pour prolonger le développement du petit, le sang chaud permettant un métabolisme bien plus performant que celui des animaux à sang froid, et la fourrure pour l’isolation thermique. Plus important encore est leur néocortex volumineux et complexe, constitué de 6 couches de neurones. Le spécialiste de l’intelligence artificielle Ray Kurzweil explique qu’ils en retirent une capacité d’adaptation très supérieure. Les changements climatiques tendent à faire dépérir les espèces existantes car il leur est difficile de s’y accoutumer dans le court terme. Certes, l’évolution darwinienne leur donne toujours une chance, mais cela prend des millénaires : il faut attendre très longtemps pour que des mutations favorables apparaissent du seul fait du hasard, puis qu’elles se propagent au sein de l’espèce. Mieux armé, le mammifère dispose d’une réactivité immédiate grâce à son néocortex. Chaque individu jouit d’une intelligence lui permettant de maximiser sans cesse ses possibilités de survie face aux changements environnementaux. Il fait varier son mode d’alimentation, ses tactiques et ses zones de chasse, son habitat ou son comportement collectif. Cet avantage dû au néocortex permettra aux mammifères de survivre à l’extinction du Crétacé, puis de se diversifier largement. Il sera à l’origine de l’espèce humaine, quand l’intelligence deviendra le premier facteur d’adaptation chez certains primates.

Figure 69 | Le premier mammifère.

Les dinosaures occupant la plupart des niches, les mammifères sont sévèrement contraints au niveau des ressources alimentaires, ce qui limite leur taille et leur nombre. Cela est d’autant plus pénalisant pour eux que leur organisme plus sophistiqué a besoin de plus d’énergie. 347

Partie 4. Des premiers êtres monocellulaires à l’Homme

Cette situation de domination va durer 135 millions d’années, une nouvelle indication que la nature ne tend pas nécessairement vers la complexité. Un événement contingent va enfin leur permettre de s’imposer. L’ère des dinosaures se termine brutalement au Crétacé supérieur, il y a 66 millions d’années, avec la chute d’une météorite d’une dizaine de kilomètres de diamètre. Ce cataclysme semble avoir été accompagné d’un autre, tout aussi dévastateur : d’immenses éruptions volcaniques dans le Deccan en Inde, ayant couvert une superficie égale à trois ou quatre fois celle de la France. La Terre s’est trouvée plongée dans l’obscurité pendant de nombreux mois, voire plusieurs années. Cela a suffi pour stopper la fonction chlorophyllienne, refroidir la surface de la planète jusqu’à – 20 °C et éliminer tous les animaux de plus de 20 kg de masse corporelle. La vaporisation instantanée des roches à l’endroit de l’impact a diffusé de grosses quantités de soufre dans l’atmosphère. Retombées sous forme de pluies acides, elles ont tué en quelques semaines, les espèces sous-marines des faibles profondeurs dont le plancton. L’énorme biomasse de la végétation, très florissante avant la catastrophe, a pourri et a fourni un stock alimentaire aux bactéries et aux insectes pour longtemps. Alors, les petits mammifères insectivores qui vivaient cachés pour échapper aux dinosaures, ont vu se présenter à eux une chance unique de survivre et de se développer. Ce cataclysme cosmique survenu par hasard, a ouvert la porte vers un immense domaine du possible adjacent et la nature s’y est engouffrée. Un foisonnement de mammifères de toutes sortes, capables d’occuper toutes les niches à la manière de leurs prédécesseurs, s’est déployé en quelques centaines de milliers d’années. Ils représentent aujourd’hui une faune de 5 000 espèces. LE RETOUR DANS L’EAU Sachant à quel point il a été difficile pour les vertébrés de sortir des océans et de s’adapter à la vie terrestre, on ne peut que s’émerveiller de voir des vertébrés terrestres emprunter le chemin inverse, pourtant 348

Les clés secrètes de l’Univers

Des bactéries aux primates

tout aussi improbable. Déjà chez les dinosaures, plusieurs espèces s’étaient réadaptées à l’eau. Les mammifères vont en faire de même avec les cétacés. Nous consacrons quelques lignes à ce retour aux origines car il démontre l’extrême efficacité de la martingale darwinienne, capable de transformer un poisson en bête à poils puis de refaire un poisson à partir de celle-ci ! L’adaptation des mammifères à la vie aquatique aurait été favorisée par l’apparition d’une nouvelle niche : une abondante biomasse de plancton se serait développée dans les mers à la suite de changements climatiques. On a découvert des fossiles d’un mammifère de l’époque, ressemblant à un raton laveur. Il a commencé à vivre dans l’eau pour s’alimenter puis s’est adapté progressivement au milieu aquatique, au point de déboucher in fine sur de quasi-poissons. Cette évolution étonnante, prouvée par les fossiles, est qualifiée de convergence évolutive : les poissons et les cétacés sont très éloignés dans l’arbre généalogique, pourtant ils ont une morphologie très proche, ils se déplacent et se nourrissent de manière similaire. La raison est simple. Dans les méandres de l’environnement, la nature se fraie toujours un chemin vers les solutions qui marchent : plusieurs routes mènent à Rome. Un autre exemple de convergence évolutive est le vol battu, apparu séparément chez les ptérosaures (reptiles), les oiseaux et les chauvessouris. De façon indépendante, ces créatures ont toutes utilisé le même artifice : les doigts de la main s’allongent et une voilure se forme entre eux. NOTRE FAMILLE : L’ORDRE DES PRIMATES Spontanément, nous tendons à observer l’arbre généalogique depuis la branche où nous sommes assis. Cette vision anthropocentrique a causé bien des erreurs dans la compréhension du vivant et plus récemment, dans la recherche des origines de notre espèce. Avec quelques précautions, nous adopterons néanmoins ce point de vue, celui de la branche menant à l’Homme, car après tout, c’est bien la plus intéressante pour nous ! Ceci nous amène à nous concentrer 349

Partie 4. Des premiers êtres monocellulaires à l’Homme

sur un petit sous-ensemble de la classe des mammifères, l’ordre des primates, ne comprenant que 186 espèces, dont la nôtre. Le plus ancien fossile de primate connu, trouvé en Chine, est daté de 37 millions d’années. Il ressemble au tarsier, petit mammifère qui peuple les forêts des Philippines de nos jours. À cette époque reculée, cet animal de la taille d’un rat (fig. 70) est déjà doué : il parvient – on ne sait trop comment – à traverser la mer séparant alors l’Asie de l’Afrique, plus grande que la Méditerranée aujourd’hui. En ce tempslà, seules deux espèces de mammifères sur 45 000 auraient réussi cet exploit. À partir de là, il aurait évolué rapidement pour coloniser le territoire africain.

Figure 70 | Le premier primate.

Cet ancêtre commun s’est adapté à la vie arboricole et à la consommation de fruits. Il s’est doté de caractéristiques uniques qui vont grandement favoriser son intelligence. La première est la vision stéréoscopique : ses yeux sont placés devant sur la face au lieu d’être localisés sur les côtés de la tête comme chez le cheval ou la poule. Les oiseaux et la plupart des mammifères possèdent des orbites en position latérale pour privilégier la vision panoramique et surveiller les prédateurs. Chez le primate, la position faciale vise plutôt la perception des reliefs (il y a moins de prédateurs dans les arbres !). Le 350

Les clés secrètes de l’Univers

Des bactéries aux primates

cerveau a dû s’adapter au traitement et au rapprochement des deux images issues des deux yeux, ainsi qu’à l’estimation des distances par la vision stéréoscopique. La seconde particularité de ce primate est la préhension digitopalmaire. On admirera ses petites mains finement dessinées : sans aucun doute, il est très habile de ses doigts ! Enfin, sa troisième caractéristique est la station debout : il tend déjà à se tenir verticalement sur les branches. L’importance de ces traits est considérable pour le développement de l’intelligence : imaginons à quel point l’Univers peut paraître différent aux yeux de ce petit animal capable de localiser précisément les objets dans l’espace et de les manipuler minutieusement, par rapport à une vache qui perçoit en deux dimensions seulement, l’étendue verte et homogène d’une prairie devant son mufle. Les singes tiennent toujours la vedette dans les zoos en raison de leurs ressemblances avec notre propre espèce. La plupart des caractéristiques que nous nous attribuons communément, sont déjà observables chez les primates, au moins de façon embryonnaire. Passons-les en revue : – Le primate affectionne la position debout, sur la terre et dans les arbres. Il passe d’ailleurs une bonne partie de sa vie au sol. Sur ce plan, l’Homme se distingue du singe par un squelette plus adapté à marcher et courir sans dodeliner. – Comme pour nous, sa reproduction est lente : en général, un seul petit par portée et une longue période de dépendance de l’enfant, mise à profit pour son éducation. – À la manière des humains, il vit en groupes (de 20 à 200 individus), caractérisés par une activité sociale intense. Celle-ci ne vise pas uniquement la survie individuelle : les actes altruistes sont fréquents. Ainsi, quand un chimpanzé parvient à attraper une proie, il partage volontiers la viande avec les autres, à charge de revanche. Cette pratique ne concerne pas les fruits ou les feuilles que chaque individu peut trouver dans les arbres sans difficulté. Quand ils se blessent, les chimpanzés se lèchent entre eux pour favoriser la guérison. On 351

Partie 4. Des premiers êtres monocellulaires à l’Homme

observe chez eux une vie sociale évoluée : chasse collective, partage des nourritures rares, comportements de consolation, conflits personnels, guerres, politique, morale et châtiments, etc. – Les primates utilisent couramment des outils rudimentaires de pierre, d’os et de bois, sans pour autant savoir les fabriquer : baguettes pour attraper les termites ou gros cailloux pour casser les noix. Ils se transmettent ces pratiques de génération en génération par une culture élémentaire. – La capacité de langage du chimpanzé peut atteindre 100 à 150 mots chez les individus entraînés par l’Homme. Il les exprime par signes, la forme de son larynx n’étant pas appropriée à la parole. Il est inapte à comprendre une quelconque syntaxe. – Enfin, il dispose d’une conscience très primitive. Le chimpanzé fait partie des très rares espèces passant le test du miroir (y reconnaître sa propre image). On a aussi observé chez lui une compréhension minimum de la mort. On a vu toutes sortes de comportements inusuels lors du décès d’un membre de la tribu. En conclusion, il n’y a rien de très nouveau chez l’Homme, si ce n’est que les qualités apparues chez les primates se sont exceptionnellement renforcées chez lui. Nous ne pouvons pas nous attribuer de façon exclusive la bipédie, l’intelligence et la sociabilité, car ces caractéristiques sont toutes nées chez les primates. Tout au plus pouvonsnous dire qu’elles ont été poussées très loin dans notre espèce. L’APPARITION DES SINGES BIPÈDES, LES HOMININES En une trentaine de millions d’années, différentes familles de singes se sont détachées : successivement les gibbons, les orangsoutans et les gorilles. Ensuite, la branche restante s’est séparée entre les chimpanzés et les hominines (bipèdes) dont nous sommes issus. Notre origine simiesque, si controversée à l’époque de Darwin, est aujourd’hui prouvée tant par les fossiles que par la génétique. La séparation homme-singe s’est produite en Afrique, il y a environ 6 millions d’années. 352

Les clés secrètes de l’Univers

Des bactéries aux primates

On définit les hominines par l’émergence de la bipédie permanente. Elle est survenue grâce à des modifications du gros orteil (devenu non préhensile), du fémur, du bassin et du crâne. Le centre de gravité de leur corps s’est ainsi retrouvé à la verticale des jambes, ce qui les a dotés d’une excellente capacité à la course. Elle s’est encore améliorée chez l’Homme moderne : en dehors du cheval, peu d’espèces peuvent le battre en endurance. À la préhistoire, il repérait une charogne jusqu’à 5 ou 10 km de distance en observant le vol des vautours, puis courait sans arrêt pour être parmi les premiers à en profiter. Il est devenu un remarquable chasseur : même avant d’inventer les armes, par sa seule endurance, il pouvait traquer une bête jusqu’à la mort par épuisement (de la bête !). La perte de la fourrure et l’apparition d’une transpiration efficace lui permettaient d’évacuer les calories lors de la course de longue durée. Parallèlement aux capacités physiques, il s’est produit un développement extraordinaire du cerveau et des facultés intellectuelles : la possibilité de formaliser le passé, le présent et le futur, la conscience et l’aptitude au langage. En outre, deux modifications morphologiques ont émergé avec l’intelligence. Une évolution du larynx a favorisé l’articulation des mots, et donc, la communication orale. Par ailleurs, la libération de la main chez le bipède a accru ses dispositions à la préhension et au maniement des outils. Toutes ces différences avec le singe sont très marquées. À titre d’exemple, les capacités intellectuelles de l’enfant de trois ans surpassent celles du chimpanzé adulte. Pourtant, sur un plan génétique, seul 0,1 % des gènes diffère entre les deux espèces. Autrement dit, un nombre très faible de mutations a suffi pour passer du singe à l’Homme. On parle de parcimonie génétique. En voici un second exemple chez le chien. L’ancêtre des lévriers est un chien assez pataud, de type labrador. Une seule mutation sur un gène précis l’a transformé en une bête élancée, taillée pour la course. Si chez un lévrier, on manipule le gène concerné pour revenir à la situation précédente, sa descendance retrouve la forme du labrador. Ainsi, la variation d’un 353

Partie 4. Des premiers êtres monocellulaires à l’Homme

seul gène peut avoir des conséquences importantes par le simple fait du hasard. La parcimonie génétique est un principe général chez tous les êtres vivants ; 20 000 gènes suffisent pour concevoir un être de la complexité de l’Homme ! Ce résultat étonnant est encore l’œuvre de la martingale de Darwin : en sélectionnant les meilleurs gènes, elle parvient aussi à les économiser. C’est indispensable, car si de nouveaux gènes s’empilaient indéfiniment, le génome s’allongerait démesurément, rendant la reproduction difficile et imprécise. La nature contraint les aléas et impose ce compromis entre profusion et économie. On a longtemps pensé que les caractéristiques fondamentales nous distinguant des autres primates étaient apparues par un coup de baguette magique. Pour les croyants, Dieu avait provoqué chez le singe une « étincelle » pour qu’apparaisse enfin l’être attendu. Pour certains non-croyants, des rayons cosmiques avaient, par le plus heureux des hasards, modifié le génome d’un primate. Ce changement majeur s’était ensuite propagé dans la descendance. Aucune de ces théories ne s’accorde avec les faits. Les quelques mutations qui, en se combinant, ont fabriqué l’Homme à partir du singe, sont la résultante d’un long processus d’essais et d’erreurs, mis en œuvre par le Grand Bricoleur de Génie sur des millions d’années. Il est résumé dans le chapitre suivant.

354

Les clés secrètes de l’Univers

13 Homo, son cerveau, sa conscience

« Chacun n’est que partie d’un tout prodigieux, Dont le corps est nature et dont l’âme est Dieu. » Alexander Pope

La recherche des origines d’Homo sapiens a toujours été une source d’erreurs majeures et de controverses. La paléoanthropologie, dont les débuts remontent au xixe siècle, est marquée en 1856 par la découverte de fossiles humains à Néandertal, près de Düsseldorf. Ce lieu portait un nom prédestiné : en français, la vallée de l’homme nouveau ! On les a longtemps considérés comme nos ancêtres. Erreur : on apprendra près d’un siècle et demi plus tard, que Néandertal n’est pas un ascendant direct, mais un cousin éloigné. Pour être précis : une espèce distincte. Peu après, en 1868, les premiers restes de l’Homme de Cro-Magnon sont exhumés en Dordogne. On voit alors le berceau de l’humanité en Europe. Autre erreur, soulignée par le visionnaire Darwin : nos 355

Partie 4. Des premiers êtres monocellulaires à l’Homme

origines se situent plus probablement en Afrique, là où résident les singes nous ressemblant le plus. En 1912, une nouvelle sensationnelle traverse le Landerneau de l’archéologie. À Piltdown en Angleterre, un paléontologue amateur découvre un crâne préhistorique lors de travaux de terrassement dans une propriété. L’événement est applaudi dans le pays, car on se plaît à l’idée que l’ancêtre de l’Homme pût être anglais. Malheureusement, on est encore dans le faux. Cette fois, il ne s’agit pas d’une erreur, mais bien pire : la plus grande imposture de toute l’histoire des sciences, une mystification qui se révélera 35 ans plus tard et dont on ne connaîtra jamais l’auteur. À l’époque, différentes théories s’affrontent au sujet du passage du singe à l’Homme. On se demande quelle caractéristique est apparue en premier : la bipédie ? La croissance du cerveau ? Ou la socialisation ? Plusieurs savants étudient ces nouveaux ossements anglais intermédiaires entre le singe et nous : l’encéphale est proche du nôtre et la mâchoire est plutôt simiesque. Ils y voient la confirmation de leur thèse : le crâne tout à fait développé de l’Homme de Piltdown, prouve que l’encéphalisation est survenue en premier. Ils font grande publicité de cette découverte. D’autres doutent de l’authenticité du fossile, mais l’enthousiasme suscité par cette trouvaille les rend inaudibles. Parmi les premiers à avoir vu et analysé ces ossements, figurent Pierre Teilhard de Chardin, étudiant en théologie non loin de là et passionné de paléontologie, ainsi que Sir Arthur Conan Doyle. De nouvelles recherches sur le site apportent une foison de restes d’animaux et d’outils préhistoriques de toutes sortes. Un second site est identifié à quelques kilomètres, tout aussi prolifique. Cette abondance d’ossements est tout à fait irréaliste car, par ailleurs, la région ne recèle aucun site fossilifère. Pourtant, la découverte n’est pas remise en question et les reliques seront précieusement conservées au British Museum. Cet événement dominera la paléontologie jusqu’en 1948, époque à laquelle les premières datations par la radioactivité du fluor confirment ce que certains affirmaient depuis le début : ces fossiles sont 356

Les clés secrètes de l’Univers

Homo, son cerveau, sa conscience

des faux ! Ils ne proviennent pas de Piltdown ! Ils n’ont rien de préhistorique ! Le crâne s’avère être celui d’un citoyen du Moyen Âge, quant à la mâchoire, elle est encore plus récente et provient tout simplement d’un orang-outan ! Les deux ossements ont été artificiellement vieillis par les mains très habiles d’un expert que l’on ne démasquera jamais. De nombreuses enquêtes ont été menées en vain et des ouvrages continuent à paraître aujourd’hui sur le mystère de Piltdown. Qui donc a pu organiser la plus incroyable supercherie de l’histoire des sciences ? Le paléontologue amateur désirant devenir célèbre et côtoyer les grands ? Le savant y voyant la preuve définitive de ses thèses ? Ou bien un tiers voulant ridiculiser l’un des deux précédents ? Le biologiste S. J. Gould est allé jusqu’à prétendre que Teilhard de Chardin était complice. Pourtant une seule chose paraît sûre dans cet imbroglio : l’imposteur devait être un paléontologue confirmé. Derrière cette déplorable mésaventure, se présente déjà le mythe du chaînon manquant. Depuis que la paléoanthropologie existe, nous recherchons tel Sherlock Holmes, une chaîne continue de fossiles établissant la filiation entre le singe et notre espèce. Le but est de dessiner notre arbre généalogique à partir de la branche où nous sommes assis. Ainsi, à chaque découverte d’un nouvel ossement, le paléontologue commence par clamer haut et fort qu’il a trouvé un chaînon manquant entre tel et tel fossile connu de nos ancêtres. Et l’on ne tarde pas à démontrer qu’il s’agit en fait, d’une lignée distincte de la nôtre, une branche morte. Cette sempiternelle erreur relève de ce que l’on appelle un biais de confirmation, c’est-à-dire la tendance à interpréter la réalité de la manière qui répond à nos attentes. Malheureusement, les chaînons manquants ne cessent de manquer  ! Nous allons voir pourquoi. EN QUÊTE DES CHAÎNONS MANQUANTS, OU CHERCHER UNE AIGUILLE DANS UNE BOTTE DE FOIN À partir de notre dernier ancêtre commun avec le chimpanzé, apparaît un foisonnement d’hominines, des hommes-singes bipèdes. 357

Partie 4. Des premiers êtres monocellulaires à l’Homme

Ce sont essentiellement des Australopithèques et quelques autres espèces leur ressemblant. La quête de notre ascendance s’intensifie depuis 1959, date de la découverte de plusieurs ossements anciens en Tanzanie. Elle déclenchera ce que l’on appellera la « ruée vers l’os ». C’est aussi le moment où les méthodes de datation fondées sur la mesure de la radioactivité de différents éléments naturels, comme le carbone 14, sont devenues très précises. Elles ont permis de classer les fossiles dans le temps. La recherche de nos ascendants est particulièrement difficile pour deux raisons tenant, d’une part à l’environnement, et d’autre part aux caractéristiques des hominines eux-mêmes. À l’époque où nous nous situons, il y a 1 à 6 millions d’années, sont survenus des changements climatiques à la fois nombreux et rapides. Là où existaient d’immenses forêts équatoriales abritant les singes, apparaissent désormais des zones plus sèches, avec une végétation totalement différente. Ces espèces sont alors confrontées localement à l’impérieuse nécessité de quitter le milieu arboricole pour trouver d’autres types de nourriture au sol. Devenues omnivores grâce à quelques mutations, elles recherchent les fruits et les tubercules, en complément des petites proies et des charognes de gros animaux. Ainsi naissent les hominines, se distinguant par leur bipédie et leur adaptabilité. Ils se développent dans des niches distinctes et se démultiplient en beaucoup d’espèces nouvelles selon les endroits, un phénomène que nous avons appelé radiation adaptative. Le second facteur favorisant cette diversité et tendant à brouiller les cartes, tient à une particularité des primates : celle de vivre en groupes de quelques dizaines d’individus. On imagine comment de nombreuses petites tribus se sont trouvées piégées dans des environnements changeants : une vallée s’asséchant, une presqu’île devenant une île, ou une zone fertile fermée derrière des collines arides. Nombre de ces groupes isolés d’Australopithèques ont disparu sans laisser de descendance, néanmoins une partie d’entre eux ont survécu. Ils ont évolué en parallèle dans ces niches distinctes et se sont parfois recombinés sexuellement (on dit hybridés). Chaque peuplade avait 358

Les clés secrètes de l’Univers

Homo, son cerveau, sa conscience

développé ses propres qualités : certaines plus bipèdes, d’autres plus intelligentes ou plus avancées socialement. L’extrême fragmentation de cette population provoquait ici et là, l’apparition de gènes qui n’étaient pas « lavés » par le brassage génétique à plus grande échelle. Ces progrès très dispersés ont favorisé l’émergence d’Homo, cependant ils ont laissé une base de fossiles particulièrement confuse. Cette large variété s’est traduite par un arbre généalogique très finement divisé et prenant l’allure d’un buisson très dense (fig. 71). Le paléontologue Pascal Picq décrit cette situation ainsi : « Notre évolution n’est pas singulière mais mosaïque, plurielle, buissonnante ». Retrouver la lignée menant à l’Homme à travers ce labyrinthe est une vraie gageure. Tous les ossements connus à ce jour représentent un minuscule échantillon des espèces passées. Ils ne sont pas ordonnés selon une filiation linéaire, mais répartis sur tout le buisson, sur autant de branches éteintes. Ce problème est illustré sur la figure (qui est purement conceptuelle) : sur 6 fossiles trouvés, indiqués par des points noirs, un seul se situe sur notre lignée. Les chaînons manquants dans notre ascendance resteront certainement longtemps enfouis sous terre, perdus parmi une nuée d’autres vestiges étrangers à notre espèce. Voilà pourquoi, à chaque découverte d’un nouvel ossement, on commence par clamer qu’il s’agit d’un ancêtre, pour découvrir ensuite qu’il a appartenu à un cousin éloigné ! Cet arbre généalogique buissonnant crée un flou considérable dans la base de fossiles. Les traits observés sont souvent contradictoires. Un jour, on exhume un spécimen dont le cerveau est très développé, mais qui, par ailleurs, est peu avancé dans la bipédie. Au contraire, peu de temps après, on en trouve un autre parfaitement bipède et curieusement doté d’un encéphale primitif. Les chronologies bien établies par les méthodes de datation, ne correspondent jamais à ce que l’on attend. À l’époque de l’Homme de Piltdown, on se demandait dans quel ordre étaient apparues la bipédie, l’encéphalisation et la socialisation. Aujourd’hui, on peut y répondre en disant : en moyenne, les trois à la fois. Ou plus précisément : l’ordre a été différent selon les niches et les espèces. 359

Partie 4. Des premiers êtres monocellulaires à l’Homme

Figure 71 | Sur 6 fossiles trouvés, marqués par des points noirs, un seul se trouve sur la lignée ayant mené à l’Homme. Les autres appartiennent tous à des branches mortes.

Cette profusion buissonnante est une autre indication qu’il n’existe pas de Grand Horloger derrière l’émergence d’Homo. L’idée d’une impulsion divine ou fortuite ayant apporté un jour la conscience à un singe nouveau-né, est tout aussi irréaliste. L’évolution s’est faite de manière continue et diffuse sur des millions d’années. Les qualités humaines étaient déjà toutes présentes à l’état embryonnaire dans l’ordre des primates. Au sein de multiples groupes d’hominines, elles se sont développées d’une façon on ne peut plus anarchique. Au gré de rencontres sexuelles entre différentes tribus, les gènes se sont parfois échangés. Ainsi s’est enrichi progressivement 360

Les clés secrètes de l’Univers

Homo, son cerveau, sa conscience

le pool génétique des Australopithèques et d’Homo, c’est-à-dire la variété de leurs génomes. L’ÈRE DES AUSTRALOPITHÈQUES En 1924, on découvre le premier fossile d’Australopithèque en Afrique du Sud. On s’étonne de sa petite taille (1 mètre) car à l’époque, on est sous l’influence de la supercherie de l’Homme de Piltdown dont le crâne suggère qu’il est d’une grande stature. Australopithecus signifie singe du sud. Un nom plus approprié eut été singe debout, car il se distingue par la bipédie, même s’il sait toujours se déplacer dans les arbres avec les bras. Il ressemble au chimpanzé avec un cerveau légèrement plus volumineux (400 à 500 cm3) et une meilleure aptitude à la marche. On en a découvert une preuve touchante à Laetoli en Tanzanie. Sur un tapis de roches volcaniques, on a retrouvé les empreintes des pieds de trois individus. Très bien marquées, elles sont datées de 3,7 millions d’années. On y voit les pas d’un adulte et d’un enfant, côte à côte et synchronisés, laissant penser qu’ils se tenaient par la main. Visiblement, un confrère les suivait en mettant les pieds dans les traces du premier. L’invention de la bipédie et l’ingéniosité pour exploiter les ressources au sol, vont ouvrir un immense domaine du possible adjacent, précédemment inexploité. En quelques centaines de millions d’années, les nouveaux singes bipèdes vont envahir une grande variété de niches, grâce à leurs aptitudes bien plus pointues que celles des autres animaux terrestres déjà en place. L’Australopithèque est capable de courir. Plus libres, ses mains sont agiles. Son intelligence de primate est supérieure à la moyenne parmi les mammifères. Il vit en groupe de façon organisée socialement : les hommes chassent, les femmes collectent de petits animaux et des végétaux, les enfants sont pris en charge collectivement pour libérer les mères. Certains hominines savent casser de gros blocs de pierre (sans une quelconque technique) et utiliser les éclats pour dépecer la viande. 361

Partie 4. Des premiers êtres monocellulaires à l’Homme

Parmi ses qualités, celle qui va se développer le plus est l’intelligence, le meilleur moyen de s’adapter à un environnement très diversifié et sujet à d’incessantes variations climatiques. À cet égard, rappelons que l’évolution ne suit aucune intention ou finalité dans cette direction. Nous sommes simplement devant un cas particulier où l’intelligence apporte à l’espèce, un avantage compétitif tangible. Dès lors, la sélection naturelle, seul maître à bord, la retient comme utile dans la concurrence. Pour brouter un pré, la vache n’a pas besoin d’un intellect très élaboré. Si le hasard fait apparaître une souche de bovidés plus intelligente, cette caractéristique n’aura aucune raison d’être sélectionnée et ne se propagera pas dans le pool génétique de l’espèce. Inversement, un animal chassant en groupe tire un profit de son intelligence et celle-ci sera soumise à sélection. À ce titre, certains pensent que le dauphin, grand chasseur en meute, est l’animal le plus intelligent avant le chimpanzé. On s’en rendrait moins compte simplement parce qu’il est moins aisé de communiquer avec lui. L’hominine se trouve précisément dans une situation unique où l’intellect devient un facteur clé dans la sélection. Parallèlement, le comportement social se sophistique. Cette évolution déjà sensible chez beaucoup de primates, est largement liée au partage de la nourriture carnée. Pour une espèce de chasseurs, l’avantage compétitif d’une alimentation plus riche est maximal si le produit de la chasse est équitablement réparti au sein de la tribu. Cette attitude altruiste se renforce chez l’Australopithèque. Ainsi donc, bipédie, intelligence et vie en société se développent simultanément. En 1974, le monde entier tombe sous le charme de Lucy, une petite femelle d’hominine découverte en Éthiopie par une équipe incluant Yves Coppens. Le fossile est devenu célèbre car il est remarquablement complet : on a retrouvé 40 % de ses os. La plupart des restes d’autres hominines en notre possession se limitent à un fémur, un crâne, une mâchoire ou le plus souvent, une seule dent. La raison est que les os sont généralement dispersés par les charognards, piétinés 362

Les clés secrètes de l’Univers

Homo, son cerveau, sa conscience

par les gros animaux et enfin, déplacés par le ruissellement. Lucy, datée de 3,2 millions d’années, fait partie de l’espèce Australopithecus afarensis, un type très répandu. Elle mesurait un mètre et pesait une trentaine de kilos. Récemment, des chirurgiens se sont intéressés aux fractures visibles sur les os de ses jambes. Leur forme hélicoïdale a indiqué qu’elle était morte en tombant d’un arbre depuis une hauteur d’une douzaine de mètres. Il y a 3 millions d’années, d’importants changements climatiques vont stimuler l’évolution des Australopithèques. Un premier genre robuste va s’y adapter par la consommation de feuilles plus ligneuses et coriaces, grâce à des dents puissantes. Il s’éteindra il y a environ 2 millions d’années. Une autre lignée, dite gracile, va se porter vers la nourriture animale riche en protéines et en lipides. C’est en elle qu’apparaîtront les premières espèces du genre Homo, nos ancêtres, se distinguant par la croissance de l’encéphale. Leur intelligence se développera par l’exercice de la chasse collective et plus généralement, le comportement social. Ils établiront des villages stables et organisés. L’alimentation carnée leur apportera l’énergie nécessaire au fonctionnement d’un cerveau de plus grande dimension. Rappelons que l’encéphale de l’Homme moderne consomme à lui seul 20 % des besoins énergétiques de son corps. Une demi-mâchoire datant de 2,8 millions d’années, découverte en Éthiopie, est aujourd’hui considérée comme le plus ancien fossile d’Homo. LES PREMIERS HOMMES Il y a 2,4 millions d’années environ, apparaît Homo habilis. Il marque le départ d’une croissance rapide du cerveau, menant à l’Homme moderne. Cet individu généralise l’usage d’outils de pierre cassée (pas encore taillée) et réalise les premiers habitats collectifs à fondation rocheuse. Il passe maître dans l’exploitation des charognes au passage des grands troupeaux d’herbivores harcelés par les carnivores. Il repère les carcasses en observant le vol des 363

Partie 4. Des premiers êtres monocellulaires à l’Homme

vautours, comme le fait le chacal. Habile de ses mains, il découpe des morceaux de viande pour les rapporter à la tribu et les consommer en sécurité. Il dispose d’un langage très rudimentaire, similaire à celui de l’Australopithèque, lui permettant de signaler telle ou telle situation. Il y a environ 1,8 million d’années, apparaissent des espèces plus grandes, les premiers humains atteignant déjà notre taille actuelle : Homo ergaster (Homme artisan) en Afrique et Homo erectus (Homme dressé) en Eurasie. Ils développent une culture élémentaire et une capacité de modifier leur environnement : construction d’abris, première taille de la pierre pour fabriquer armes et outils, etc. Les jambes et les mains d’Homo erectus sont très proches des nôtres. Il façonne une douzaine d’outils différents par une technique élaborée, dite à éclats. Sa boîte crânienne atteint entre 800 et 1 200 cm3. Une modification du larynx lui confère des capacités orales similaires à celles d’un enfant actuel de quelques années : il peut former des mots, leur donner un sens et ainsi, décrire des lieux, des proies et des dangers. La première trace d’usage du feu remonte à 790 000 ans, mais il faut attendre 400 000 ans de plus, pour qu’il soit parfaitement maîtrisé. Il induit une transformation radicale de la vie sociale. Situé au centre du groupe, le feu écarte les prédateurs et permet de d ­ iversifier la nourriture en exploitant des végétaux moins digestes. De cette époque, il y a 500 000 ans, date aussi la première « œuvre d’art » de l’humanité : un coquillage trouvé à Java, sur lequel ont été gravés des traits en zigzag finement dessinés. Plus sordide est la découverte d’une sépulture près de Pékin, comprenant une ­quinzaine de corps. Elle révèle un rite aussi curieux ­qu’horrible : sur le crâne de chaque mort, l’ouverture occipitale a été ­soigneusement ­élargie. On en a déduit que ces individus avaient été tués par d’autres qui avaient ensuite dégusté leurs cerveaux religieusement. 364

Les clés secrètes de l’Univers

Homo, son cerveau, sa conscience

Après une très longue carrière de 1,3 million d’années s’étendant successivement en Afrique, en Asie puis en Europe, Homo erectus disparaît du registre des fossiles il y a 300 000 ans. HOMO NEANDERTHALENSIS L’Homme de Néandertal, particulièrement robuste, apparaît il y a plus de 430 000 ans. Il s’établit et se développe en Europe comme Homo sapiens s’épanouira en Afrique un peu plus tard. On sait aujourd’hui que les deux espèces sont distinctes : un couple mixte sapiens-neanderthalensis ne peut avoir de descendance qu’exceptionnellement. On a décodé la quasi-totalité du génome de Néandertal à partir de prélèvements osseux. Ce travail a prouvé qu’il s’agissait bien d’une espèce différente de la nôtre. Il a aussi indiqué que l’étanchéité génétique entre les deux lignées n’a pas été totale. En effet, on a décelé chez l’Homme contemporain, une petite proportion de gènes néandertaliens : entre 0 et 4 % du génome selon les zones du globe. Très marginalement, il s’est donc produit des hybridations entre les deux espèces : quelques couples mixtes ont réussi à laisser une descendance et provoqué un brassage limité des gènes. Homo neandertalensis reprend le flambeau au moment où Homo erectus s’éteint. Il s’adapte au climat froid d’Europe. L’environnement est moins défavorable qu’il n’y paraît car ces terres fertiles sont peuplées de troupeaux de gros herbivores, accompagnés d’une cohorte de carnivores. L’Homme de Néandertal se rend compte qu’il n’est pas très difficile de piéger ces grosses bêtes en les déroutant vers des obstacles : falaises, fosses, congères, rivières ou marais. Il met au point une technique de taille de la pierre très sophistiquée, permettant de déterminer la forme des éclats que l’on souhaite enlever. Il développe ainsi une douzaine d’outils très adaptés pour harceler ses proies, les achever et les dépecer. Pour lutter contre le froid, il bénéficie d’une nourriture abondante et grasse. Avec le sol gelé (le pergélisol, ou permafrost en anglais), il dispose d’une glacière naturelle pour conserver des quartiers de viande. Il s’adonne à des rites funéraires, 365

Partie 4. Des premiers êtres monocellulaires à l’Homme

puis, plus tard, construit des tombes. Il fabrique des bijoux ornés avec des colorants. Enfin, il parvient à monter des radeaux et à conquérir la Corse et la Sardaigne. D’une manière générale, il fait preuve d’aptitudes très proches de celles de son futur concurrent Homo sapiens. Curieusement, son cerveau est plus grand que le nôtre. Si de nos jours, on croisait dans la rue un Néandertalien habillé en tenue de ville, on ne remarquerait rien de particulier, si ce n’est sa constitution ossue et musclée rappelant le physique de certains joueurs de rugby. HOMO SAPIENS Contemporain des Néandertaliens, l’Homme dit anatomiquement moderne ou Homo sapiens naît en Afrique il y a un peu plus de 300 000 ans. On ne sait pas exactement s’il est arrivé en un point précis du continent à partir duquel il aurait envahi les autres contrées, ou bien si ses qualités distinctives sont apparues en différents endroits, puis ont été brassées au gré des flux migratoires. L’arbre généalogique buissonnant des Australopithèques donne du crédit à la seconde solution. On le reconnaît à son profil redressé verticalement et son menton proéminent. Son cerveau de 1 200 cm3 est proche du nôtre (1 400 cm3). Ses aptitudes intellectuelles sont similaires à celles de son cousin néandertalien : technique avancée de taille de la pierre, maîtrise du feu, objets artistiques, rites funéraires. Curieusement, une caractéristique physique en apparence anodine va s’avérer déterminante chez Homo sapiens : la descente du larynx. Née d’une mutation, la forme améliorée de sa gorge lui permet d’articuler une plus grande variété de sons et d’élaborer un langage plus complexe. De cette qualité va naître la culture, c’est-à-dire la capacité de transmettre et accumuler le savoir. Par rapport à nos ancêtres primates, la conscience et l’aptitude culturelle sont certainement les deux traits distinguant le plus le genre humain. Elles sont apparues très progressivement au cours des différentes étapes que nous venons de décrire. 366

Les clés secrètes de l’Univers

Homo, son cerveau, sa conscience

La culture va connaître un développement explosif il y a environ 40 000 ans : nouvelles technologies, premiers instruments de musique, premières peintures rupestres, première statuette sculptée, domestication du loup, etc. À cette époque, une souche d’Homo sapiens venue d’Afrique s’installe en Europe : Cro-Magnon, dont les ossements ont été découverts dans les grottes du Périgord. Notre continent était occupé par les Néandertaliens depuis des centaines de milliers d’années. Pourtant, Cro-Magnon va s’imposer en 8 000 ans et Homo neanderthalensis disparaître. On n’a trouvé aucune trace de guerre systématique entre les deux espèces. Elles ont dû coexister pacifiquement avec des échanges culturels. Les raisons de l’extinction des Néandertaliens ne sont pas parfaitement claires. Ils auraient tout simplement souffert du réchauffement climatique et de la disparition du gros gibier constituant l’essentiel de leur alimentation. Beaucoup plus adaptable, l’Homme moderne a connu une explosion démographique. Les derniers fossiles de Néandertaliens remontent à 32 000 ans. On connaît la suite de l’histoire : Homo sapiens envahit l’Amérique et l’Australie, invente l’agriculture il y a 11 000 ans environ, puis l’écriture 4 000 ans avant notre ère. Tout ce que nous venons de voir depuis le singe jusqu’à nous, repose sur la sélection darwinienne à l’œuvre dans un climat devenu particulièrement changeant. Nous allons revenir sur ce qui distingue le plus Homo sapiens de ses ascendants : son intelligence et sa conscience. Quelques principes des sciences de la complexité seront utiles pour cela. LE CERVEAU HUMAIN, UN RÉSEAU DE DIMENSION ASTRONOMIQUE Il est certainement l’objet le plus complexe connu dans la nature. Il exploite extensivement les différentes lois de l’émergence que nous avons déjà rencontrées depuis le Big Bang jusqu’à l’Homme, en passant par les galaxies et les étoiles. Avant d’évoquer ces règles, résumons brièvement de quoi il est fait. À l’image de l’ordinateur réunissant des milliards de composants de base, des transistors, il est un assemblage de neurones. Ce sont des 367

Partie 4. Des premiers êtres monocellulaires à l’Homme

cellules faites pour véhiculer des signaux électriques et chimiques. Comme le montre la figure 72, elles rappellent la forme d’un arbre : – en haut, les branches de la cellule nerveuse sont reliées à d’autres neurones dont elles reçoivent des signaux entrants ; – ceux-ci engendrent des courants électriques dans le neurone, qui va les traiter ; – vers le bas, il se termine par un tronc prolongé par des fibres un peu comme des racines. Celles-ci vont envoyer des signaux sortants, soit vers d’autres neurones, soit vers des muscles, glandes ou organes, pour les commander. Le neurone est donc l’équivalent d’un processeur qui reçoit différents signaux, les traite et en transmet d’autres. En son sein, se produisent des décharges électriques plus ou moins fréquentes selon la stimulation reçue depuis ses branches. Il s’agit somme toute d’un composant assez élémentaire, proche du transistor des ordinateurs.

Figure 72 | Un neurone est une cellule très allongée : son axone peut atteindre un mètre de long.

368

Les clés secrètes de l’Univers

Homo, son cerveau, sa conscience

Dans le cerveau, la caractéristique la plus surprenante est le nombre de ces neurones : près d’une centaine de milliards ! Un chiffre proprement astronomique. C’est l’ordre de grandeur du nombre d’étoiles de la Voie lactée. C’est aussi le nombre de galaxies figurant dans l’Univers observable. Enfin, c’est à peu près le nombre d’arbres de la forêt amazonienne. Plus impressionnant encore, est le nombre des liens tissés par chaque neurone avec les autres : chacun possède en moyenne une dizaine de milliers de branches étendues dans toutes les directions pour s’interconnecter. On peut donc se représenter notre encéphale comme la plus grande forêt de la planète, dans laquelle chaque arbre tendrait des lianes vers 10 000 autres autour de lui. Certaines de ces lianes atteindraient des milliers de kilomètres de long. Dans un seul cerveau humain, si l’on mettait bout à bout tous ces fils tendus entre neurones, on obtiendrait une distance de… 150 millions de kilomètres. Il s’agit tout simplement de la distance de la Terre au Soleil, appelée unité astronomique. Selon Gerald Edelman, prix Nobel spécialiste des neurosciences : « Nous habitons une jungle qui est dans notre tête. »17 On peut aussi comparer le réseau neuronal à la façon dont tous les ordinateurs et smartphones des habitants de la planète sont en relation entre eux, par la toile. On estime à quelques milliards le nombre d’internautes, chacun relié à quelques centaines d’autres ainsi qu’à des sites Internet. Un calcul approximatif montre que l’ensemble du web au niveau mondial reste un réseau ridiculement petit par rapport à celui d’un seul cerveau : ce dernier présente un million de fois plus de connexions qu’Internet sur la planète ! Comment une complexité d’amplitude littéralement astronomique peut-elle émerger dans un organe aussi petit ? Darwin va nous donner la clé. D’abord, il faut préciser qu’en aucun cas, les 20 000 gènes de l’être humain ne suffisent pour déterminer un cerveau dans tous ses détails. Seule une sélection d’entre eux agit et à vrai dire, se limite à 17.  Neural Darwinism. Selection Neural Groups Theory. Gerald Edelman. 1987. 369

Partie 4. Des premiers êtres monocellulaires à l’Homme

définir la structure générale. Ces gènes l’organisent en grandes zones et établissent entre elles, un « précâblage » élémentaire. À partir de cette configuration schématique, l’immense sophistication de l’encéphale va apparaître spontanément sans être inscrite dans le génome. Ce phénomène émergent reflète ce que nous avons appelé la parcimonie génétique : des gènes peu nombreux engendrent des organes bien plus complexes qu’eux-mêmes. Au stade du nouveau-né, les gènes ont exécuté l’essentiel de leur travail en le dotant de ce maillage rudimentaire. Ensuite, l’encéphale va se développer tout seul par émergence. D’abord, les neurones se mettent à créer une énorme quantité de connexions, des branches projetées dans toutes les directions de façon anarchique. Cette croissance exubérante se produit à une vitesse hallucinante dans la tête de l’enfant : le rythme peut atteindre 40 000 nouveaux liens par seconde. Elle se prolonge jusqu’à l’âge de 2 à 3 ans, puis se stabilise. En parallèle, un mécanisme apparenté à la sélection darwinienne trie en permanence les liens utiles et élimine les autres. Quand l’enfant vit une expérience quelconque, par exemple secouer un jouet faisant du bruit, cela excite certaines connexions liées à ses mains et ses oreilles. S’il répète ce jeu, un processus chimique les renforce. À l’inverse, les moins utilisées dépérissent. Chaque fois que vous caressez un bébé, parlez au petit enfant plus âgé ou jouez avec lui, vous participez sans le savoir à ce mécanisme qui trie les liens entre neurones pour former son intelligence. Ainsi se stabilise un réseau de connexions résultant simplement des perceptions et réflexions vécues par l’enfant. Cette méthode de construction rappelle la façon dont les Anglais traçaient les allées dans les jardins par le passé. Au contraire des jardins français, faits de massifs symétriques et de voies dessinées en ligne droite à partir d’un plan, ceux des Anglais imitaient plutôt la nature avec de petites collines, des vallées et des bosquets. Au lieu de marquer artificiellement des chemins préconçus, les Anglais laissaient d’abord leurs pelouses à l’état sauvage sans allées. Puis ils observaient où se promenaient les gens spontanément. Quand des sentiers 370

Les clés secrètes de l’Univers

Homo, son cerveau, sa conscience

s’étaient ainsi dessinés par eux-mêmes, ils adoptaient leur tracé et les transformaient en voies bien nettes et définitives. Dans la tête de l’enfant, c’est aussi l’usage qui détermine les chemins entre neurones : le cerveau se construit sous l’empreinte de l’environnement. Ainsi pouvons-nous décomposer le développement de l’encéphale en deux étapes. Dans l’embryon, les gènes organisent sa structure de base : cette phase repose sur la genèse au sens biologique du terme. La suite ne relève plus des gènes, mais de l’auto-organisation : on parle d’épigenèse. La nature se débrouille toute seule pour faire émerger la plus grande complexité simplement du fait des forces en jeu dans l’environnement. Nous avions déjà utilisé cette image de l’épigenèse à la fin du chapitre 2, à propos du Big Bang : nous expliquions comment une bulle d’énergie très simple en apparence, était suffisante pour former un cosmos diversifié et sophistiqué avec ses galaxies, ses étoiles et ses planètes. Il est étonnant de découvrir tant de parallèles entre l’Univers à l’échelle astronomique et le cerveau de l’être humain. CERVEAU ET INTELLIGENCE ARTIFICIELLE Une autre analogie va nous donner une idée du fonctionnement de l’encéphale. Revenons au neurone : selon les signaux entrants qu’il capte par ses « branches », il va se comporter de deux façons différentes. S’il reçoit peu de signaux, il va rester passif. Si, au contraire, il en recueille beaucoup, il va s’exciter et transmettre dans son « tronc » des décharges électriques. Elles parviendront aux « racines » et déclencheront d’autres neurones en chaîne. En quelque sorte, il agit comme un interrupteur, tantôt inhibé, tantôt activé selon les signaux reçus. Le cerveau peut donc s’assimiler à un grand réseau d’interrupteurs fortement connectés entre eux. Nous avons déjà rencontré ce type de réseau au chapitre 11, à propos des travaux de Kauffman sur la différenciation cellulaire. Nous avions imaginé une planche sur laquelle étaient fixés de nombreux interrupteurs plus ou moins liés les uns aux autres (fig. 65). Ce dispositif pouvait se modéliser par les mathématiques.

… 371

Partie 4. Des premiers êtres monocellulaires à l’Homme

… Que montraient les simulations ? Que le comportement de la planche dépend du nombre moyen de connexions : – S’il y en a peu, les interrupteurs se commandent l’un l’autre un court instant. Cela provoque quelques séries de clignotements, puis la planche devient statique : c’est l’ordre (un électroencéphalogramme plat). – Au contraire, s’il y a beaucoup de liens, alors les interrupteurs ne cessent de clignoter dans le plus grand des désordres : c’est le chaos (la confusion mentale). – Enfin, si le nombre de connexions moyen est finement ajusté dans une position critique entre l’ordre et le chaos, alors se détachent des îlots d’interrupteurs actifs sur un fond restant statique. Nous avions qualifié d’attracteurs ces groupes isolés. Eh bien, notre encéphale fonctionne tout à fait de cette manière. Nous avons vu que les liens entre neurones s’établissent selon un processus darwinien. Le tri des connexions ajuste spontanément le cerveau sur l’état critique, à la frange entre l’ordre et le chaos. Dans cette situation finement réglée, des groupes de neurones actifs se détachent tels des îlots dans le réseau : ce sont ses attracteurs. Avez-vous deviné à quoi ils servent ? Ce sont tout simplement vos idées, vos perceptions, les mots de votre vocabulaire, vos souvenirs, etc. En d’autres termes, tout ce que votre esprit manipule. À titre d’exemple, expliquons comment l’enfant apprend à reconnaître le visage de sa maman. Rappelons que dans le cortex, les neurones sont organisés en couches. Quand il commence à voir, une première d’entre elles est excitée par la perception de traits élémentaires : l’ovale du visage de la maman, le trait horizontal de sa bouche, les pupilles noires de ses yeux, les traits parallèles de ses cheveux ou bien ses taches de rousseur. Comme le bébé voit souvent ces formes, des groupes de neurones s’y associent progressivement et leurs connexions se figent. Plus haut dans une seconde couche de son cortex, d’autres groupes de neurones enregistrent la façon dont ces traits se combinent sur le faciès de la maman. Chaque fois que l’enfant revoit ce visage familier, ces mêmes neurones s’excitent. Ils



372

Les clés secrètes de l’Univers

Homo, son cerveau, sa conscience

… constituent des îlots enregistrés définitivement. Un autre groupe de neurones, situé dans une couche supérieure, se rattache peu à peu au concept de personne : « ma maman ». Il s’active quand les groupes du dessous sont excités. Si c’est le cas, l’enfant a identifié sa mère visuellement. S’il voit un autre visage, un parcours similaire s’effectue, mais cette fois la dernière couche ne recevra pas le signal « c’est ma maman ». Si ce second visage apparaît fréquemment, il laissera aussi son empreinte en mettant en jeu les mêmes couches de neurones, et il finira par être reconnu. Aujourd’hui, ces processus hiérarchisés du cortex sont bien connus. Les concepteurs de l’intelligence artificielle les ont repris et imités. On peut en effet programmer un ordinateur pour reproduire des groupes de neurones virtuels et les connecter entre eux. Un exemple de la vie courante est la fonction SIRI sur les IPhone d’Apple. Elle vous permet de poser des questions par la voix, soit pour appeler quelqu’un au téléphone, soit pour trouver une information sur le Net. SIRI comprend ce que vous lui demandez (plus ou moins, il faut avouer !), puis consulte automatiquement Internet pour vous apporter des réponses. Ce système de reconnaissance de la parole et de recherche sur le Net est un logiciel construit à la manière des couches du cortex. Une première couche simule des groupes de neurones virtuels et les associe aux sons que vous prononcez. Une deuxième assemble ces sons et reconnaît les mots. Une troisième identifie la structure des phrases très simples comme « appelez Jean-Jacques » ou « trouvez un restaurant ». Une quatrième organise des réponses appropriées. À l’instar de la plupart des logiciels d’intelligence artificielle actuels, SIRI imite les opérations du cortex.

LA CONSCIENCE, UN PHÉNOMÈNE ÉMERGENT ? Nous avons quelques indications sur les mécanismes de base du cerveau, mais à vrai dire, notre connaissance de son fonctionnement reste extrêmement limitée. Les psychoses les plus graves, telle 373

Partie 4. Des premiers êtres monocellulaires à l’Homme

la schizophrénie, demeurent largement incomprises. Le mystère est encore plus épais quand nous parlons de la conscience : nous ne savons même pas la définir d’une façon claire et unanimement admise. Dans un sens, il ne faut pas s’en étonner : notre encéphale s’est construit au cours des âges pour nous aider à appréhender le monde spatial et temporel et nous y adapter, mais non pour comprendre ce qu’est sa propre conscience ! Après avoir buté sur les énigmes de l’avant Big Bang et de l’apparition de la vie, nous sommes confrontés pour la troisième fois à un grand mystère de l’histoire. Dans les trois cas, la science de ce début du xxie siècle n’offre pas un scénario clair et univoque. En l’état de nos connaissances, nul ne peut prouver que l’origine de la conscience soit divine ou au contraire, physique. Un débat majeur oppose toujours ceux qui s’intéressent au sujet : le problème du corps et de l’esprit. Deux thèses s’affrontent, que nous pouvons résumer comme suit. Pour les dualistes, la conscience est immatérielle. Bien qu’elle soit abritée par le corps, elle est d’une essence différente. Cette conception est liée à celle de l’âme pouvant survivre à l’individu et poursuivre son propre destin après la mort. L’essayiste Jean Staune18 résume cette thèse en disant que notre cerveau n’est pas un iPod qui diffuse de la musique enregistrée en lui, mais plutôt une radio qui reproduit de la musique venue d’ailleurs et captée. Au contraire, pour les matérialistes, la conscience est d’origine et de nature corporelle : elle est produite par l’interaction des neurones. Le milieu scientifique reste divisé sur le sujet, même si la seconde thèse gagne en popularité avec les progrès des neurosciences. J’adopterai ici une description matérialiste me paraissant la seule vraiment cohérente avec l’Univers et son passé. Je vois à travers toute l’histoire cosmique, la répétition de grands principes d’auto-organisation de la matière : pourquoi ce qui s’applique aux étoiles, aux galaxies, à la vie et à l’Homme cesserait de le faire quand il s’agit de la conscience ? De façon omniprésente dans ce livre, nous avons 18.  Explorateurs de l’invisible. Jean Staune. 2018. 374

Les clés secrètes de l’Univers

Homo, son cerveau, sa conscience

vu jouer les mécanismes de l’émergence, le dernier exemple étant le réseau neuronal chez l’enfant. Aussi me paraît-il raisonnable de décrypter la conscience à la lumière des sciences de la complexité, en harmonie avec tout de ce que nous avons déjà dépeint depuis le Big Bang : dans cet esprit, elle serait une propriété émergente du cerveau, se développant à partir d’un certain degré de sophistication, au franchissement d’un seuil. Pour le comprendre, il convient de revenir sur cette découverte de Sigmund Freud : une partie de notre pensée est inconsciente. L’inventeur de la psychanalyse qualifiait cette avancée de « troisième grande blessure narcissique infligée à l’Homme ». Le premier choc est venu de Copernic avec son système héliocentrique : la Terre et l’Homme ne sont plus au centre du Système solaire. Selon Freud, il a « montré que la Terre, loin d’être le centre de l’Univers, ne forme qu’une parcelle insignifiante du système cosmique dont nous pouvons à peine nous représenter la grandeur ». La seconde blessure revient à Darwin qui a introduit la généalogie des espèces. Il a « réduit à rien les prétentions de l’Homme à une place privilégiée dans l’ordre de la Création, en établissant sa descendance du règne animal et en montrant l’indestructibilité de sa nature animale ». Enfin, Freud s’attribue le « troisième démenti (…) infligé à la mégalomanie humaine ». En inventant le concept d’inconscient, il apprend à l’Homme « qu’il n’est seulement pas maître dans sa propre maison, qu’il en est réduit à se contenter de renseignements rares et fragmentaires sur ce qui se passe, en dehors de sa conscience, dans sa vie psychique. »19 Le développement récent des neurosciences a plus que confirmé l’intuition géniale de Freud : ce n’est pas une partie de notre activité cérébrale qui est inconsciente, comme on le pense souvent, mais bien son immense majorité. Nous allons chercher à décrire la conscience en partant de ce fait : le gros de l’activité cérébrale lui échappe.

19.  Introduction à la psychanalyse. Sigmund Freud. 1916. 375

Partie 4. Des premiers êtres monocellulaires à l’Homme

LA CONSCIENCE PERCEPTIVE Dans un premier temps, intéressons-nous à nos perceptions. La plupart sont inconscientes : seules certaines sont sélectionnées par la conscience à un moment donné, lorsqu’elles suscitent un intérêt. Par exemple, imaginez-vous conduisant une voiture. À tout instant, vos mains corrigent la trajectoire avec le volant sans que vous y pensiez vraiment. Vous surveillez mécaniquement tout ce qui défile devant vous à travers le pare-brise sans y prêter une attention particulière. Vos mains ressentent où se trouvent les commandes. Vous entendez la radio. Parmi ces innombrables stimulations sensorielles, une seule devient consciente à un moment précis : la vue d’un oiseau passé trop près du pare-brise, puis l’écoute d’une information intéressante sur les ondes, puis la sensation du changement de vitesse ayant grincé sous votre main. À chaque instant, une perception et une seule, entre dans le champ de votre conscience, soit parce qu’elle révèle un possible danger, soit parce que vous décidez d’y prêter attention. En observant par imagerie médicale les activités conscientes dans le cerveau, on a découvert un super-réseau de neurones et de connexions embrassant l’ensemble des zones de l’encéphale et tissant des liens entre elles. Ce super-réseau coordonnerait et surveillerait toute l’activité cérébrale. Il sélectionnerait à tout moment les informations lui paraissant importantes et les ferait entrer dans le champ de la conscience. Il fonctionnerait selon les mêmes mécanismes que les différentes couches du cortex dont nous avons déjà parlé, mais avec la capacité à tout moment de toucher telle ou telle partie de l’encéphale d’une façon très sélective. Il est très heureux que le gros de nos perceptions et de nos réflexes échappe à notre conscience. Si à l’inverse, elle s’occupait de tout, elle serait totalement saturée. Une autre raison tient à la lenteur des processus conscients par rapport au reste de l’activité cérébrale. Le temps mis par une sensation pour arriver au cerveau et déclencher une action, est plutôt bref : de l’ordre du centième de seconde. Au contraire, si la conscience s’en mêle, il lui faut plusieurs dixièmes 376

Les clés secrètes de l’Univers

Homo, son cerveau, sa conscience

de seconde pour la traiter. En poursuivant l’exemple de la conduite automobile, si un obstacle se présente très soudainement sur la chaussée, votre encéphale va commander l’impulsion de votre pied sur la pédale de frein, à la façon d’un réflexe, c’est-à-dire immédiatement et sans en référer à la conscience. Si le cerveau ne disposait pas de cette autonomie, il serait bien dangereux de conduire une voiture ! En revanche, si votre conscience est mise en jeu, les temps de traitement sont bien plus longs : par exemple, si vous devez deviner quels signes un agent de police est en train de vous faire, votre réflexion prendra plusieurs dixièmes de seconde, voire plusieurs secondes. LA CONSCIENCE RÉFLEXIVE On peut la définir comme notre capacité à porter un regard sur notre propre pensée. Pour reprendre l’analogie du freinage en voiture, une fois l’incident entré dans l’écran radar de la conscience, celle-ci prend la direction des affaires et guide votre réaction future : dois-je m’arrêter ou continuer ? Dois-je changer de file ? Elle peut aller plus loin en profondeur et poser des questions telles que : n’ai-je pas surréagi en freinant trop violemment ? Me trouvais-je en excès de vitesse au moment de l’incident ? Aurais-je pu l’anticiper ? À l’instar de tous les mammifères, l’Homme forge dans son cortex un modèle du monde qui l’entoure, mais il va bien plus loin : il y inclut sa propre personne, une capacité dite d’autoréférence. Le test du miroir dont nous avons parlé à propos des primates, montre que chez l’animal, cette propriété est très généralement inexistante. Dans quelques cas très rares, elle est présente de façon extrêmement rudimentaire. Dès l’âge de deux ans, les humains identifient l’image dans le miroir comme la leur, tandis que très peu d’espèces animales y parviennent chez l’adulte. On en compte une dizaine seulement : le chimpanzé, le bonobo, quelques gorilles, l’orang-outan, le dauphin, l’orque, l’éléphant, la pie, le perroquet et partiellement, le cochon et le corbeau. Ce test prouve combien nous nous distinguons de l’animal. Il nous donne aussi une indication intéressante : si ces bêtes disposent 377

Partie 4. Des premiers êtres monocellulaires à l’Homme

d’une conscience très élémentaire, on peut y voir une propriété émergente apparaissant naturellement chez l’animal à un certain stade de développement de l’encéphale. Chez l’Homme, dont le réseau neuronal atteint 100 milliards de neurones se connectant chacun à 10 000 autres, il ne faut pas s’étonner que la conscience soit apparue : une petite partie de ces milliards de cellules se sont spécialisées dans l’examen de ce que font les autres ! L’apparition spontanée de la conscience rappelle le schéma de Langton (fig. 32), qui s’applique très généralement aux phénomènes émergents : – des éléments, les neurones, s’assemblent en un objet bien plus grand : le cerveau (causalité montante) ; – quand celui-ci est formé, il impose en retour ses propres règles à ses composants (causalité descendante). Ce va-et-vient entre le tout et ses parties se retrouve dans la conscience. En se complexifiant, le cerveau s’est doté d’un sur-réseau de neurones pénétrant toutes ses zones. Ce sur-réseau a pris le contrôle et dicte un certain nombre de directives aux différentes zones cérébrales. Ainsi seraient apparus la conscience et le libre arbitre. Si c’est le cas, alors il faut en déduire un enseignement important : si un jour, nos ordinateurs atteignent une capacité égale ou supérieure à celle de notre esprit, une forme de conscience pourrait y émerger. Cette idée qui interpelle, est une introduction au chapitre suivant consacré au futur de l’humanité. La thèse que j’ai présentée est d’essence matérialiste, pourtant certains l’ont associée au spirituel, voire au sacré : elle a été défendue par Pierre Teilhard de Chardin. À la fois théologien et paléontologue, il avait intégré l’évolution darwinienne dans le projet de Dieu. En la conscience, il voyait une simple conséquence de la complexité physique du cerveau. Considéré comme hérétique dès les années 1920, il s’était finalement tourné vers la recherche et l’enseignement en paléontologie. Depuis, ses idées sont revenues sur le devant de la scène. 378

Les clés secrètes de l’Univers

14 Le futur de l’humanité

« Ainsi nous trouvons-nous sur le Vaisseau Spatial Terre, croi­ sant en direction d’une ceinture d’astéroïdes faite de risques existentiels, sans aucun plan ni même un capitaine. » Mark Tegmark, cosmologiste

Comment parler de notre devenir sans nous mettre au rang des auteurs de science-fiction ou des diseurs de bonne aventure ? Le hasard joue un rôle tellement important dans le domaine du vivant et de l’intellect, et les possibilités sont si diverses, qu’il semble impossible d’anticiper l’avenir de notre espèce. De plus, avec la civilisation, la société et la culture, le futur est déterminé par les décisions humaines par essence imprévisibles ! Pourtant, il existe des pistes de réflexion. Les nouvelles sciences dites de la complexité sont des clés essentielles auxquelles nous avons eu recours pour décrire l’histoire et tenter de la comprendre. Elles se fondent sur la notion d’émergence, à l’œuvre en astrophysique comme 381

Partie 5. Le futur de l’humanité et le sens de l’Univers

en biologie. En les évoquant, nous pourrons dessiner quelques traits probables de notre avenir. L’horizon de prédiction que je vais fixer va peut-être vous surprendre : le millénaire à venir. Sachant que nous avons déroulé une histoire de 13,8 milliards d’années, il me paraissait peu adéquat d’envisager une durée plus courte. Soyons clairs à ce sujet : rien ne nous dit que l’humanité n’aura pas disparu d’ici là sous l’effet du dérèglement climatique, d’un cataclysme naturel ou d’un conflit nucléaire. Si elle existe toujours, elle sera très différente de ce qu’elle est aujourd’hui : probablement, entre le début et la fin de ce troisième millénaire, l’Homme et sa culture auront autant évolué qu’entre l’époque des Australopithèques et le présent. Il en va de même de notre planète : difficile d’imaginer nos forêts, nos lacs et nos paysages champêtres à un tel horizon. L’environnement sur Terre sera devenu largement artificiel, peut-être en dehors de quelques réserves tenant lieu de musée. QU’ADVIENDRA-T-IL DE NOTRE MILIEU NATUREL, COSMIQUE ET TERRESTRE ? Avant de parler de la pièce de théâtre, un mot sur la scène où elle va se jouer : le cosmos. Nous avons décrit son devenir au chapitre 7. Les premières transformations significatives dans notre région de l’Univers se produiront successivement dans 2 et 4 milliards d’années environ : notre galaxie fusionnera avec deux autres, le Grand Nuage de Magellan puis Andromède. C’est aussi la période où le Soleil évoluera en géante rouge, provoquant la destruction au moins partielle du Système solaire. Cela n’a rien de réjouissant mais la bonne nouvelle est que nous sommes tranquilles pour longtemps. Sur le laps de temps choisi pour nos prédictions, le millénaire, nous pouvons postuler qu’il n’y aura aucun changement du décor cosmique : la Voie lactée et notre étoile resteront stables. Si nous parlons de notre environnement immédiat, la Terre, c’est malheureusement l’inverse : les transformations seront extrêmement rapides et n’iront pas dans le bon sens. 382

Les clés secrètes de l’Univers

Le futur de l’humanité

Dans les pays développés, la population est de plus en plus consciente de la dégradation massive infligée à notre cadre de vie. Je suis étonné de voir à quel point les mentalités ont évolué le temps d’une seule génération. Quand j’étais enfant, on considérait plus ou moins implicitement que les émissions et déchets engendrés par l’activité humaine n’altéraient ni la planète ni la santé. En remontant plus loin, à la fin du xixe siècle, le chauffage au coke rejetait beaucoup de particules de carbone dans l’atmosphère. Dans les villes, les façades des immeubles étaient noires comme le charbon. On se posait peutêtre des questions esthétiques à ce sujet, mais aucune sur le fait de consommer tant d’énergie fossile et de respirer tant de fumée. On ne s’inquiétait pas plus que l’Homme préhistorique lorsqu’il brûlait du bois. Les égouts emportaient les eaux usées vers les fleuves puis vers les océans, et il était communément admis que tout ceci se dégradait. Enfant, je me souviens d’avoir toujours vu les pêcheurs jeter leurs ordures par-dessus bord, pensant la mer assez grande pour les absorber sans dommage. Le développement de la population et de la production industrielle a totalement changé cette vision des choses. Nous réalisons maintenant à quel point nous détériorons la planète. En revanche, le moins que l’on puisse dire est que le passage aux actes présente un important retard à l’allumage. Outre l’extinction rapide provoquée par l’Homme, dont nous avons déjà parlé, la question la plus grave est celle du réchauffement climatique. De vifs débats divisent les scientifiques. Certains l’attribuent exclusivement à l’activité humaine. D’autres le nient ou bien en doutent. D’autres enfin, dont je fais partie, sont convaincus que les effets anthropiques sont majoritaires, mais aussi que des facteurs naturels peuvent intervenir en parallèle, tels les fluctuations du rayonnement solaire ou le stockage du gaz carbonique par les océans. Effectivement, le Moyen Âge a connu une élévation thermique de plus grande ampleur qu’aujourd’hui, pourtant sans origine anthropique. Le Groenland était vert (d’où son nom) et occupé par des fermes et des vaches dont on retrouve les vestiges sous la glace. 383

Partie 5. Le futur de l’humanité et le sens de l’Univers

Les causes de cet échauffement sont mal connues et peuvent aussi jouer de nos jours. Il est dommage que la politique oriente tous les moyens de recherche vers les effets de l’Homme, ignorant le reste. Quelles qu’en soient les causes, la hausse actuelle des températures est un fait largement admis comme le sont ses conséquences prévisibles : immenses feux de forêts, inondations déplaçant des centaines de millions de personnes, typhons, extinction massive de la faune et de la flore, etc. Certains envisagent même un emballement cataclysmique. Ce phénomène n’a rien d’imaginaire : il s’est produit sur la planète Vénus. On pense que celle-ci a été habitable pendant plus de 2 milliards d’années, avant que l’effet de serre dégénère et porte son atmosphère à 460 °C. Le principe est qu’un accroissement de chaleur stimule de nouvelles émissions de gaz sensibles contenus dans les roches (vapeur d’eau, gaz carbonique et méthane). Sur Terre, on craint tout particulièrement la fonte du permafrost, le sol gelé des étendues sibériennes. En dégelant, il pourrit et cette activité bactérienne dégage de très grandes quantités de méthane. Ce dernier aggrave l’effet de serre, ce qui accélère le réchauffement, avec un risque d’emballement. Je partage l’inquiétude actuelle sur le sujet et redoute de sérieuses catastrophes pour le siècle à venir. Si maintenant, nous nous projetons bien plus loin, à la fin du millénaire, les débats d’aujourd’hui seront certainement dépassés. À supposer que d’ici là, l’humanité ne succombe pas à un cataclysme d’origine naturelle ou anthropique, je présume que le cadre de vie sur Terre sera totalement méconnaissable. J’ose espérer que l’Homme aura pris le contrôle de la planète. À titre d’exemple, concernant l’effet de serre, on connaît déjà différentes contremesures pour éviter la catastrophe, même si à ce jour, elles sont encore insuffisamment étudiées, se révèlent bien trop coûteuses et posent des problèmes politiques. Le gaz carbonique est (et a toujours été) produit par l’activité biologique, pourtant il est aussi absorbé massivement. Au sol, la végétation le capte et l’emmagasine. Dans les océans, les coquilles des mollusques et les squelettes du plancton 384

Les clés secrètes de l’Univers

Le futur de l’humanité

l’emprisonnent. Quand ces animaux meurent, ces carbonates tombent au fond, s’accumulent et forment le calcaire. De nos jours, ce processus d’absorption est moins efficace du fait notamment, d’une acidification des eaux. Cependant, avec des moyens très supérieurs à ceux d’aujourd’hui, on peut imaginer corriger la composition chimique des mers ou agir sur le développement du plancton. Une compréhension très fine de l’écosystème sera nécessaire. Un accroissement des surfaces végétales sera un levier puissant. Enfin, s’agissant des usines fortement émettrices de gaz carbonique, on dispose déjà de techniques de capture et d’enfouissement. Le problème reste essentiellement leur coût. On peut aussi envisager de refroidir la planète. On sait que les étendues blanches comme la glace ou les nuages, renvoient dans l’espace une grande part du rayonnement solaire, ce qui limite l’échauffement. Ce phénomène bénéfique pourrait être renforcé en éclaircissant une partie de la superficie du globe, soit grâce à certaines plantations, soit par des produits artificiels à la façon d’une peinture. On obtiendrait le même résultat en dispersant des aérosols dans la stratosphère. Tous ces procédés aboutiraient à une réflexion plus efficace de la lumière (l’albédo), réduisant l’effet de serre. Agir ainsi en pompiers pyromanes pour sauver la Terre, n’est pas une optique très séduisante et nous ne pourrons que rester nostalgiques de l’époque où la planète souffrait peu de la présence de l’Homme. Malheureusement, un retour en arrière paraît totalement utopique lorsqu’on pense au nombre d’êtres humains qui aspirent à améliorer leurs conditions de vie, et à la croissance démographique qui sera difficile à contenir. Les seules options réalistes me semblent résider dans un comportement écoresponsable placé au centre des valeurs sociales, et l’utilisation de toutes nos ressources scientifiques, technologiques et économiques pour préserver la qualité de l’environnement. Toutes ces contremesures impliquent un besoin important d’énergie. Il faut être clair à ce sujet : le progrès passera nécessairement par le 385

Partie 5. Le futur de l’humanité et le sens de l’Univers

nucléaire. En premier, pour son efficacité : en raison de E = mc2, une petite quantité de matière fissile suffit à dégager énormément de puissance. En second, par son absence d’impact sur l’effet de serre. Enfin, parce qu’elle peut être exploitée partout sur Terre et dans l’espace. Le millénaire verra certainement se développer la fusion nucléaire, de préférence à la fission utilisée dans les centrales de nos jours. Nous en avons déjà parlé : c’est le principe mis en œuvre par les étoiles. Elles consomment la substance la plus répandue dans le cosmos : l’hydrogène. Cette nouvelle source est à l’étude dans sa forme industrielle avec plusieurs réacteurs expérimentaux, tel le programme ITER en Europe. Parmi les écologistes, ceux qui luttent avec âpreté contre l’énergie nucléaire découvriront tôt ou tard qu’elle nous est indispensable pour maintenir un milieu vivable sur notre planète. Malgré une évolution préoccupante aujourd’hui, je formule l’idée qu’à long terme, l’humanité saura aménager son cadre de vie sur Terre. Il sera probablement bien moins attrayant, mais la société elle-même sera aussi profondément différente. Quoi qu’il en soit, en mettant les choses au mieux, une transition douloureuse est à prévoir si nous tardons trop à contrecarrer le réchauffement climatique. En termes de démographie, des changements fondamentaux seront aussi nécessaires. Nous avons vu que la population mondiale croissait à un rythme explosif proche d’une centaine de millions d’individus par an, qui sera rapidement insupportable. Un programme de limitation des naissances deviendra inévitable. Si la Chine, premier pays en nombre d’habitants, est déjà parvenue à abaisser sa croissance démographique de 2,8 % par an à 0,5 % sur un laps de temps de 50 ans, pourquoi le reste de la planète n’y parviendrait-il pas sur une durée plus longue ? C’est une question de volonté et d’organisation. QUELS CATACLYSMES POURRAIENT ÉRADIQUER L’HUMANITÉ ? Nul doute que le cadre de vie sur Terre changera de façon accélérée dans les années à venir, mais nous supposerons que l’Homme disposera des moyens d’en rester maître. En revanche, nous avons déjà 386

Les clés secrètes de l’Univers

Le futur de l’humanité

évoqué des catastrophes naturelles pouvant mettre une fin brutale à notre espèce. Sont-elles évitables ? La science nous permet de passer en revue ces risques, de les quantifier et d’envisager des contremesures. Rappelons de quoi il s’agit. D’abord, il y a la chute d’une grosse météorite. Celle de Chicxulub au Mexique, responsable de l’extinction du Crétacé il y a 66 millions d’années, mesurait 10 km de diamètre. Un bolide un peu plus grand provoquerait une pollution propre à rayer Homo sapiens de la carte. Statistiquement, nous savons qu’un astéroïde de cette taille tombe environ tous les 300 000 ans. Même si cette probabilité paraît faible, le risque justifie de s’y intéresser et de chercher des parades. Nous devrons éviter les collisions avec de telles météorites, mais aussi avec de plus petites, suffisantes pour créer des dégâts monstrueux : par exemple, la chute d’un corps de 100 mètres de diamètre ferait des centaines de milliers de morts. Or elle survient plus fréquemment : en moyenne tous les 5 à 10 millénaires. Il faut donc s’en occuper sérieusement. Un gros avantage pour lutter contre ces risques est l’exactitude avec laquelle nous pouvons observer le mouvement des corps célestes et prévoir leur trajectoire. Cela nous donnera certainement les moyens de prévenir ces dangers. Des programmes d’étude ont été lancés dans ce but. La majorité des comètes et astéroïdes pouvant heurter notre planète (les géocroiseurs) ont déjà été identifiés. Aucun d’entre eux n’étant vraiment menaçant pour les quelques dizaines d’années à venir, nous avons le temps de mettre au point des techniques pour éviter ces catastrophes. Les recherches en cours portent sur la façon de dévier un bolide en s’y prenant plusieurs mois à l’avance. Il s’agit généralement d’envoyer un vaisseau vers lui pour modifier sa trajectoire. S’il est petit, on pourra projeter un objet pesant en un point bien choisi de sa surface. Pour des bolides plus gros, il faudra équiper le vaisseau d’un moteur ou d’une bombe atomique servant à pousser l’astre latéralement avec plus de force. La règle d’or est de détecter le géocroiseur et d’agir tôt. Il suffit alors de le dévier d’une petite 387

Partie 5. Le futur de l’humanité et le sens de l’Univers

fraction de degré, ce qui requiert une énergie modérée. Nous pouvons considérer que dans un avenir proche, les progrès de la technologie nous mettront à l’abri de ces dangers de collision. Autre cataclysme tout à fait probable : une énorme éruption volcanique dont les effets en termes de pollution seraient très semblables à ceux d’une météorite. Le risque est assez élevé. À titre d’exemple, le super-volcan sommeillant dans le parc de Yellowstone aux ÉtatsUnis, a accumulé une très grande poche de magma depuis sa dernière période d’activité il y a 640 000 ans. Une explosion pouvant rejeter un millier de kilomètres cubes de cendres dans l’atmosphère est prévue dans le prochain millénaire. Elle polluerait gravement le continent, voire la Terre entière, et provoquerait plus d’une centaine de milliers de morts. Comme dans le cas des astéroïdes, je prédis que nos technologies futures permettront d’éviter ces catastrophes. Pour Yellowstone, la NASA travaille sur une solution : creuser un puits jusqu’à 10 km de profondeur et y injecter de l’eau pour refroidir lentement la poche de magma. La biologie est un autre domaine impliquant des risques sérieux. Nous imaginons facilement le développement de germes contre lesquels aucun remède n’existerait. Ce pourrait être une bactérie multirésistante ou bien un virus inconnu. N’oublions pas que le simple rhume s’est toujours montré réfractaire à la vaccination et aux traitements antiviraux ! Un virus hybride qui serait virulent comme le VIH et contagieux comme celui du rhume, déclencherait des épidémies rappelant celles de la peste au Moyen Âge. Là aussi, l’inventivité de l’Homme devrait lui permettre de trouver des parades. Nous voyons périodiquement surgir de nouveaux microbes ou virus très nocifs et pour le moment, nous sommes parvenus à les contenir. Voyant à quelle vitesse le génie génétique progresse aujourd’hui, nous pouvons estimer qu’Homo sapiens saura traverser le millénaire en se mettant à l’abri des dangers biologiques. Chaque fois qu’un germe agressif apparaîtra, on développera probablement l’antidote. Dans certains cas, comme pour le sida, l’Ébola ou le coronavirus, la mise 388

Les clés secrètes de l’Univers

Le futur de l’humanité

au point demandera du temps et la société subira malheureusement des milliers, voire des millions de morts pendant ce délai. Nous terminons cet inventaire par le risque le plus important pour notre espèce : l’Homme lui-même ! C. de Duve dit à ce sujet : « L’extinction de l’humanité, si elle a lieu, ne sera pas due à son échec, mais à son succès. » Dans ce sens, l’événement le plus dramatique serait une guerre nucléaire. Malgré les traités de non-prolifération, les neuf nations détentrices de l’arme atomique possèdent très largement de quoi éradiquer notre espèce. Le stock d’ogives est essentiellement localisé dans deux pays : les États-Unis et la Russie. Un conflit entre ces deux puissances suffirait pour mettre en jeu la grande majorité de l’arsenal mondial. En envisageant le pire, si une part substantielle du stock existant explosait, cela entraînerait trois effets délétères. En premier, les ogives pourraient tuer jusqu’à un milliard de personnes. Ensuite, l’atmosphère opacifiée par les poussières, provoquerait une nuit et un hiver de plusieurs années comme nous l’avons évoqué à propos des astéroïdes et des volcans. Enfin, la surface des continents et des océans serait totalement irradiée. Nous pouvons douter qu’un seul homme survive à une telle catastrophe. Depuis les deux bombes atomiques d’Hiroshima et de Nagasaki, aucune autre n’a été utilisée en opération militaire. Le risque de conflit le plus élevé remonte à la crise des missiles de Cuba en 1962. Les armes nucléaires russes se trouvaient sur le sol cubain, à 200 km du territoire américain et dans les sous-marins détachés sur place. N. Khrouchtchev avait prévenu J. F. Kennedy : « Si les États-Unis veulent la guerre, alors nous nous retrouverons en enfer.  » Finalement, sous la pression de l’ennemi, il avait accepté de se replier en échange du retrait des armes nucléaires installées par les États-Unis en Europe. Ensuite, la situation s’était stabilisée entre les deux camps. Pourtant le risque est toujours là comme le montre l’anecdote suivante, survenue une nuit de 1983, à une époque de forte tension pendant la guerre froide. Un certain Stanislav Petrov, officier de garde chargé de la surveillance des attaques de missiles à Moscou, reçoit 389

Partie 5. Le futur de l’humanité et le sens de l’Univers

une alarme des satellites de veille : ils ont détecté un assaut de cinq fusées américaines croisant en direction de l’URSS. Il doit agir extrêmement vite, mais il ne parvient pas à contacter son supérieur car celui-ci n’est pas à son poste. Il est ivre. Après quelques instants d’hésitation, il prend de lui-même la décision de ne pas déclencher l’alerte. Il suppute un dysfonctionnement car à ses yeux, une véritable attaque mettrait en œuvre un nombre de missiles bien plus important. L’erreur technique sera avérée dans les jours suivants. Il s’agissait d’artéfacts dus à la réflexion du Soleil sur les nuages. Nous imaginons le cours de l’histoire si la chaîne hiérarchique militaire avait fonctionné « parfaitement » ! Que dire face au risque nucléaire ? Les pessimistes imaginent qu’il y aura toujours quelque part, un Hitler capable d’appuyer sur le bouton. Les optimistes disent qu’il y aura partout des Stanislav Petrov dotés de raison pour les en empêcher. La science ne nous permet pas de trancher sur ce qui relève de la décision humaine. LA CIVILISATION A GELÉ L’ÉVOLUTION DARWINIENNE CHEZ HOMO SAPIENS Ayant vu comment le moteur darwinien a mené l’évolution jusqu’à notre espèce, il est logique de se demander s’il va poursuivre son œuvre dans le millénaire à venir. S’agissant du genre Homo, la réponse est non. La sélection naturelle ne joue plus sur lui, tant il dispose de moyens artificiels d’adaptation à son environnement. Le propre de l’Homme tient à la fois à son intelligence, sa conscience et sa capacité à développer la culture par un processus cumulatif. Aujourd’hui, la société change à un rythme effréné sur le plan des idées, des méthodes, de la science et de la technologie. Au contraire, sur le plan physique, le corps humain et le génome ont cessé de se transformer. La sélection ayant œuvré pendant 3,7 milliards d’années pour élaborer notre organisme, n’agit plus sur lui de nos jours, à l’exclusion des tribus isolées dans la forêt amazonienne qui mènent toujours une vie de chasse et de cueillette. 390

Les clés secrètes de l’Univers

Le futur de l’humanité

Désormais, les critères pesant sur la fécondité sont liés à la culture plus qu’à l’environnement. Ils proviennent des mentalités, des religions, de l’économie ou des styles de vie. Par exemple, si le nombre d’enfants par famille est plus faible dans un pays que dans un autre, cela change quelque peu la répartition des populations sans aller jusqu’à l’élimination d’une souche humaine. En l’absence de sélection naturelle, ces changements n’altèrent plus le génome de notre espèce. Voici un exemple concret montrant comment la sélection s’est gelée : la digestion du lactose, une caractéristique humaine qui a fait un curieux aller et retour pendant la préhistoire. Chez l’Homme de Cro-Magnon, le gène permettant à l’enfant de digérer le lait durant la période d’allaitement s’inhibait ensuite de sorte que l’adulte supportait mal le lactose. Cela n’était pas dû au hasard : devenir intolérant au lait en grandissant, était une propriété sélectionnée pour inciter l’enfant au sevrage vers l’âge de 3 ou 4 ans, et ainsi, libérer la mère. Le Grand Bricoleur de Génie avait « trouvé une astuce » pour décourager le bébé de téter trop longtemps. Il y a environ 9 000 ans, un changement environnemental et culturel est survenu avec le développement de l’agriculture et de la traite des mammifères femelles. La consommation de lait par l’adulte est devenue un facteur de longévité et de fécondité important, favorisant beaucoup les tribus d’agriculteurs par rapport à celles de chasseurs. En au moins cinq endroits du globe, des mutations ont rétabli le fonctionnement du gène de digestion du lactose chez l’adulte, leur permettant ainsi de tirer parti de cette nouvelle alimentation. Comme ces modifications apportaient un avantage compétitif déterminant, elles se sont propagées dans le pool génétique humain en parallèle avec la progression rapide de l’agriculture et de la production laitière. Quand la sélection a cessé d’œuvrer chez l’Homme, ces mutations ne s’étaient pas encore généralisées : les trois quarts de la population en bénéficiaient et digéraient bien le lait, l’autre non. Cette situation intermédiaire s’est figée avec l’arrêt de l’évolution darwinienne il y a quelques millénaires. Voilà pourquoi les supermarchés vendent du 391

Partie 5. Le futur de l’humanité et le sens de l’Univers

lait sans lactose : la nature n’a pas eu le temps d’achever l’adaptation de l’adulte au lait de vache. Le génome humain s’est mis sur le mode pause. L’ARRÊT DE LA SÉLECTION NATURELLE EST-IL UNE BONNE CHOSE ? Théoriquement non, mais nous allons voir qu’il ne faut pas s’en inquiéter. Le fait que notre pool génétique ne s’adapte plus par la martingale darwinienne, est en soi une mauvaise nouvelle. Le hasard continue à produire des mutations, cependant elles ne sont plus triées. Celles qui sont défavorables, malheureusement prédominantes, ne sont plus éliminées et tendent à se diffuser. Ce phénomène de dérive génétique entraîne une dégradation spontanée du patrimoine génétique. Elle est très sensible dans les populations peu nombreuses. Voilà pourquoi les mariages consanguins au sein de groupes limités ou isolés, propagent des malformations avec une fréquence croissante dans le temps. En conséquence, faut-il craindre une dégénérescence de notre espèce ? Fort heureusement non. Nous sommes sauvés par l’immensité de la population et sa très grande diversité génétique. L’existence d’ethnies différentes au travers des continents et le brassage favorisé par les transports et les migrations, nous mettent à l’abri de la dérive génétique pour longtemps. La science nous enseigne en quelque sorte, l’inverse des théories nazies sur l’épuration de l’espèce. Au passage, il est intéressant de remarquer que le racisme est généralement absent de la pensée des généticiens pour au moins deux raisons. D’abord, le concept de race ne correspond à rien sur un plan scientifique. Ce vocable est censé distinguer des groupes d’hommes par la seule couleur de leur peau et quelques autres critères esthétiques très restreints. Quel sens y a-t-il à qualifier ainsi des types humains en fonction d’une poignée de gènes influant sur l’apparence, tout en ignorant la quasi-totalité des 20 000 autres constituant notre patrimoine ? Si l’on voulait vraiment classer les hommes, il faudrait 392

Les clés secrètes de l’Univers

Le futur de l’humanité

le faire en analysant l’intégralité de leur génome. La seconde idée décrédibilisant le racisme a été énoncée plus haut : la variété de notre pool génétique nous met à l’abri de la dérive. Aussi, la diversité de la population et les échanges en son sein sont vus par les généticiens comme des atouts indispensables pour notre avenir. Si notre génome n’évolue plus naturellement, la science d’aujourd’hui est parvenue au stade où elle peut néanmoins le modifier artificiellement. Nous ne pouvons parler de notre futur, sans aborder le thème des manipulations génétiques. Depuis quelques dizaines d’années, on sait éliminer, ajouter ou substituer un gène dans le noyau d’une cellule. On a ainsi créé des espèces manipulées génétiquement ou OGM. L’exemple le plus connu est le maïs transgénique dans lequel un gène a été inséré pour induire la résistance à un insecte ravageur. Pour manipuler le génome, on a utilisé des virus car ils disposent de cette propriété d’injecter leur propre ADN (ou ARN) dans les cellules. Dès lors, il suffit d’altérer ces micro-organismes en leur adjoignant le gène à transplanter. Ils se chargent ensuite d’aller le porter dans les cellules ciblées. Les virus employés comme vecteurs ont bien sûr été neutralisés pour perdre leur nocivité. La dernière décennie a vu apparaître une nouvelle méthode révolutionnaire pour parvenir au même résultat directement sans passer par les virus. Elle porte le nom barbare de CRISPR-Cas9. Elle fait suite à la découverte chez les bactéries, d’enzymes capables d’inciser l’ADN et d’éliminer un gène précis, désigné préalablement. Muni de ce ciseau moléculaire, on peut manipuler un génome en quelques jours au lieu de quelques semaines, pour un coût modique. Cette technique très récente se popularise aujourd’hui à grande vitesse et tend à banaliser le génie génétique sur un plan pratique. Il est partout interdit de modifier le génome humain, pourtant en 2018, cela n’a pas empêché un chercheur chinois de créer la première manipulation sur les embryons de trois enfants. Il purge 3 ans de prison pour cela. L’objectif visé était de remplacer un gène par une 393

Partie 5. Le futur de l’humanité et le sens de l’Univers

variante connue pour induire la résistance au sida. À ce jour, on ne sait pas si ces bébés grandiront de façon normale car la technique n’est pas parfaite et induit souvent des mutations non désirées. Cet exemple qui a choqué le monde entier, montre bien à quel point il sera difficile d’éviter la modification volontaire du génome. La facilité avec laquelle l’opération se fait, rend son utilisation inéluctable. La question pour notre avenir devient désormais morale et légale : comment en contrôler l’usage et comment empêcher l’eugénisme ? Du côté positif, il faut aussi voir les bénéfices de ces pratiques pour l’humanité : traitements de maladies graves, élimination des maladies héréditaires et des malformations, meilleure adaptation à l’environnement. Une évolution importante à l’horizon du millénaire à venir, concerne notre capacité à nous affranchir des limites de la Terre et à essaimer vers d’autres lieux d’hébergement dans le cosmos. Parmi les défis d’un tel projet, un des plus critiques tient à la vulnérabilité de notre corps face aux rayons cosmiques souvent très énergétiques et délétères. Sur notre planète, nous en sommes abrités par le champ magnétique terrestre qui les dévie : la magnétosphère. Les orbites des satellites artificiels se trouvent aussi sous la protection de ce bouclier. En revanche, une simple mission habitée sur Mars nécessite déjà d’exposer les astronautes aux radiations ionisantes pendant près de trois ans. Aucune méthode n’étant disponible pour construire un écran efficace dans les astronefs, ils seront inévitablement sujets à un risque accru de cancer. Même en se projetant dans un millénaire, protéger les cosmonautes pour des périples de longue durée paraît peu réaliste pour des raisons de poids. Cependant, la génétique devrait permettre de lutter contre les dommages irréversibles provoqués par ces rayons sur le génome. Il existe chez la plupart des espèces – dont l’Homme – des enzymes réparatrices de l’ADN. Elles détectent les erreurs sur les brins d’ADN et les corrigent. Certaines sont capables de rabouter un ADN sectionné par un rayon cosmique. Nous avons déjà cité l’existence 394

Les clés secrètes de l’Univers

Le futur de l’humanité

de bactéries supportant 5 000 fois plus de radiations que nous : leur résistance tient à des enzymes de ce type, particulièrement efficaces dans la réparation des gènes. Bien avant la fin du millénaire, nous pouvons envisager de modifier le génome humain pour qu’il synthétise de telles enzymes. Notre corps pourrait réparer lui-même son ADN endommagé lors des voyages spatiaux. À titre complémentaire, nous pourrons aussi compter sur d’importants progrès dans le traitement du cancer. En résumé, l’évolution du genre Homo a cessé d’être darwinienne et les avancées de la génétique introduiront, qu’on le souhaite ou non, une forme d’évolution artificielle. L’idée est choquante dans le contexte actuel, mais à terme, pourquoi l’Homme ne deviendrait-il pas maître de son propre génome ? L’ÉVOLUTION HUMAINE SE POURSUIT DÉSORMAIS AU NIVEAU CULTUREL Notre espèce a cessé de se transformer, cependant le relais a été pris par un changement bien plus rapide : celui liée à la culture. Par ce mot, nous n’entendons pas uniquement les tragédies de Corneille ou la peinture de Van Gogh, mais plus généralement, l’accumulation et l’échange de tout savoir. Elle est apparue de façon embryonnaire chez l’Homme préhistorique. La maîtrise du feu, transmise d’une génération à l’autre, en est un exemple. Elle a connu une forte accélération il y a 40 000 ans avec les outils, les premières œuvres d’art, puis l’agriculture. Aujourd’hui, elle se développe de manière explosive. Pour s’en convaincre, il suffit de comparer trois grandes révolutions de l’époque moderne, dont les effets sont chaque fois plus rapides. La première, l’invention de l’imprimerie en 1451, a permis la diffusion de la connaissance à grande échelle. Elle a apporté des bénéfices croissants sur plus de 400 ans. La deuxième, la mécanisation, s’est opérée sur une centaine d’années environ, entre la moitié du xixe siècle et la deuxième guerre mondiale. Enfin la troisième, l’apparition du numérique et d’Internet, datant des années 1990, a déjà profondément 395

Partie 5. Le futur de l’humanité et le sens de l’Univers

transformé la société en moins de 30 ans. Cette technologie évolue tellement vite qu’aujourd’hui, une part importante de la population n’y accède pas, soit pour des raisons d’âge, soit par manque de formation ou de moyens. Face à une telle explosion, on peut se demander si nos enfants pourront assimiler les mutations de leur société et s’y adapter de leur vivant. Il est à souhaiter que la tolérance et l’entraide permettront de garantir le bonheur de ceux qui auront du mal à suivre le rythme du changement. L’évolution culturelle s’inscrit harmonieusement dans l’histoire cosmique présentée dans ce livre : on y retrouve tous les grands principes des sciences de la complexité. 1. D’abord, il s’agit bien d’un phénomène émergent, sans chef d’orchestre. On peut contraindre la culture, on peut bannir certains de ses aspects, mais on ne peut la diriger dans la durée. Un exemple a marqué l’histoire : le lyssenkisme. En URSS, entre la dernière guerre et les années 1960, des membres du parti communiste définissent arbitrairement le savoir officiel, marxiste et prolétaire, ainsi que les thèses bourgeoises qu’il convient de condamner. Le généticien Trofim Lyssenko prend la tête de ce mouvement. Il applique sans répit la dialectique marxiste aux sciences. Les opposants sont mis à l’index et certains basculent dans les purges organisées par Staline. Cette terreur intellectuelle se termine au départ de Khrouchtchev en 1964. L’exemple montre qu’en matière culturelle, la sélection artificielle ne tient pas dans la durée. 2. Une deuxième caractéristique de la culture est d’être apparue à la manière d’une transition de phase. Rappelons ce que nous entendons par là : un changement fondamental dans un milieu donné, se produisant partout, en peu de temps et au moment précis où une grandeur franchit un certain seuil. Ici le milieu dont nous parlons est l’humanité. Quant au seuil franchi, il concerne les capacités intellectuelles et verbales d’Homo sapiens. Avant lui, les hominines comprenaient peu de choses et leur communication n’allait pas au-delà de quelques cris. La croissance du cerveau et la descente du larynx ont 396

Les clés secrètes de l’Univers

Le futur de l’humanité

permis à l’Homme moderne de franchir un seuil dans la quantité d’information qu’il pouvait à la fois comprendre, mémoriser et transmettre. Une fois le seuil franchi, une réaction en chaîne s’est produite, accélérant l’échange d’information. Cette transition s’est déclenchée il y a environ 40 000 ans. Un phénomène de même nature se reproduit aujourd’hui avec Internet, une technologie transformant l’ensemble de nos sociétés. La mutation est quasi instantanée si l’on se place dans les échelles de temps de l’évolution biologique. 3. En parlant du génome, nous avions souligné que la sélection darwinienne créait de l’information en permanence. À titre d’exemple, pensons à la quantité d’information stockée dans l’ADN d’un mammifère par rapport à celui d’une bactérie ! Ou encore, celle traitée par le cortex d’un tigre chassant en forêt, comparée à celle animant un ver de terre dans le sol ! Avec Homo sapiens et sa culture, la création d’information prend une allure exponentielle. Elle n’est plus biologique : elle est de l’information pure, en partie découplée de son substrat physique. Elle naît dans un cerveau, se communique aux autres, s’échange sur la toile, et s’enregistre dans les mémoires humaines, les livres et les ordinateurs. Elle circule très vite par la parole, par le livre et plus encore par l’électricité (mouvements d’électrons) ou la radio (mouvements de photons). Au xviiie siècle, une information sur la politique ou la guerre, mettait plusieurs mois à se répandre en Europe. De nos jours, elle traverse l’ensemble de la planète en quelques minutes. Actuellement, la quantité de données produite sur Terre par jour dans tous les domaines, double tous les 20 mois. 4. L’explosion culturelle est une bouffée de complexité, aussi marquante que les précédentes : création des 94 éléments chimiques, des galaxies, des molécules minérales, des protéines, de la vie, des êtres multicellulaires et finalement, de l’Homme. La sophistication des informations engendrées par l’humanité au xxie siècle dépasse tout ce que le cosmos a pu produire en des milliards d’années. 5. Notre créativité culturelle ouvre sans cesse de nouveaux domaines du possible adjacent. Le meilleur exemple est Internet. La toile rapproche 397

Partie 5. Le futur de l’humanité et le sens de l’Univers

tous les individus au sein d’un réseau mondial où l’information circule de manière presque immédiate. Cette invention met à notre disposition des espaces infinis d’innovation : Google Search repérant ce qui vous intéresse parmi 3 milliards de pages en quelques dixièmes de seconde, la communication ubiquitaire par les smartphones, les réseaux sociaux, tout le savoir encyclopédique en un clic sur Wikipédia, la simplification des opérations administratives et commerciales, la localisation par GPS sur des cartes électroniques, etc. Tous ces services se répandent avec des coûts très faibles, souvent gratuitement pour l’usager. Ils tendent à créer des liens entre individus et à réduire les distances sur la planète. Devant la révolution du numérique, de nouveaux champs s’ouvrent sans cesse avec des potentiels infinis. 6. Curieusement dans l’explosion culturelle, nous retrouvons aussi le principe de l’autocatalyse à l’origine de la vie. Un exemple est l’imprimerie. Issue de la culture du Moyen Âge, cette technique est un catalyseur d’une redoutable efficacité pour favoriser le développement et l’échange du savoir. Depuis son invention, toute la création humaine a reposé sur la propagation et le stockage des idées dans les livres. Se complexifiant, l’imprimerie devient aujourd’hui électronique et débouche sur Internet : un nouveau catalyseur pour accélérer l’inventivité humaine. Quand des technologies innovantes apparaissent, elles se fertilisent entre elles de manière autocatalytique. Par exemple, la confrontation d’Internet et de la localisation par GPS donne naissance à toutes sortes d’applications changeant notre vie : en un clic, vous repérez un endroit n’importe où dans le monde et pouvez en voir des photos, calculer les distances, obtenir un itinéraire ou trouver des lieux d’intérêt. Quand cette innovation se rapproche d’une technologie ancienne, comme celle de l’automobile, elle la fertilise et fait naître une nouveauté : la voiture autonome. Le développement explosif du savoir tient largement à son caractère autocatalytique. 7. Enfin, nous allons voir comment l’émergence de la culture repose toujours sur une forme de sélection naturelle. 398

Les clés secrètes de l’Univers

Le futur de l’humanité

L’ÉVOLUTION CULTURELLE : DARWIN TOUJOURS À L’ŒUVRE ? Fondamentalement, la culture se développe selon des règles proches de la martingale darwinienne ayant mené à la vie et à notre espèce, mais avec une différence importante. Chez l’animal, l’information se transmet très lentement d’une génération à la suivante par le génome. Au contraire, chez l’Homme, le savoir est créé et transmis à grande vitesse sans passer par le mécanisme de la reproduction d’un organisme en chair et en os. Pour décrire ce phénomène, le biologiste Richard Dawkins invente en 1976, le concept de mème. Il le définit comme une unité d’information contenue dans un cerveau et échangeable au sein d’une société. Le mot vient de mimêsis, l’imitation en grec, et de gène. Il désigne un quantum de pensée, un concept élémentaire ou une unité de culture. Un panneau du code de la route, le visage de Che Guevara, la recette du canard à l’orange ou l’équation E = mc2, sont des mèmes. Ils se propagent de cerveau en cerveau suivant un processus apparenté à l’imitation. L’idée importante de Dawkins se résume ainsi : l’Homme émet en permanence de nouveaux mèmes puis, lors des échanges, un tri s’opère selon la valeur que la société leur accorde. Par exemple, la relativité d’Einstein a été contestée dans l’Allemagne nazie simplement parce qu’elle émanait de la « science juive », mais elle a été retenue ailleurs dans le monde, puis s’est imposée partout. Le visage du Che s’est propagé dans la conscience collective, tantôt comme l’incarnation de l’idéal révolutionnaire, tantôt comme la face d’un illuminé cruel, capable d’exterminer un village entier où l’on ne partageait pas son projet. Ainsi vivent et meurent les mèmes : selon la façon dont la société les trie et les retient. L’invention de Dawkins est elle-même soumise à sélection, au même titre que tout autre concept. À ce jour, elle reste critiquée, notamment pour son côté réductionniste. Nous ne pouvons pas encore dire si elle finira son existence dans l’oubli ou au contraire, si un jour elle sera enseignée comme un élément essentiel du savoir. Tout l’intérêt du concept est que les mèmes naissent, prospèrent ou disparaissent selon un processus de sélection naturelle. Nous avions 399

Partie 5. Le futur de l’humanité et le sens de l’Univers

déjà parlé du moteur darwinien de la science, qui fait sa force : une offre nourrie d’idées ou de théories est sans cesse soumise au jugement de la communauté savante. Toute nouvelle thèse ou observation doit passer un premier filtre : être publiée dans une revue scientifique reconnue, se fondant sur l’avis d’un jury de spécialistes. Dès qu’elle devient publique, elle est attaquée par les uns, soutenue par les autres. Si plusieurs études la réfutent, elles-mêmes réalisées avec des protocoles clairs et publiées dans des revues de renom, alors la question est réglée. Sinon, elle prospère et ses opposants finissent par abandonner la partie, de guerre lasse. Cela ne signifie pas pour autant qu’elle soit juste, mais simplement qu’à un moment donné, elle n’a pas été réfutée et que l’on n’a pas trouvé mieux. Ce processus s’est avéré extrêmement robuste et fécond : appliquée à la pensée scientifique, la martingale de Darwin est d’une efficacité redoutable. Le philosophe Karl Popper a énoncé qu’elle triait les meilleures théories sans pour autant garantir leur véracité. Un autre exemple de la sélection des mèmes, moins noble, est celui des fake news. Le phénomène n’est pas nouveau. En 1970, la rumeur d’Orléans s’est propagée comme une traînée de poudre. Née de rien, elle diffusait l’idée que des femmes étaient enlevées dans les cabines d’essayage de certains magasins de vêtements, pour être déportées et prostituées. Une vraie terreur s’était répandue dans les villes d’Orléans et d’Amiens sans aucune raison objective. Montrés du doigt, des propriétaires de boutiques avaient dû fermer. Aujourd’hui, avec la facilité et la rapidité de la communication sur Internet, les fausses informations se propagent à plus grande échelle et plus vite. Pourquoi ces fake news prospèrent-elles ? Simplement parce que ce sont des mèmes retransmis par une partie suffisante des internautes. Qu’une nouvelle soit vraie ou erronée, il suffit qu’elle plaise ou inquiète pour exister et s’échanger au moins temporairement. Tôt ou tard, la vérité se rétablit à condition de laisser un peu de temps à la sélection pour achever son œuvre. En inventant le concept de mème, Dawkins a décrit comment se formait la culture par une sorte de sélection naturelle. Cependant 400

Les clés secrètes de l’Univers

Le futur de l’humanité

un détail semble lui avoir échappé : il l’a qualifiée de darwinienne, alors qu’au sens strict, elle serait plutôt lamarckienne. Comme indiqué au chapitre 11, pour Lamarck, l’hérédité figeait des caractères acquis durant la vie. Au contraire, pour Darwin, les nouveaux traits survenaient aléatoirement à chaque reproduction. Dans le cas des mèmes, qu’en est-il ? Ils proviennent du savoir acquis et non du seul hasard. Dans ce sens, il est plus approprié de parler d’évolution lamarckienne. SUR QUOI PEUT DÉBOUCHER L’EXPLOSION CULTURELLE ? Par définition, une explosion est un phénomène dont le déroulement est imprévisible. La pénétration continuelle de nouveaux domaines du possible adjacent, à l’infini, rend toute prédiction très discutable. Si un observateur avait été témoin de l’apparition des premières bactéries, comment aurait-il pu imaginer qu’un jour, des cellules élémentaires s’assembleraient pour former l’Homme ? En inventant la mécanique quantique, W. Heisenberg et E. Schrödinger auraient-ils pu entrevoir ses conséquences ? Auraient-ils envisagé leurs propres enfants découvrant la télévision et leurs petits-enfants, Internet ? L’explosion culturelle de l’humanité est par essence, réfractaire à toute prévision au-delà d’un horizon très court. De fait, elle nous expose à chaque instant, à toutes les opportunités et tous les dangers. Dans quelle mesure la société pourra-t-elle maîtriser une telle situation ? Pour y répondre, il nous faut revenir sur une des grandes recettes faisant le succès de la nature : les systèmes critiques auto-organisés. La culture en est un, Dieu merci. Intuitivement, nous pensons qu’un équilibre complexe ne se fait jamais tout seul et qu’il suppose un contrôle externe. Il est vrai que dans la vie courante, nous utilisons à tout instant notre cerveau pour forcer des équilibres : tenir debout, nager le crawl, maintenir une harmonie dans la famille ou bien surveiller nos dépenses. Parfois, ils sont assurés par des dispositifs mécaniques ou électroniques conçus à cet effet. Un bon exemple est le vélo : il tient vertical parce qu’il a été dessiné dans ce but et que le conducteur corrige la trajectoire 401

Partie 5. Le futur de l’humanité et le sens de l’Univers

avec le guidon. Sa stabilité provient donc de deux esprits : celui de son concepteur et celui du cycliste. Pourtant, la science dévoile de nombreux équilibres tenant par eux-mêmes sans l’intervention d’un tiers : la Lune en orbite autour de la Terre, la structure d’une termitière ou l’écosystème de la forêt équatoriale. La nature crée ainsi des systèmes infiniment plus complexes que le vélo et néanmoins capables de maintenir leur propre stabilité. Très souvent, ils se placent juste à la frange entre l’ordre et le chaos et se maintiennent de façon autonome dans cet état critique. Le premier exemple, déjà vu au chapitre 6, est l’étoile. Elle s’ajuste par elle-même à la limite de l’explosion atomique et reste dans cette situation pendant des milliards d’années. Nous avons aussi décrit les origines de la vie comme découlant d’un tel équilibre (les ensembles autocatalytiques au chapitre 9). L’être vivant se maintient juste à la limite d’une autre forme d’explosion : la création exubérante et anarchique de nouvelles molécules. Dans l’organisme, cette position stable est finement entretenue par la sélection, de génération en génération. Pour revenir à la société humaine, elle se développe aussi à la frange entre l’ordre et le chaos. Pour illustrer l’excès d’ordre, on peut citer les régimes politiques des plus dirigistes, tels ceux d’Hitler, Staline ou Mao Tsé-Toung, modèles qui se sont finalement effondrés. Ici l’ordre doit être compris comme un gel, une paralysie, une rigidité s’opposant à l’évolution. Du côté du chaos, on trouve les régimes où le pouvoir ne parvient pas à maintenir l’ordre, à faire appliquer les lois, à collecter l’impôt ou à éviter le crime. La plupart des sociétés sont finement ajustées entre ces deux extrêmes avec un curseur placé légèrement différemment selon les pays. Sur le plan social et économique, les États-Unis mettent le curseur un peu plus vers la liberté individuelle avec à la clé, des inégalités. Au contraire, la France joue plus la protection du citoyen avec des conséquences négatives sur la croissance économique et l’emploi. Heureusement, la différence entre les deux systèmes reste tout à fait marginale : on ne peut pas dire qu’un Français souffre beaucoup d’aller vivre aux États-Unis, 402

Les clés secrètes de l’Univers

Le futur de l’humanité

ou l’inverse. En d’autres termes, moyennant quelques nuances, les démocraties se maintiennent toutes dans un équilibre précisément réglé entre libéralisme et étatisme. Si nous revenons à l’évolution culturelle, elle engendre toutes sortes de risques, mais après tout, si les étoiles parviennent à se maintenir au bord de l’explosion nucléaire et si le corps des êtres vivants s’ajuste automatiquement dans l’état sous-critique, pourquoi la société humaine ne parviendrait-elle pas à assurer son propre équilibre ? Le mécanisme devant nous permettre de naviguer entre Charybde et Scylla, à la frange entre l’ordre et le chaos, n’est autre que la sélection naturelle mise en évidence par Dawkins : les idées s’affrontent et se trient jour après jour. À travers ce processus, se développe un sens commun. Il exclut toute forme d’ordre excessif menant à la paralysie ou à l’effondrement. Il limite aussi bien les dérives vers le chaos : guerres, égoïsme, ignorance du prochain, etc. À ce titre, les religions sont un puissant facteur de maintien de l’équilibre, si l’on excepte les confessions les plus intégristes. Je formulerai donc une prédiction : face à l’explosion culturelle et aux profondes transformations futures, l’humanité saura raison garder, aidée par le processus de sélection qui a déjà fait ses preuves, d’abord en biologie puis dans le domaine de la pensée. Elle s’appuiera sur le sens communautaire, la propagation des valeurs morales, le sacré, la démocratie et d’autres constructions humaines à venir. Le philosophe Daniel Dennett dit à ce sujet : « L’idée de Darwin est un solvant universel capable de ciseler en profondeur tout ce qui passe. La question est : que laisse-t-elle derrière elle ? J’ai essayé de montrer que lorsqu’elle s’empare de tout, elle nous laisse in fine les versions les plus fortes et les plus saines de nos idées les plus importantes. »20 L’HOMME SYMBIOTIQUE Les symbioses sont universelles chez les êtres vivants. Nous en avons déjà parlé en décrivant comment nos cellules ont résolu la catastrophe 20.  Darwin est-il dangereux ? Daniel Dennett. 2000. 403

Partie 5. Le futur de l’humanité et le sens de l’Univers

de l’oxygène en phagocytant des bactéries. Elles ont accueilli ces parasites utiles pour consommer l’oxygène et en tirer de l’énergie. Notre microbiote est un autre exemple de symbiose. Notre organisme abrite 5 000 types de bactéries en équilibre avec notre système immunitaire, superbe illustration d’un état critique auto-organisé. Le lichen n’est pas une espèce, mais la symbiose entre deux : un champignon et une algue. Les arbres n’existeraient pas sans leur coopération avec des champignons dont les filaments les aident à extraire les minéraux du sous-sol. Les exemples de symbiose se rencontrent ainsi par milliers dans le monde du vivant, au point qu’un écosystème pourrait aussi être qualifié de métasymbiose. Pour revenir à l’Homme symbiotique, deux concepts ont été développés par le scientifique prospectiviste Joël de Rosnay21. Le premier concerne la fusion entre l’Homme et ses propres artefacts que sont les machines, les voitures, les ordinateurs, les smartphones ou les prothèses. Ces objets influent tellement sur la vie courante, qu’ils commencent à former un tout avec l’être humain : untel fait corps avec sa moto, tel autre consulte l’écran de son smartphone toutes les cinq minutes ou savoure le plaisir de porter une belle montre. En écrivant ces lignes, je me demande comment je pourrais vivre sans mon ordinateur portable. Grâce à lui, j’ai étendu un million de fois les possibilités de ma mémoire et depuis 30 ans, je classe et stocke les informations apprises au gré de mes lectures. Grâce à lui, je tape les centaines de pages de ce livre dans un confort total, en tout endroit, assisté par des logiciels pour corriger les fautes de français et les répétitions. Grâce à lui, je peux communiquer en temps réel mes brouillons à un ami me prêtant son aide, ou encore, vérifier une information quelconque sur le Net en quelques secondes. De plus, j’écris en écoutant à volonté ma musique préférée. Merci Apple, Microsoft et Google : vous faites déjà un peu partie de moi-même ! Le spécialiste de l’intelligence artificielle Ray Kurzweil décrit ainsi cette symbiose : « (…) nous allons fusionner avec les outils que 21.  L’Homme symbiotique. Joël de Rosnay. 2000. 404

Les clés secrètes de l’Univers

Le futur de l’humanité

nous créons, d’une façon tellement étroite, que la distinction entre l’Homme et les machines s’évanouira jusqu’à disparaître. Ce processus est déjà bien engagé même si la plupart des machines qui étendent nos possibilités, ne sont pas encore incorporées à nos organismes et nos cerveaux. »22 Effectivement, pour l’instant ces appareils sont séparés du corps humain si l’on excepte quelques prothèses tels les pacemakers ou les articulations artificielles. Cependant, dans un avenir relativement proche, des objets électroniques suffisamment miniaturisés s’intégreront à notre organisme. À ce jour, des implants électroniques sont testés pour stimuler l’encéphale d’individus souffrant des maladies de Parkinson et d’Alzheimer. D’autres sont expérimentés sur des rats et des singes : ils sont reliés à des mémoires externes pour étendre leurs capacités cognitives. Certaines personnes devant manipuler des charges lourdes, utilisent un exosquelette décuplant leurs possibilités physiques. Dans l’horizon de nos prévisions, le millénaire, il est certain que l’organisme sera devenu composite : le corps, la mécanique et l’électronique n’en feront qu’un. La frontière entre le naturel et l’artificiel se fondra. La seconde symbiose décrite par J. de Rosnay est bien plus fondamentale. Au niveau de l’humanité, nous serions en train de fabriquer un être supérieur qui, un jour, nous englobera tous : le cybionte, un mot venant de cybernétique et de biologie. Ce concept suit tout simplement le mécanisme de Langton déjà vu de multiples fois. Des particules interagissent et se combinent en un objet beaucoup plus grand. Dès qu’il émerge, ce dernier agit en retour sur les parties qui l’ont formé. À l’instar des cellules parvenues au stade d’animaux multicellulaires, nous pouvons imaginer nos esprits s’assemblant progressivement en un métahomme. Il apparaîtra alors une symbiose entre chaque individu (et ses machines) et l’organisme global dont il fera partie. De nos jours, nous en observons de nombreuses prémices. Internet et les réseaux sociaux réunissent des collectivités humaines partageant 22.  How to create a mind. Ray Kurzweil. 2012. 405

Partie 5. Le futur de l’humanité et le sens de l’Univers

les mêmes intérêts, idées, passions, actions ou croyances. La démocratie rappelle aussi ce type de symbiose. Quand on réalise un sondage d’opinion, n’interroge-t-on pas le cybionte ? Quand un leader politique parle de la France, de qui parle-t-il ? De chacun d’entre nous ou bien d’un tout que nous constituons à ses yeux ? La façon dont les esprits et leurs aides électroniques se connectent entre eux tout autour du globe à travers Internet, laisse penser qu’un métacerveau pourrait en émerger. À l’image de toutes les évolutions fondamentales se dessinant aujourd’hui, celle-ci peut être perçue, soit comme une aliénation, soit comme un bienfait. Le premier point de vue consiste essentiellement à craindre les causalités descendantes, c’est-à-dire tout ce que l’être supérieur pourrait imposer à ceux qui le composent. En mettant les choses au pire, le rôle de chaque homme se réduirait à celui d’une cellule dans notre propre organisme ou bien d’un neurone dans notre cerveau : de simples pions, des exécutants, intégralement dirigés par le génome ou la conscience. Je ne partage pas une telle vision qui ne me semble pas compatible avec la complexité de l’esprit humain et son libre arbitre. À ce titre, le sentiment de J. de Rosnay est aussi positif : « Prendre conscience que les fonctions énergétiques, économiques, écologiques, éducatives de nos sociétés sont les fonctions de base d’un super-organisme vivant est non seulement motivant, mais responsabilisant. Cette prise de conscience resitue l’action individuelle au cœur de l’évolution du monde. » Là aussi, il est naturel de penser qu’un équilibre fin s’entretiendra entre l’individu et le cybionte, un peu comme celui qui se maintient entre le pouvoir central et celui des États dans les fédérations. INTELLIGENCE ARTIFICIELLE OU AUGMENTÉE ? Parmi les révolutions prévues pour les décennies à venir, la plus fondamentale est liée à l’intelligence artificielle (IA). Un virage est en train de s’amorcer. L’idée que l’ordinateur puisse reproduire l’intellect, est apparue dans les derniers travaux du pionnier de l’informatique, le 406

Les clés secrètes de l’Univers

Le futur de l’humanité

mathématicien von Neumann, peu avant sa mort en 1957. Cependant, les ordinateurs classiques se sont rapidement avérés peu adaptés à cela. En termes simples, les neurones et les processeurs présentent des propriétés très différentes et complémentaires. Einstein, qui a vu apparaître les premiers ordinateurs vers la fin de sa vie, en disait : « Les ordinateurs sont incroyablement rapides, précis et stupides. Les humains sont incroyablement lents, imprécis et brillants. Ensemble, ils sont plus puissants que tout ce que l’on peut imaginer. » L’ordinateur fonctionne beaucoup plus vite que notre esprit : dans le Mac sur lequel je travaille, les opérations sont rythmées par une horloge à 2 GHz, soit 2 milliards de battements par seconde. Dans le même intervalle de temps, mes neurones déclenchent au mieux quelques dizaines de décharges successives. Autre avantage de l’ordinateur : ses mémoires présentent une capacité très supérieure. Le mien stocke 250 giga-octets, des millions de fois plus que mon cerveau. Grâce à de telles caractéristiques, il surclasse totalement l’Homme dans les tâches de calcul, la manipulation de bases de données et les simulations utilisées en physique ou en météorologie. En revanche, il présente une limite importante : celle de traiter les problèmes séquentiellement et non parallèlement. À titre d’exemple, si dans un fichier de 2 000 personnes, vous voulez trier celles ayant plus de 50 ans, le programme informatique doit les passer en revue une par une : 1. Il prend la première de la liste. 2. Il compare son âge à 50. 3. Si elle est plus âgée, il stocke son nom dans un autre fichier. 4. Il recommence avec la deuxième personne. Il réitère cette opération 2 000 fois de suite. Les traitements étant très rapides, ce simple tri prendra quelques centièmes de seconde. En revanche, les problèmes auxquels l’être humain est confronté quotidiennement, sont beaucoup plus complexes : par exemple, lire sur le visage d’une personne, deviner son état d’esprit ou comprendre son attitude. Ils se traitent très difficilement par le 407

Partie 5. Le futur de l’humanité et le sens de l’Univers

mode séquentiel utilisé par les ordinateurs. Le cortex est bien plus performant pour cela car il fonctionne en mode parallèle. L’extrême densité des neurones et de leurs connexions fait que plusieurs millions d’entre eux peuvent s’activer simultanément sur une même tâche. En informatique, on parle d’un processeur massivement parallèle. Un exemple où le cerveau excelle est la reconnaissance des formes : analyser un visage et le rapprocher de physionomies connues et mémorisées, reconnaître une odeur parmi quelques milliers ou écouter une symphonie de Beethoven en la comparant à d’autres interprétations. Il viendra certainement un jour où l’on construira des ordinateurs massivement parallèles, structurés comme le cortex. Pour ce qui est du présent, l’IA se développe à partir d’un raccourci technique. Il consiste simplement à imiter le néocortex avec des logiciels classiques organisés comme des groupes de neurones fictifs, fortement interconnectés. Programmé de cette façon, l’ordinateur conventionnel peut reproduire à petite échelle un fonctionnement similaire à celui du cortex. Le prix à payer est une énorme consommation de mémoires de calcul et de stockage. Loin de parvenir à la capacité de notre cerveau, ces logiciels résolvent néanmoins de nombreux problèmes pratiques. Aussi, l’IA commence à gagner différents secteurs de l’activité humaine : la voiture autonome, le traitement de tâches administratives ou la commande des appareils à la voix. En médecine, un dispositif d’IA peut mémoriser des millions d’images du cancer du sein, puis diagnostiquer la maladie sur une radiographie avec un taux de réussite de 99,9 %. Sans aucun doute, il faut s’attendre à une transformation rapide de nos modes de vie et de travail. Faut-il se méfier de l’IA ? Oui bien sûr, comme de toute innovation scientifique ou technique de grande ampleur ! Par un appel lancé à l’humanité en 2014, trois visionnaires, Stephen Hawking, Bill Gates et Elon Musk, accompagnés de 1 500 intellectuels, tirent la sonnette d’alarme quant à ses dangers. Ils citent en exemple les armes intelligentes, miniaturisées et portées par des drones, pouvant inspirer de 408

Les clés secrètes de l’Univers

Le futur de l’humanité

nouvelles formes de guerre. Un petit robot volant, de la taille d’un gros insecte, serait muni de la photo électronique d’une personne et de quelques indications pour l’identifier. Ce drone chercherait tout seul sa victime jusqu’à la trouver et l’exécuter. À terme, de telles armes présenteraient autant de danger que la bombe atomique. Cependant, une différence importante existe entre les deux. L’accès à la bombe suppose un ticket d’entrée technique et financier gigantesque, que seuls neuf pays dans le monde ont acquis à ce jour. À l’inverse, les robots tueurs peuvent être fabriqués dans un garage par une poignée d’étudiants. L’appel public des trois personnalités ne visait certainement pas à empêcher le progrès, mais simplement à anticiper ses conséquences et s’y préparer car cela va venir très vite. Toute la question est la capacité de l’humanité à maîtriser ses propres évolutions. À ce titre, Alison Gopnik, psychologue spécialiste du langage, nous remet les pieds sur Terre en disant : « La stupidité naturelle peut faire plus de dégâts que l’intelligence artificielle. » Si l’on réfléchit à ce qu’a été la société depuis l’époque des tribus préhistoriques, on constate qu’elle s’est toujours développée en naviguant étroitement entre de multiples écueils : les guerres, les épidémies, les changements climatiques, les révolutions, les dictatures et aujourd’hui, le réchauffement de la planète. La vie n’est pas un long fleuve tranquille mais plutôt un frêle esquif dans la tempête se faufilant entre les monstres de Charybde et Scylla. Jusqu’à présent, la société est toujours parvenue à s’auto-ajuster sur le fil du rasoir entre tous ces dangers. Y parviendra-­ t-elle dans le futur ? Dans ce livre, nous ne développerons pas plus avant les progrès actuels de l’IA, car après tout, elle n’est autre qu’un prolongement de la robotisation : l’assistance du travail humain, non plus pour les tâches physiques, mais pour celles de l’esprit. C’est pourquoi au stade présent, l’emploi du terme intelligence artificielle est largement exagéré. Nous ferions mieux de parler d’intelligence augmentée. En revanche, si nous nous projetons dans le millénaire à venir, nous pouvons postuler que des ordinateurs de conception nouvelle 409

Partie 5. Le futur de l’humanité et le sens de l’Univers

apparaîtront, dotés de caractéristiques proches de celles du cerveau. Une technologie de rupture commence tout juste à poindre : l’informatique quantique. Nous en sommes aujourd’hui à ses balbutiements : assembler un tout petit nombre de composants présentant des propriétés quantiques. Pour l’instant, leur mise au point est problématique : il est très difficile de les maintenir en cet état au-delà de quelques secondes, ce qui limite fortement les possibilités de calcul. Néanmoins, on attend beaucoup de ces futures machines car elles seront massivement parallèles. Que ce soit par cette technique ou par d’autres non encore inventées, les ordinateurs parviendront probablement à égaler nos capacités dans un horizon de quelques dizaines d’années seulement. De là découlent deux questions fondamentales : – l’IA pourrait-elle un jour dépasser l’intelligence humaine ? – si tel était le cas, l’ordinateur hyper-intelligent serait-il doté de conscience ? JUSQU’OÙ PEUT ALLER L’IA ? Un seuil symbolique a été franchi en 2006 : un ordinateur a battu aux échecs le champion mondial Vladimir Kramnik. Certes, dans ce cas précis, la machine a dépassé l’Homme. Cependant, si l’on met de côté l’aspect sensationnel de cette nouvelle, elle ne signifie pas grand-chose d’intéressant. Le jeu d’échec est une activité codifiée et finalement plus adaptée aux algorithmes des calculateurs qu’à l’esprit humain. Pour ce type de tâche, on peut toujours programmer un ordinateur classique : il dépassera à coup sûr notre performance, à la simple condition de mémoriser des millions de coups en mettant en jeu une grosse capacité et un coût énergétique élevé. La vraie question reste de savoir si un ordinateur pourrait un jour accomplir tout ce que fait un homme, voire plus : organiser sa vie, échanger avec autrui, composer des poèmes, éprouver des sentiments, diriger une entreprise ou simplement rire. Dans cet esprit, Alan Turing, un des créateurs de l’informatique, avait imaginé un test auquel on a donné son nom : il s’agit de faire 410

Les clés secrètes de l’Univers

Le futur de l’humanité

dialoguer un jury avec alternativement des hommes et des ordinateurs par l’intermédiaire d’une voix synthétique qui dissimule leur nature. Si l’on parvient un jour à une situation où le jury, à travers cette voix neutre, ne discerne plus s’il communique avec un être humain ou une machine, alors l’ordinateur sera parvenu au niveau de notre cerveau. À ce jour, aucun ordinateur n’a réussi le test de Turing. Pour être plus exact, le test est réputé positif si le jury se trompe une fois sur deux. Aujourd’hui, les scores obtenus ne dépassent pas 20 ou 30 % d’erreur. De surcroît, on conteste la validité de ce test : il est relativement facile de concevoir un ordinateur susceptible de donner le change dans une conversation, sans pour autant disposer de toutes nos facultés. Tôt ou tard, ce genre de démarche se heurtera à la question de fond : qu’est-ce que l’intelligence ? Que pouvons-nous dire de l’avenir ? Pour les spécialistes de l’IA, il est clair que la capacité du cerveau humain sera atteinte d’ici quelques dizaines d’années. Cette réponse de nature quantitative, appelle une question plus qualitative : un tel ordinateur serait-il doté de conscience et capable de sentiments, d’humour, de valeurs morales ou de croyances religieuses ? En d’autres termes, resterait-il dans la sphère technique ou bien atteindrait-il les domaines de la philosophie, de l’émotion ou du spirituel ? UN HYPER-ORDINATEUR SERAIT-IL DOTÉ DE CONSCIENCE ? Cette question divise la communauté scientifique. Comme je l’ai déjà dit en parlant de la conscience chez Homo sapiens, on ne sait pas exactement comment la définir. Nous avons considéré qu’elle était apparue spontanément dans le cortex quand le nombre des neurones et leur degré d’interconnexion avaient dépassé un certain stade de complexité. En franchissant ce seuil, la conscience s’était « allumée ». Alors, une question se pose : un système informatique atteignant le même palier, s’allumerait-il aussi ? Sans disposer de la moindre preuve, je suis enclin à répondre oui pour une raison simple : de tels allumages sont courants dans 411

Partie 5. Le futur de l’humanité et le sens de l’Univers

l’histoire. D’une façon primitive, cela s’est produit tout à fait spontanément dans les étoiles. Un autre exemple bien plus signifiant est celui déjà cité, des ensembles autocatalytiques à l’origine de la vie. Ils étaient formés de protéines de toutes sortes, constituant un réseau intriqué de multiples réactions chimiques se catalysant entre elles. Les simulations de S. Kauffman avaient montré que si l’efficacité de la catalyse franchissait un palier, la diversité des molécules devenait explosive. Une fois « allumé », l’ensemble autocatalytique se maintenait en équilibre grâce à la sélection darwinienne. Tout ceci me laisse penser que, passé un certain seuil de complexité, l’ordinateur devrait aussi basculer vers la conscience. Toutefois, la science et particulièrement la connaissance du cerveau restent aujourd’hui insuffisamment avancées pour trancher cette question. D’autres interrogations viennent ensuite : de quel genre de conscience pourrait-il s’agir ? La nôtre est d’origine animale et a été façonnée par la sélection pour s’adapter à un contexte bien spécifique : l’Homme préhistorique luttant pour la vie, chassant, organisant sa vie sociale et cherchant à améliorer ses conditions d’existence. Délivrées de cet héritage, il est probable que des consciences d’origine artificielle se diversifieraient dans toutes sortes de nouvelles directions difficiles à imaginer. Elles auraient en commun avec la nôtre, le fait de contrôler et diriger l’intelligence, mais elles le feraient de diverses façons. Comment en dire plus alors que nous ne sommes pas encore capables de définir exactement ce qu’est notre propre conscience ? Cette transition pourrait favoriser un gigantesque enrichissement individuel et collectif allant très au-delà des pratiques humaines actuelles. Elle pourrait aussi provoquer un chaos indescriptible, dont une guerre entre l’Homme et les ordinateurs. L’enjeu serait de nouveau l’équilibre entre l’ordre (une seule conscience humaine sans rivale), et le chaos (une profusion de consciences en partie antagonistes). Si cette hypothèse de l’« allumage » s’avérait vraie, alors les conséquences futures seraient considérables car la pensée au sens général 412

Les clés secrètes de l’Univers

Le futur de l’humanité

pourrait finir par s’affranchir de son réceptacle corporel et se dématérialiser. On imagine ainsi l’intelligence se développant indépendamment de son substrat initial, notre cerveau et notre corps, dans des ordinateurs ou des robots. Ce phénomène s’apparente à un découplage. À ce titre, rappelons l’exemple des gènes : dans les premières formes de protovie, l’information détenue par la cellule était de nature chimique. Il s’agissait tout simplement de la liste des substances présentes, une information élémentaire qui se perpétuait dans le temps. Puis, les molécules d’ARN se sont montrées capables de la stocker à part. Ainsi s’est produit le découplage entre les protéines (acteurs) et l’ARN (gènes détenteurs de l’information). À l’avenir, on pourrait assister à un phénomène similaire avec la pensée : le découplage entre le corps et l’information pure. Cette évolution impliquerait une conséquence importante : l’intelligence se développerait beaucoup plus vite que si elle restait contrainte par les limites du cerveau humain. N’oublions pas que de nos jours, une bonne partie des logiciels est écrite par des robots, c’est-à-dire d’autres programmes spécialisés dans cette tâche. Ainsi, l’écriture de logiciels par des logiciels devrait provoquer un emballement dans les capacités de l’IA : de nouveau un phénomène explosif de nature autocatalytique ! Cette transformation apparentée à une dématérialisation, a été très bien décrite par le grand expert de l’IA, Ray Kurzweil23. Pour exprimer à quel point le changement sera fondamental et rapide, il n’hésite pas à adopter le mot de singularité, employé pour le Big Bang. Sa vision rejoint celle de Joël de Rosnay avec son cybionte. Par rapport à cette vue futuriste, les pessimistes diraient à l’image de Marvin Minsky, spécialiste des sciences cognitives : « Les ordinateurs de la prochaine génération seront tellement intelligents que nous aurons de la chance s’ils nous acceptent auprès d’eux comme animaux de compagnie. » 23.  The Singularity Is Near. Ray Kurzweil. 2005 (traduit en français sous un titre peu fidèle : Humanité 2.0 : la bible du changement). 413

Partie 5. Le futur de l’humanité et le sens de l’Univers

En poussant la logique à l’extrême, la pensée pourrait se libérer complètement du corps avant la fin du millénaire. Vue depuis notre époque, cette situation de découplage entre le corps et l’esprit, qui relève du posthumanisme, semble effrayante. Elle tournerait la page de l’humanité. Cependant, pour la comprendre, il faut imaginer une société très différente de la nôtre, où l’intelligence se serait développée très au-delà des capacités du cerveau. En arrivant à un tel stade, l’existence du corps humain pourrait apparaître de moins en moins signifiante et de plus en plus contraignante. Envisager une telle situation n’est pas aisé car, à juste titre, nous percevons notre encéphale comme un organe de notre corps et n’imaginons pas de nous en défaire. Pourtant, des transformations plus fondamentales que ce découplage de l’intelligence ont déjà ponctué l’histoire cosmique : le Big Bang, la formation des galaxies, l’apparition de la vie, celle des êtres multicellulaires ou celle de l’Homme. Revenons au petit lémurien de la figure 70. Même doté d’un peu de jugeote, il lui aurait été bien difficile d’imaginer que sa descendance, les primates, enfanterait un être tel qu’Homo sapiens, capable d’écrire ou de lire des livres sur le cosmos et l’autocatalyse des protéines ! La dématérialisation de la conscience est au centre des thèses de Teilhard de Chardin. Il conçoit qu’elle s’échangera de plus en plus entre individus. Ainsi se constituera progressivement un super-être mondial qu’il baptise noosphère, concept proche du cybionte de J. de Rosnay. Il voit en cette agrégation des consciences, un saut qualitatif majeur comparable à la façon dont les molécules minérales se sont un jour associées pour passer de l’inerte au vivant. Pour lui, l’activité mentale collective de l’humanité finira par prendre le pas sur la matière et l’organique. Cette évolution tendra à unifier toute la pensée, découplée du corps. Il appelle Point Oméga cet événement qui sera à la fois la fin des temps et la rencontre attendue de l’Homme avec Dieu. Je vois un point faible dans ce scénario : l’unification. J’imagine plutôt une intelligence répartie en unités autonomes et interconnectées. Une bonne raison à cela est la lenteur des communications : une 414

Les clés secrètes de l’Univers

Le futur de l’humanité

intelligence locale, cerveau ou ordinateur, fonctionne beaucoup plus vite en circuit fermé que si elle doit interagir avec d’autres acteurs. Elle peut élaborer bien plus d’idées qu’elle ne peut en communiquer. Cette réalité imposée par les lois de la physique, laisse entrevoir une structure de la noosphère en réseau plutôt que la fusion finale envisagée par Teilhard de Chardin. N’oublions pas que la nature est infiniment plus douée pour fabriquer la diversité que l’unité. LA CIVILISATION COLONISE LA GALAXIE Si l’humanité n’est pas détruite par un cataclysme et n’atteint pas trop vite le Point Oméga, il se posera inévitablement la question ­d’essaimer dans l’espace. Nous serons rapidement à l’étroit sur Terre et il nous faudra trouver notre bonheur ailleurs. Ceci justifie l’intérêt actuel pour les exoplanètes. D’importants programmes de recherche se tournent vers les autres systèmes planétaires. Aujourd’hui, nous sommes au stade de repérer les planètes habitables dans l’Univers proche et de deviner certaines de leurs caractéristiques. D’ici quelques années, le télescope spatial James Webb, successeur d’Hubble, permettra de les observer. En revanche, s’y installer est à ce jour inenvisageable pour au moins deux raisons. D’abord, comme nous l’avons dit à la fin du chapitre 5, même si nous développions des vaisseaux spatiaux capables d’accélérer jusqu’au tiers de la vitesse de la lumière, il faudrait une vie humaine entière pour faire un simple aller et retour à l’étoile la plus voisine de la nôtre, Proxima du Centaure. Ensuite, notre corps ne supporterait pas l’exposition aux rayons cosmiques pendant des dizaines d’années. D’ici un millénaire, il est possible que des hommes génétiquement modifiés et maintenus en hibernation y parviennent. Après tout, ­l’exploit vaudrait bien celui de Néandertal débarquant en Corse sur un radeau. Néanmoins, ces migrations loin dans l’espace risquent fort de ne pas dépasser le stade expérimental, tant il paraît difficile d’adapter notre corps aux températures et à la chimie prévalant sur les autres planètes ainsi qu’aux radiations du cosmos. 415

Partie 5. Le futur de l’humanité et le sens de l’Univers

La véritable solution réside alors dans le concept posthumanisme évoqué plus haut. Si un programme de colonisation de la Galaxie est lancé dans les siècles à venir, il ne sera probablement pas le fait d’hommes en chair et en os, mais plutôt d’êtres en métal et en silicium. Ils disposeront de cette intelligence surmultipliée dont nous avons parlé. Localisée sur des semi-conducteurs ou d’autres supports chimiques, elle pourra voyager sans trop souffrir du temps et des rayons cosmiques. Elle s’incarnera dans des robots capables de s’installer sur une planète, de tirer des ressources du sous-sol et de construire des petits frères et des fusées afin de poursuivre l’aventure sur de nouveaux systèmes planétaires. Comme la Voie lactée comprend des centaines de milliards d’étoiles réparties sur un disque de 100 000 années-lumière, il faudra caboter de l’une à l’autre ! Risquons-nous de rencontrer un jour des extraterrestres, eux aussi engagés dans un programme touristique spatial ? Nous l’avons dit précédemment : la vie existe peut-être en d’autres endroits du Système solaire et plus probablement encore, dans de nombreuses exoplanètes parmi les centaines de milliards peuplant la Galaxie. Pas de surprise donc si nos colons découvrent en quelque lieu une forme de vie primitive peut-être analogue aux bactéries. Trouver des êtres pensants ailleurs dans le cosmos, est tout à fait autre chose. Pendant plus d’un siècle passé à scruter les étoiles et les galaxies dans toutes les directions et les longueurs d’onde, sur des distances allant jusqu’à 13 milliards d’années-lumière, nous n’avons jamais détecté le moindre signal artificiel pouvant émaner d’une civilisation. Le programme du SETI Institute lancé en 1984 pour rechercher de telles manifestations, toujours en activité aujourd’hui, n’en a observé aucune. Nous avons dit que la montée vers la complexité dans le domaine du vivant, n’était pas une finalité de l’Univers. Dès lors, rien ne commande l’apparition d’autres créatures conscientes. Si sur Terre, il n’y a eu que des bactéries pendant 3 milliards d’années, le plus probable est qu’en découvrant la vie ailleurs, nous tombions sur des formes aussi primitives. 416

Les clés secrètes de l’Univers

Le futur de l’humanité

Pourquoi la probabilité de trouver des êtres pensants est-elle si faible ? Je l’explique en reprenant l’analogie de la machine de Marly (chapitre 6, fig. 35). En théorie, une succession de tels dispositifs peut élever l’eau en altitude indéfiniment. Cependant, en pratique, la quantité obtenue devient vite négligeable. De façon similaire, l’Univers peut ponctuellement grimper très haut en complexité, mais avec des probabilités décroissant rapidement. Les chances que d’autres êtres pensants aient pu éclore ailleurs me paraissent infimes : – « Monter l’eau » jusqu’au niveau de sophistication de la vie est déjà un événement requérant des conditions très rares dans le cosmos. – « Monter » ensuite, de ce niveau à celui de l’être multicellulaire représente de nouveau une probabilité extrêmement faible : il a fallu 3 milliards d’années pour y parvenir sur Terre. – Enfin, « monter » de là jusqu’à l’être conscient, est infiniment plus improbable si nous admettons qu’aucune finalité n’y conduit. Pour parvenir au stade de civilisation, il faut donc multiplier une faible probabilité, celle de la vie, par une autre encore plus faible, celle de l’émergence d’êtres multicellulaires, et enfin par une troisième, toujours plus faible, celle de l’apparition de la pensée. Dès lors, nous pouvons douter que des créatures conscientes aient pu surgir ailleurs. En tout cas, si c’est vrai, il faut en dire deux choses. D’abord, elles seraient apparues si loin de nous, qu’engager une communication avec elles, serait inenvisageable à cause de la vitesse finie de la lumière. On peut se demander quel est l’intérêt de découvrir un jour l’existence d’autres êtres civilisés si les lois de la physique nous condamnent à ne jamais échanger avec eux ! De surcroît, ils auraient toutes les chances d’être totalement différents de nous. À titre d’exemple, l’astronome Fred Hoyle dont nous avons déjà parlé, a écrit un roman fascinant24 racontant la visite de la Terre par un être extraterrestre plus intelligent que nous. Sa forme était celle d’un nuage cosmique qui voyageait dans l’espace sidéral et s’était installé autour de notre planète, le temps d’une pause. 24.  Le Nuage Noir. Fred Hoyle. 1962. 417

Partie 5. Le futur de l’humanité et le sens de l’Univers

Dans un sens, l’absence éventuelle d’autres civilisations peut nous redonner un sentiment de fierté : celle d’être possiblement les seuls dans l’Univers à pouvoir le regarder et en parler. Finalement, l’immensité du paysage galactique ne « servirait » à personne sauf à nous, seules créatures capables de l’observer et de lui donner un sens. Cette simple considération replacerait en quelque sorte, l’Homme au centre du cosmos, même s’il est arrivé où il est, par hasard. À très long terme, nous pouvons voir dans la colonisation de la Galaxie, le début d’une évolution fondamentale : l’Univers deviendrait intelligent. Aujourd’hui, pris dans sa totalité, il n’est qu’un tas de matière gazeuse tantôt concentrée et chaude, tantôt diluée et froide, agrémentée de cailloux. La pensée gagnerait progressivement l’ensemble du cosmos, qui virtuellement formerait un immense cerveau. Dans un Univers devenu intelligent, la Terre et l’humanité conserveraient le statut d’un lointain souvenir, celui de l’endroit où est apparu le premier être pensant, comme la cheminée volcanique où a dû apparaître la première bactérie, quelque part au fond d’une fosse océanique.

418

Les clés secrètes de l’Univers

15 La nature intime et le sens de l’Univers

« Au fur et à mesure que le cercle de notre savoir s’étend, il en va de même du périmètre d’obscurité qui l’entoure. Il me semble que ce soit un processus auquel nous ne puissions échapper quelles que soient nos sciences. J’imagine qu’il le restera à tout jamais. » Albert Einstein

En décrivant le monde chronologiquement, l’histoire naturelle met en lumière des rapprochements fréquents entre telle et telle phase de son développement. Nous découvrons ainsi comment, derrière des phénomènes aussi différents que la création d’une étoile, d’une galaxie, d’un être vivant ou d’un cerveau, se retrouvent des mécanismes très apparentés ainsi qu’une logique commune. Ces clés nous permettront de dresser une fiche d’identité de l’Univers. Ensuite, nous montrerons combien il est singulier et quelles peuvent en être les raisons. Pour débuter, le mieux est de résumer cette magnifique saga commencée il y a 13,8 milliards d’années. 419

Partie 5. Le futur de l’humanité et le sens de l’Univers

LA GRANDE SAGA RÉCAPITULÉE À l’origine de tout : le Big Bang. Ce qui l’a peut-être précédé ou bien existe ailleurs dans d’autres espace-temps, nous est inconnu et le restera probablement à tout jamais. En remontant le plus loin possible dans le passé, nous trouvons une bulle d’énergie. Pour des raisons mystérieuses, elle est déjà dotée d’information, comme une graine possède en elle le nécessaire pour faire naître une plante et ses fleurs. En particulier, les lois physiques y sont déjà gravées. Inchangées depuis l’aube des temps, elles façonnent l’Univers à travers une cascade de phénomènes de nature émergente. La bulle d’énergie originelle connaît un épisode inflationnaire qui multiplie son échelle de façon exponentielle : elle passe du microscopique aux distances dites astronomiques. Durant cette très courte période, se produisent des transitions de phase faisant apparaître de nombreux types de particules dont 7 sont stables. Elles constituent la matière ordinaire. En même temps, naissent 4 forces : la gravitation, les interactions nucléaires forte et faible, et la force électromagnétique. Ce très petit nombre de 7 particules et 4 forces suffit à constituer tout ce que nous voyons autour de nous. Pour des raisons inexpliquées, l’inflation s’interrompt. Elle laisse après elle une expansion modérée se poursuivant jusqu’à nos jours. Son effet principal est de refroidir le cosmos. En partant de milliards de milliards de degrés au départ, l’espace intergalactique est devenu aujourd’hui très froid : 2,7 degrés au-dessus du zéro absolu. C’est ce qui permet la montée vers la complexité. En effet, pour s’organiser, l’Univers doit effectuer un travail et évacuer de la chaleur, un peu à l’image de l’homme qui transpire dans l’effort. Grâce au refroidissement, le cosmos fonctionne comme une machine : il peut créer de l’information et construire des structures sophistiquées. L’Univers très primitif issu du Big Bang est un gaz d’hydrogène et d’hélium. À partir de cet état très simple, les 4 forces vont provoquer 3 grandes bouffées de complexité et façonner le cosmos. La première à agir est la gravitation poussant le gaz à s’effondrer sur lui-même 420

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

localement. Ainsi s’agrègent les étoiles qui se regroupent ensuite en galaxies. Au cœur de ces astres, réapparaît une chaleur très élevée, un retour en arrière vers le Big Bang en quelque sorte. Les 2 forces nucléaires peuvent alors entrer en lice pour y forger les 94 éléments constituant la matière usuelle : carbone, oxygène, etc. À leur mort, les étoiles explosent et disséminent généreusement cette production dans l’espace en déclenchant la seconde grande bouffée de complexité. Après avoir été dispersés dans l’espace, les éléments s’assemblent pour former de nouvelles étoiles, des planètes, des astéroïdes et des comètes. Dans les astres et les nuages cosmiques froids, la force électromagnétique entre à son tour en action pour la troisième bouffée de complexité : la formation des molécules à partir des 94 éléments. En certains endroits très fertiles, comme la Terre, la diversité atteint jusqu’à 2 000 molécules différentes, dites minérales. Voici ce que nous pouvons trouver un peu partout dans le cosmos aujourd’hui. En de très rares lieux de l’Univers, présentant une température favorable et de l’eau liquide, la complexité peut aller beaucoup plus loin avec la naissance de la vie. Elle résulte de l’apparition des polymères, ces macromolécules assemblées en chaînes. Elles provoquent une quatrième bouffée : le passage de 2 000 molécules minérales à une quasi-infinité de polymères. Sur Terre, ces chaînes sont essentiellement des protéines. Cependant, en d’autres endroits hypothétiques, nous pouvons imaginer une vie fondée sur des types de macromolécules différents. Dotées de fortes capacités catalytiques, elles déclenchent une réaction en chaîne faisant exploser la variété chimique. Au sein de cette immense diversité, des ensembles de molécules, dits autocatalytiques, entretiennent de nombreux cycles de réactions. Ils s’imposent dans la soupe de molécules et se multiplient en raison de leur plus grande stabilité. Les autres substances sont reléguées au rang de spectateur ou bien d’aliment. 421

Partie 5. Le futur de l’humanité et le sens de l’Univers

La façon dont les phospholipides se regroupent naturellement en membranes, fait apparaître des vésicules à l’intérieur desquelles certaines réactions chimiques s’abritent et se concentrent. Les ensembles autocatalytiques, ainsi protégés dans des gouttes lipidiques, constituent les premières protocellules. Avec elles, se met en œuvre la forme aboutie de la sélection darwinienne pouvant désormais s’appliquer à des êtres bien individualisés. Si la vie est apparue sur d’autres planètes, il est probable qu’elle se soit arrêtée au stade de la bactérie, un état déjà très sophistiqué. Sur Terre, une nouvelle bouffée de complexité se déclenche avec l’apparition des êtres multicellulaires : l’alliance de cellules entre elles, par des principes particulièrement raffinés, donne naissance à des millions d’espèces plus élaborées les unes que les autres. Enfin, la dernière bouffée, la plus innovante, se produit avec le développement de l’intelligence chez quelques singes devenant bipèdes. Ils doivent trouver leur nourriture au sol où toutes les niches sont occupées depuis longtemps. De surcroît, ils subissent des changements climatiques fréquents. Dans ce contexte difficile, la capacité de leur cerveau devient un avantage compétitif majeur qui va être retenu par la sélection. Elle dote notre ancêtre Homo d’un cortex surpuissant, dans lequel la conscience apparaît. L’Homme entame alors un autre genre d’évolution, fondé non plus sur l’amélioration du génome, mais sur l’accumulation de la culture. C’est la situation que nous vivons actuellement. Dans l’avenir, l’intelligence localisée en partie dans des ordinateurs, se déploiera considérablement en démultipliant les possibilités du cerveau. Répartie dans des robots électroniques, elle pourrait finir par se découpler du corps humain, créant une nouvelle bouffée de complexité. Si la société parvient à ce stade, on peut envisager que de tels robots entreprennent la colonisation de la Galaxie. L’Univers, fait de gaz et de cailloux, commencerait tout simplement à devenir intelligent et conscient ! De toute cette histoire, se dégagent cinq grandes propriétés de la nature, toutes singulières. Nous allons les décrire puis nous interroger sur leur origine. 422

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

UNE PROPRIÉTÉ ÉVIDENTE : L’UNIVERS EST INTELLIGIBLE Parmi les traits de l’Univers, je citerai en premier le fait qu’il soit intelligible et tout particulièrement par le truchement des mathématiques. Cette caractéristique paraît banale et pourtant, elle est loin de l’être. Einstein disait avec son art de manier le paradoxe : « le plus incompréhensible à propos de l’Univers, est qu’il soit compréhensible ». Ainsi s’étonnait-il que la nature se laisse facilement décrypter (facilement mériterait des guillemets, vu le niveau mathématique requis !). Effectivement, si nous imaginons tous les univers susceptibles d’exister, la plupart seraient chaotiques et impossibles à décrire. Le nôtre est compréhensible pour être un puzzle fait de pièces très simples : tout se résume à 7 particules de matière et 4 forces. Nous nous étions déjà demandé pourquoi pas 3 512 sortes de particules ? S’il y en avait autant, voire a fortiori une infinité, l’Univers serait indéchiffrable. De plus, ces briques élémentaires en très petit nombre, sont immuables depuis 13,8 milliards d’années. Si elles changeaient dans le temps, comment pourrions-nous décrire les choses, les comprendre et les prévoir ? En conclusion, un univers intelligible est en soi, très improbable. Plus étonnant encore, est le fait que les mathématiques soient si appropriées à le modéliser. Par essence, le physicien n’est pas un mathématicien. Il développe une activité existant déjà de façon primitive chez tous les mammifères : observer le monde et chercher des régularités, c’est-à-dire des phénomènes récurrents. Cet exercice est fructueux car la nature présente de nombreux invariants facilement décryptables : les objets tendent toujours à descendre le plus bas possible, ou bien, après la pluie, les plantes poussent. À l’image de tout mammifère, le physicien identifie ces récurrences et les enregistre dans son esprit sous la forme d’un modèle lui servant à prévoir les événements. Au fur et à mesure que la connaissance progresse, il découvre la surprenante fertilité des mathématiques pour a­ ppréhender l’Univers. Pythagore le premier y voit un principe sous-jacent : « le nombre est 423

Partie 5. Le futur de l’humanité et le sens de l’Univers

le principe et la source de toute chose ». Plus tard, Galilée, l’inventeur de la démarche scientifique, met en équation la chute des corps. Il s’aperçoit que le grand livre de la philosophie (la science) est écrit dans la langue mathématique. Faut-il en conclure que nous vivons dans un monde par essence mathématique ? Certains le pensent, notamment parmi ceux évoluant quotidiennement dans les arcanes de la théorie quantique. D’autres ont pris une position opposée : ce n’est pas l’Univers qui est mathématique, mais plutôt les modèles forgés par les humains. Le physicien Georges Lochak commente ainsi la phrase de Galilée : « On ne doit pas oublier que le livre n’est pas écrit par Dieu mais par nous, car c’est nous qui décrivons le monde dans ce langage. Ce que Dieu a bien pu écrire reste un mystère ». En ce qui me concerne, je me range parmi les seconds : il me semble qu’admirer l’harmonie entre la nature et les mathématiques, revient à admirer notre propre machine à penser ! Pour revenir à l’Univers lui-même, il est étonnant qu’il se prête si aisément à un décryptage par le calcul. Pour moi, la raison tient simplement au fait qu’il s’échafaude à partir d’un tout petit nombre de lois fondamentales et de types de particules. Comme il n’existe que 7 particules de matière et 4 forces, ces quelques briques de base forment facilement entre elles une combinatoire. Nous avons déjà vu ce terme qui se réfère à la façon dont des éléments primaires s’assemblent entre eux pour former des variations infinies. Un bel exemple est la manière dont les 26 lettres de l’alphabet s’agencent en mots puis en textes. Des règles simples (grammaire, syntaxe, etc.) régissent la formation des phrases, et de là vient toute notre littérature. Les 7 particules de matière s’agrègent en 94 éléments, ceux-ci se combinent en 2 000 molécules minérales et certaines d’entre elles se lient pour constituer une infinité de protéines. Il en résulte un Lego dont les pièces sont bien identifiables et se regroupent de façon largement prédictible, même si le hasard joue un rôle important. Ainsi apparaissent toutes sortes de variantes de la matière, dont la plus organisée est la vie. C’est ce jeu que j’appelle une combinatoire. Par 424

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

sa nature même, elle est particulièrement adaptée aux descriptions mathématiques, et plus encore, aux simulations numériques. Les phénomènes les plus simples, tels le jeu de la gravitation sur un astre ou les interactions entre particules, se mettent en équations, tandis que les plus complexes, telles une galaxie, la vie ou la météo, peuvent s’analyser par simulation informatique comme l’a fait Kauffman. Dans les deux cas, nous cherchons à comprendre une combinatoire et à prévoir son développement. Une fois énoncé que l’Univers émerge des combinaisons infinies d’un tout petit nombre de particules différentes, nous pouvons nous demander pourquoi il en est ainsi. Ceci nous ramène au mystère du Big Bang, car cette constitution à la fois simple et fertile était déjà inscrite en germe dans la bulle d’énergie initiale. Tout était fait pour qu’apparaissent les formes les plus sophistiquées à partir des éléments les plus rudimentaires. Voilà ce qui, subsidiairement, rend le monde compréhensible. Nous pouvons attribuer cette propriété au Créateur. Nous verrons bientôt que le hasard peut aussi mener à une telle situation, toutefois sous condition ! L’UNIVERS EST STRATIFIÉ Certes, il est intelligible, mais faut-il le préciser, dans les limites de notre connaissance ! Le risque est grand de nous focaliser sur ce qui est compréhensible et d’oublier purement et simplement les immenses territoires inconnus échappant totalement à notre entendement. Ne tombons pas dans le travers du grand ponte de la physique classique, Lord Kelvin : à la fin du xixe siècle, il prétendait que pratiquement tout avait été découvert, au point que les physiciens seraient bientôt une espèce en voie de disparition. Pour lui, il restait deux expériences non encore expliquées, qui devraient l’être sous peu : le rayonnement du corps noir et l’expérience de Michelson-Morley. Ironie de l’histoire, moins de vingt ans après, les deux étaient élucidées : la première débouchait sur la mécanique quantique et la seconde sur la relativité ! Le savant avait succombé au biais de confirmation, autrement dit, au 425

Partie 5. Le futur de l’humanité et le sens de l’Univers

fait de se rassurer là où l’on est sûr de soi, tout en laissant de côté les domaines incertains. Pour éviter ce piège, nous allons explorer le champ de la connaissance plus largement, en clarifiant où se trouvent ses limites. Cela dévoilera plus avant comment l’Univers s’organise et fera apparaître la notion de strates. Tout d’abord, il faut le rappeler, il n’existe pas une physique, mais deux : d’une part, les théories classiques (dont la relativité) et d’autre part, la mécanique quantique. Cette scission est très signifiante en raison de leurs incompatibilités congénitales. Il est intéressant de retracer l’histoire de ce schisme. Au début du xxe siècle, contrairement aux certitudes de Lord Kelvin, la science tombe dans une impasse pour expliquer la structure de l’atome. On trouve alors la solution grâce à une nouvelle physique dite quantique, dont la nature est fortement contre-intuitive. Elle indique qu’une particule est à la fois un corpuscule matériel et une onde (dualité), qu’elle se situe simultanément à plusieurs endroits (superposition) et que sa position ne peut être connue de façon certaine (essence probabiliste). Enfin, deux particules qui ont interagi doivent être considérées comme un objet unique (intrication). Ces propriétés, vigoureusement contestées par Einstein dans les années 1930, sont désormais établies et bien décrites par un formalisme mathématique complexe. On se retrouve donc avec deux physiques très différentes, remarquablement précises, mais en partie incompatibles : l’une pour le monde microscopique, l’autre pour le macroscopique. Lors de ses débats avec Einstein, le champion de la mécanique quantique, Niels Bohr, clamait haut et fort que ces deux mondes étaient distincts et qu’ils n’obéissaient pas aux mêmes lois. Les faits lui ont largement donné raison. Cependant, cela a posé de nombreux problèmes d’interprétation, souvent regroupés sous le vocable de question quantique. En particulier, on comprend difficilement où situer la frontière entre les deux mondes : à quel moment un objet cesse-t-il d’être quantique pour devenir classique (ou l’inverse) ? La meilleure formulation de ce mystère est le célèbre 426

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

paradoxe du Chat de Schrödinger, à la fois mort et vivant si l’on applique rigoureusement la nouvelle physique. Il fait couler beaucoup d’encre jusque dans les années 1970 où une nouvelle théorie décrit le passage du monde quantique au monde classique : la décohérence. En termes simples, elle dit que les particules abandonnent leur comportement quantique dès qu’elles s’assemblent en grand nombre, ou bien tout simplement, interagissent avec l’environnement, par exemple l’air ou la lumière du laboratoire : elles décohèrent. En quelque sorte, insaisissables auparavant, elles se figent pour devenir les objets classiques auxquels nous sommes habitués : identifiables, séparés, localisés, bref, bien réels à nos yeux. À quel stade se produit cette transition ? Pour simplifier grossièrement, la frontière entre les deux mondes se trouve à peu près au niveau de la taille d’une grosse molécule. Ce phénomène de décohérence est très révélateur car il montre formellement comment les objets classiques (macroscopiques) émergent d’une vérité sous-jacente très différente, celle des particules quantiques (microscopiques). Incomprise à ses débuts, la mécanique quantique est aujourd’hui une science mûre. En résumé, elle nous enseigne quelque chose d’important sur l’Univers : – Les domaines microscopique et macroscopique sont deux strates distinctes. – Les deux obéissent à des lois différentes. – La strate macroscopique émerge de la précédente. Cette structure de l’Univers en deux strates nous amène à une question fondamentale : si nous descendons plus bas dans les échelles microscopiques, ou bien au contraire, si nous nous projetons dans les échelles astronomiques les plus grandes, tomberons-nous sur de nouvelles strates obéissant à des logiques encore différentes ? Pour y répondre, nous allons tenter un périple dans les extrêmes de la connaissance, tel le navigateur filant vers l’horizon pour voir ce qu’il y a au-delà. 427

Partie 5. Le futur de l’humanité et le sens de l’Univers

Commençons par descendre vers les plus petites échelles. Nous avons déjà fait ce voyage au chapitre 2, en remontant le temps à la recherche du Big Bang. Nous nous étions heurtés à une barrière absolue de l’entendement : le mur de Planck. Non seulement, nos instruments sont très loin d’observer des dimensions aussi ténues, mais de plus et surtout, nos meilleures théories, la relativité générale et la mécanique quantique, y deviennent incohérentes. Il s’agit clairement d’un mur dans notre compréhension du monde. Il jette un voile sur le Big Bang car ses origines se trouvent dans des dimensions inférieures, dans une zone où l’Univers nous est indéchiffrable. Reeves parle de terra incognita, un terme rappelant l’époque où les navigateurs portugais cartographiaient les côtes des continents, laissant en blanc les terres inexplorées. Dans le cas du mur de Planck, nous ne parlons pas d’un défaut d’exploration, mais plutôt, d’importantes contradictions dans nos théories, irrésolues depuis près d’un siècle. Maintenant, tentons le voyage vers l’extrême opposé, celui des très grandes échelles. Nous avons, là aussi, rencontré un mur théorique : l’horizon cosmologique. Pour être précis, il en existe deux dont les ordres de grandeur sont proches. Le premier, vu au chapitre 5, tient au fait que la lumière des galaxies les plus éloignées n’a pas eu le temps de nous parvenir depuis le Big Bang. Le second, vu au chapitre 7, provient de l’expansion : à partir d’une certaine distance, la vitesse de fuite des galaxies dépasse celle de la lumière et nous n’avons plus aucune chance de recevoir un quelconque signal d’elles. Derrière ces deux horizons, au-delà des confins de l’Univers observable, nous sommes dans une autre terra incognita. Il faut de nouveau préciser que ces limites ne sont pas dues au manque de puissance ou de précision de nos instruments : leurs causes sont théoriques et liées à la vitesse de la lumière. Si la relativité d’Einstein est vraie, et nous n’avons strictement aucune raison de penser le contraire, nous n’imaginons pas comment ces frontières pourraient être dépassées. 428

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

Enfin, la cosmologie se heurte à une autre limite importante de la connaissance, dont nous avons déjà parlé au chapitre 7 : nous percevons à peine 5 % de la matière contenue dans le cosmos. Les 95 % restants sont une immense terra incognita baptisée matière noire et énergie sombre. Deux concepts non élucidés en l’état actuel de la science. Deux continents en blanc sur notre carte marine. En résumé, l’Univers tel que nous le voyons présente deux strates, microscopique et macroscopique. Elles sont elles-mêmes limitées par des frontières au-delà desquelles, nous sommes en terra incognita. Cette situation laisse clairement penser que d’autres strates doivent exister vers l’infiniment petit et vers l’infiniment grand, tout en étant inaccessibles pour nous à ce jour. Cette vision des choses mérite d’être développée plus avant. L’UNIVERS MATRIOCHKA Sur la figure 73, nous avons représenté les échelles (petit/grand) comme les étages et les sous-sols d’un immeuble. Chaque niveau est une des strates déjà mentionnées. Reprenons-les une par une en partant du bas, c’est-à-dire au-delà des dimensions les plus petites imaginables. Au 2e sous-sol, nous nous trouvons dans la terra incognita située sous le mur de Planck. Nous en ignorons tout. Certains théoriciens essaient de la pénétrer au moins à un niveau conceptuel, mais nous sommes très loin de pouvoir y accéder par l’observation. Une approche a été celle de la théorie des cordes. Elle repose sur l’existence hypothétique de très petites cordes vibrantes, de dimension inférieure à la longueur de Planck. Les particules connues émergeraient de ces petits objets. Cette théorie s’est enlisée dans la complexité mathématique. Une autre, dite gravité quantique à boucles, cherche à définir l’espace-temps lui-même, comme un objet émergent. Il serait la manifestation à nos échelles, de quelque chose de plus fondamental et de plus petit, se déroulant sous la longueur de Planck. À l’image d’une loupe révélant la trame d’un tissu, nous découvririons une texture de l’espace-temps, aujourd’hui imperceptible. 429

Partie 5. Le futur de l’humanité et le sens de l’Univers

Figure 73 | L’Univers stratifié. Des plus petites échelles vers les plus grandes, chaque strate émerge de celle du dessous et l’englobe.

Toutes ces idées laissent entendre que des formes inconnues, opérant dans cette terra incognita, seraient à l’origine des particules observables dans la strate microscopique (le 1er sous-sol, juste au-dessus). Ce que nous baptisons particules élémentaires, émergerait ainsi d’une strate inférieure. Certains vont jusqu’à penser que les lois de la nature elles-mêmes, seraient des conséquences de phénomènes localisés dans l’infiniment petit : elles refléteraient d’autres lois situées à un niveau inférieur dans les échelles. Au 1er sous-sol, en montant d’un étage, nous quittons la terra incognita et pénétrons le monde microscopique connu où la mécanique quantique règne en maître. 430

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

Les particules sont intriquées, c’est-à-dire dépendantes les unes des autres. Quand elles sont en grand nombre, elles tendent à ­s’agréger en gaz moléculaires, en liquides ou en cristaux. Ce faisant, elles décohèrent (deviennent indépendantes) et montent ainsi d’un étage, au rez-de-chaussée, dans l’environnement qui nous est familier. Au rez-de-chaussée, nous retrouvons enfin le monde de tous les jours, celui des bactéries, des êtres humains, des étoiles et des galaxies. Nous l’avons qualifié de macroscopique. Il relève de la physique classique et de la relativité, ainsi que de la chimie, de la biologie, etc. Comme indiqué plus haut, il présente aussi des limites théoriques : horizon cosmologique, matière noire et énergie sombre. Si nous pouvions franchir ces limites, nous passerions à l’étage supérieur. Au 1er étage, nous entrerions dans une nouvelle terra incognita. Deux questions se posent à cette échelle. D’abord celle de la matière noire et de l’énergie sombre : proviennent-elles d’interactions avec d’autres univers ou bien de substances invisibles situées dans le nôtre ? La seconde intrigue est l’extension spatiale de notre cosmos : se poursuit-il indéfiniment au-delà de l’horizon, tout en conservant la même apparence ? Ou bien, s’emboîte-t-il dans une structure plus grande, aux côtés d’univers distincts ? Nous reprendrons cette idée sous le nom de multivers. Pour terminer la description de notre immeuble, vous aurez remarqué sur la figure, que les étages se prolongent au-dessous et au-dessus des quatre niveaux déjà mentionnés. Cela suggère une question : les terras incognitas cachent-elles de nouvelles strates dans les dimensions plus grandes ou plus petites, encore moins accessibles ? Faute de pouvoir envoyer une sonde au-delà des horizons de la connaissance, la science ne peut y répondre. Pour ma part, je suis convaincu qu’il en est beaucoup d’autres, de natures totalement différentes, tant vers les grandes échelles que vers les petites. Combien ? Je vais vous surprendre en postulant qu’il en existe une 431

Partie 5. Le futur de l’humanité et le sens de l’Univers

infinité. Elles nous resteront à tout jamais inconnues. Cette idée donne quelque peu le vertige. À défaut de preuves physiques, j’avancerai deux arguments philosophiques à l’appui de cette thèse des strates multiples. Le premier repose sur le diagramme de Langton décrivant l’interaction de deux strates : – celle des composantes (par exemple, les particules de l’air s’agitant pour former un orage) ; – celle du tout qui en émerge (l’orage), lequel à son tour impose ses règles à ses propres constituants. Ce mécanisme est tellement présent à travers l’Univers à toutes ses échelles, qu’il me semble devoir être retenu comme un principe fondamental. Nous retrouvons cette idée chez le biochimiste et théologien Arthur Peacocke. Il constate que les systèmes complexes se hiérarchisent toujours en différents niveaux. Les concepts applicables à l’un d’entre eux, ne le sont plus à l’autre : chacun requiert un langage propre. Dans cet esprit, Peacocke exprime le principe général selon lequel chaque niveau de description est une coupe dans le tout de la réalité. Ainsi, les deux strates intelligibles pour nous, le 1er sous-sol et le rez-de-chaussée, représenteraient deux coupes un peu à l’image de deux sections pratiquées sur un tube pour voir ce qui se trouve à l’intérieur. Si l’Univers est stratifié de cette manière, pourquoi la nature s’arrêterait-elle à deux strates ? Parce que nous en voyons deux ? Il me paraît plus logique de dire qu’il en existe d’autres à l’infini. À défaut, nous conserverions des œillères et tomberions dans le biais de confirmation. Le second argument justifiant que la maison Univers ait une infinité d’étages et de sous-sols, se rapporte à la notion de facteur d’échelle, explicitée au chapitre 2. Comme nous l’avons vu, les mots grand et petit n’ont aucune signification dans l’absolu. Le Soleil est gigantesque pour l’être humain qui, lui-même, est énorme pour une bactérie. En utilisant le mètre comme unité, nous fixons arbitrairement un étalon de longueur : la distance entre les mains d’un 432

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

homme écartant les bras. Le mètre est une référence évidente pour nous, cependant la nature ne possède aucun étalon particulier. Ni le diamètre de la Galaxie, ni celui du proton ne peuvent prétendre au statut d’une quelconque valeur de référence. Dès lors, si le monde se stratifie en couches successives dans des échelles de plus en plus petites et grandes, pourquoi celles-ci s’arrêteraient-elles à une échelle minimum et à une autre maximum ? Cela signifierait que l’Univers présente des bords et que certaines échelles sont privilégiées. Or en l’état actuel de la science, aucune limite n’est observable en dehors des horizons de notre propre connaissance. Dans la nature, nous ne voyons aucune échelle qui jouerait un rôle plus important qu’une autre, et encore moins, qui serait un minimum ou un maximum. D’où l’idée que toutes les dimensions existent, tant vers l’infiniment grand que vers l’infiniment petit. Si pour nous, êtres humains, il existe deux limites à notre vision du monde, le mur de Planck et l’horizon cosmologique, il faut y voir des restrictions de notre intellect ou de notre perception, et non d’éventuelles frontières du cosmos. Voir en ces deux limites ou en toute autre, le bord de l’Univers, me rappelle l’allégorie du clochard citée à la fin du premier chapitre. La nuit, il cherchait de façon obsessionnelle son porte-monnaie dans le cône de lumière du réverbère en disant que c’était le seul endroit où il voyait. Ainsi, le mécanisme de Langton, apparu tant de fois dans cet ouvrage, semble être à l’œuvre pour organiser l’Univers en strates. Chacune engloberait la précédente et ferait émerger la suivante au-dessus d’elle, avec à chaque fois des règles nouvelles, et ceci sans limite. J’appelle cela l’Univers matriochka, fait de poupées emboîtées probablement à l’infini (plus exactement, on parle d’univers fractal). La physique d’aujourd’hui nous permet d’observer seulement deux de ces strates. En d’autres termes, nous sommes dans la position d’un petit insecte emprisonné entre deux poupées de la matriochka : en dehors de ces deux-là, les plus petites ou les plus grandes lui sont inconnues. 433

Partie 5. Le futur de l’humanité et le sens de l’Univers

L’UNIVERS EST FAIT POUR FABRIQUER LA COMPLEXITÉ À PARTIR DE LA SIMPLICITÉ Ce fut un leitmotiv tout au long des chapitres précédents. Le savant et philosophe Paul Davies disait : « les lois de la physique connues tiendraient écrites sur le dos d’un T-shirt ». Pourtant, elles sont à l’origine d’un monde extrêmement raffiné, selon les processus de l’émergence déjà amplement illustrés. Tous les univers possibles que nous pouvons imaginer en théorie, auraient beaucoup plus de chances d’être soit froids et inertes (des particules, du gaz, au mieux, du caillou), soit totalement chaotiques comme la fournaise du Big Bang ou celle du cœur des étoiles. Pourquoi le nôtre est-il si singulier ? Son secret de fabrication est de reposer sur un tout petit nombre de particules et de forces capables de se combiner pour constituer des objets plus grands, sans tomber dans l’ordre ou le chaos. Cet assemblage commence dans le domaine microscopique où les particules suivent un destin flou. Nous avons vu qu’elles sont intriquées : nous ne pouvons parler de l’une sans se référer aux autres. Leurs positions sont aléatoires. Ces conditions sont peu propices à l’élaboration de structures stables. Heureusement, les lois de la physique font qu’en passant au niveau macroscopique, les choses changent et se stabilisent. Quand les atomes se combinent en molécules ou en objets plus gros, ils abandonnent ce flou quantique et se comportent comme les objets usuels. En décohérant, ils se mettent à obéir à la science classique. Ainsi se constitue progressivement un Lego prêt à s’assembler en formes stables. La combinatoire déjà évoquée va se développer car atomes et molécules disposent d’une capacité de se lier pour fabriquer des structures. Il n’y a pas de doute, l’Univers est fait pour engendrer la complexité et la recette est inscrite dans les ingrédients eux-mêmes. Faut-il y voir une finalité ? Nous avons déjà abordé ce thème à propos des êtres vivants, en disant qu’aucun destin ne guidait la nature dans cette direction. N’est-il pas contradictoire de dire à la 434

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

fois que l’Univers est fait pour engendrer la complexité et qu’il n’existe en cela aucune finalité ? Pour répondre à cette question, il convient de préciser si nous parlons d’une finalité née avant ou après le Big Bang. Avant, rien ni dans la science ni dans ce livre ne permet de statuer. Nous sommes dans le domaine des croyances et des hypothèses. Les uns considéreront que Dieu a orienté les choses, ou bien, a minima, avait inscrit la montée vers la complexité dans les données de départ. Les autres y verront simplement un événement fortuit et mystérieux. En revanche, pour ce qui se situe après le Big Bang, j’affirme que tout a pu se dérouler sans finalité. À chaque grande étape de l’ascension, j’ai indiqué qu’elle pouvait tout à fait s’expliquer sans recourir à un quelconque destin. Mais alors, comment expliquer que l’Univers atteigne de tels degrés de sophistication, sans être animé par une finalité ? Pour le comprendre, revenons sur l’analogie présentée au chapitre 6 : une succession de machines de Marly, conçues pour monter l’eau le plus haut possible. Le concept important est qu’un tel dispositif peut théoriquement atteindre des altitudes très élevées, mais avec une énorme déperdition. Au fur et à mesure de l’ascension, la majorité de l’eau retombe et seule une quantité minime parvient tout en haut. En termes scientifiques : la probabilité décroît rapidement quand nous montons en complexité. Ainsi, rares sont les planètes pouvant développer une chimie sophistiquée. Parmi elles, très peu sont susceptibles d’abriter la vie. Et combien l’abritent réellement ? Parmi ces dernières, seule une infime fraction parviendrait aux êtres multicellulaires. Enfin, à mon sens, la probabilité pour que cela débouche sur un être pensant, devient infinitésimale. Il n’y a donc pas de contradiction entre l’émergence de la complexité et l’absence de finalité : il existe simplement des possibilités infinies dont seule une très faible part se réalise car les probabilités jouent en sens inverse. Cette idée, pourtant facile à comprendre, n’est pas évidente pour nous, êtres humains observant les choses depuis le sommet du 435

Partie 5. Le futur de l’humanité et le sens de l’Univers

Mont Complexité. Il nous est particulièrement difficile d’admettre que la Terre et ses habitants soient une exception statistique perdue au milieu d’un immense océan stérile. L’UNIVERS EST UNE MACHINE À CRÉER DE L’INFORMATION La montée vers la complexité s’apparente à une création d’information. Reeves a très bien décrit ce mécanisme en astrophysique. Nous l’avons observé avec plus d’ampleur dans les chapitres consacrés à la vie. Tout au long de l’histoire, nous voyons se développer l’information de façon accélérée. Il s’en crée lorsque la soupe de particules encore diffuse, née du Big Bang, s’agrège en étoiles et en galaxies. Il en apparaît davantage en leur sein, quand les éléments chimiques sont élaborés. Il s’en produit enfin lorsque cette matière, une fois dispersée dans l’espace, forme des planètes où plusieurs milliers de molécules minérales s’assemblent et engendrent des substances toujours plus riches. Puis, le Lego des molécules s’enrichit considérablement par l’assemblage de chaînes variées : les polymères. En assimilant la protéine à un message écrit dans un alphabet de 20 lettres, nous l’avons spontanément présentée comme de l’information pure. Plus tard, celle-ci se stocke dans une autre molécule, l’ARN (ou l’ADN), écrite cette fois dans un alphabet de 4 lettres. Ainsi, avec l’apparition des gènes, l’information se découple des protéines. Dès lors, la sélection se charge de sophistiquer jour après jour le texte stocké dans l’ADN et cela jusqu’à l’Homme. Le mécanisme que nous avons baptisé la martingale de Darwin, est une machine diabolique à fabriquer de l’information d’une manière on ne peut plus simple : trier parmi les variations. En effet, le seul fait de trier crée de l’information. Imaginez deux paniers contenant chacun 10 pommes. Dans l’un d’eux, on a séparé les 3 qui sont pourries des 7 qui sont bonnes. Ce panier contient plus d’information que l’autre. La sélection naturelle crée ainsi de l’information à l’infini en triant systématiquement parmi tous les essais de la nature. Nous pouvons éprouver quelque mépris devant 436

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

un algorithme aussi primitif, comparé à ceux de nos ordinateurs. Et pourtant, quel succès pourvu qu’on lui donne du temps ! À partir de là, le fil de la vie se résume à la transmission et au peaufinage de l’information génétique de parents à enfant. Avec l’humanité et l’avènement de la culture, la création d’information prend un essor explosif. La sélection naturelle est abandonnée au bord de la route et l’information poursuit son destin de façon dématérialisée, par notre langage, nos livres, nos téléphones, nos ordinateurs et Internet. Nous avons imaginé que l’intelligence se développerait ensuite en symbiose entre le cerveau et des dispositifs artificiels. En poussant cette logique à l’extrême, elle pourrait un jour s’épanouir seule en dehors de l’encéphale humain et dépasser largement ses capacités : un nouveau découplage, cette fois entre le corps et l’esprit. Enfin, elle partirait peut-être à la conquête de la Galaxie, incarnée dans des robots. Si ce scénario réussissait, cela signifierait tout simplement que l’Univers deviendrait intelligent et conscient. Cela a-t-il des chances de se produire ? Oui et non ! Revenons au thème vu précédemment : au fur et à mesure de son développement, la complexité est affectée de probabilités décroissantes. Potentiellement, l’intelligence pourrait coloniser la Voie lactée, mais à chaque étape de cette ascension, les chances de succès s’amenuiseront. D’ici là, aurons-nous détruit l’humanité avec nos bombes atomiques ou bien en massacrant notre propre planète ? Si un jour, l’intelligence au sens le plus large venait à se découpler du corps, cette transition serait-elle positive et fructueuse ? Créerait-elle de nouvelles formes spirituelles plus riches et complexes, ou bien un chaos indescriptible et mortel ? Ces exemples illustrent ce que j’appelle les probabilités décroissantes : plus les potentiels sont élevés, plus les obstacles deviennent nombreux. Ceci rappelle les jeux vidéo où il faut atteindre un but en franchissant un nombre croissant d’épreuves et en étant assailli par de plus en plus d’ennemis. Le jeu consiste à aller le plus loin possible et se termine toujours par game over. 437

Partie 5. Le futur de l’humanité et le sens de l’Univers

Les êtres vivants escaladent le Mont Complexité, mais au cours de leur montée, les probabilités d’échec augmentent. Ils sont des alpinistes lancés à l’assaut de l’Everest qui subissent des tempêtes de neige imprévues, découvrent des roches rendues friables par le gel, n’ont pas emporté suffisamment de pitons ou de vivres pour arriver au bout du périple, etc. Théoriquement, l’ascension vers la complexité peut être infinie car l’extrême longévité de l’Univers multiplie les potentiels, ce qui donne le sentiment d’une finalité. Cependant, en pratique, les rendements sont rapidement décroissants. Voilà comment est fait le monde. Tôt ou tard, le joueur est vaincu. L’UNIVERS COMBINE FINEMENT LA DIVERSITÉ ET L’UNITÉ Encore une propriété qui paraît banale et pourtant, elle ne l’est pas du tout : l’Univers est finement ajusté entre régularité et diversité. Si vous vous promenez en forêt de Compiègne, vous voyez des hêtres à perte de vue, une végétation très homogène. La nature a trouvé là une formule qui a réussi, liée à un sol d’une certaine composition et un climat particulier. Elle l’a déployée à l’infini, donnant ainsi une impression de monotonie. Cependant, lors de la promenade, vous découvrez une grande variété dans les détails. Des lieux sont propices aux champignons, d’autres non. Vous croisez un chevreuil : sa constitution athlétique lui permet de circuler très vite pour aller chercher les endroits où se trouvent les pousses dont il s’alimente. La forêt abrite un écosystème extraordinairement varié de bactéries, d’insectes et d’oiseaux. Elle combine régularité d’ensemble et diversité locale. Toute la nature est ainsi faite. Dans le ciel, vous voyez des milliers d’étoiles paraissant toutes semblables : cette formule a réussi et s’est développée sans fin. Si vous vous intéressez aux photographies du satellite Hubble montrant les confins du cosmos, vous constatez que les zones les plus éloignées ressemblent aux plus proches : les galaxies semblent identiques à l’infini. Pourtant, tous ces objets célestes présentent des différences. Les 7,5 milliards d’êtres humains sont 438

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

aussi faits de la même façon avec deux yeux, un nez et une bouche, mais quand vous les découvrez individuellement, quelle variété ! La nature reproduit ainsi, à l’infini, des formes stables qui prospèrent et se répandent dans l’espace et le temps, tout en engendrant de la diversité localement. Cette propriété est bien plus singulière qu’il n’y paraît. Si le monde n’était pas fait de régularités, nous n’existerions pas. Pensez au marché où vous achetez fruits et légumes. Sur les étals, vous reconnaissez les courgettes, les pommes, etc. Si la nature n’observait pas cette régularité et produisait toutes sortes de végétaux différents, des bons et d’autres toxiques, le marché ne pourrait pas s’organiser et vous-même n’existeriez pas car vous ne sauriez jamais quoi manger. Réciproquement, si toutes les pommes étaient identiques, la vie serait bien triste. Plus grave encore, la sélection darwinienne n’existerait pas… et les pommes non plus… pas plus que vous-même. Nous sommes tellement habitués à cet équilibre fin entre régularité et diversité, auquel nous devons la vie, que nous ne percevons pas à quel point il est exceptionnel. Le cosmologiste Lee Smolin y voit une propriété fondamentale : « Toute théorie suffisamment intéressante pour prétendre expliquer notre univers, doit se confronter au problème de la relation entre unité et variété. » D’où vient donc cette étrange caractéristique ? Il s’agit clairement d’un ajustement fin entre l’ordre et le chaos. Dans un monde chaotique, les étoiles seraient très différentes les unes des autres. Elles seraient perdues parmi toutes sortes d’astres trop variés pour être classés et décrits. Il n’y aurait peut-être pas d’astres du tout, mais des objets informes se faisant et se défaisant en permanence. Au contraire, dans un monde trop ordonné, tout se ressemblerait, rien n’évoluerait, rien n’interagirait. Reste toujours la question : pourquoi le nôtre est-il ainsi fait ? La réponse tient à la place importante du hasard dans la nature. Nous l’avons dit, elle s’organise à partir d’une poignée de lois physiques, de 7 particules et de 4 forces. Le reste relève des aléas. 439

Partie 5. Le futur de l’humanité et le sens de l’Univers

À la fin du chapitre 3, nous avions comparé le fonctionnement de l’Univers à celui d’une partie de tennis. Le jeu naît d’un règlement qui impose une symétrie entre les joueurs. Dès le départ, celle-ci est brisée par le tirage au sort du joueur devant servir. Après, chacun s’évertue par tous les moyens autorisés, à rompre la symétrie en sa faveur. Cette analogie dévoile l’essence profonde de l’Univers : des lois imposent des symétries et le hasard les brise. Depuis la seconde moitié du xxe siècle, nous savons que les lois physiques expriment essentiellement des symétries. Un bon exemple est la façon dont Einstein a eu l’idée de la relativité. Galilée avait énoncé le principe de relativité du mouvement : quand nous nous déplaçons en ligne droite sans accélération ni virage, si nous avons les yeux bandés, rien ne nous permet de savoir si nous sommes à l’arrêt, si nous avançons ou si nous reculons. Il avait illustré ce principe en évoquant un poisson rouge dans un bocal situé dans la chambre du capitaine d’un navire : cette créature n’avait aucun moyen de sentir si le bateau était à l’ancre ou bien s’il naviguait. Très jeune, à 25 ans, Einstein comprend que la relativité galiléenne est un principe fondamental. Il s’agit d’une symétrie : elle énonce que tout observateur en déplacement non accéléré, voit le monde de la même façon. Alors, il s’étonne qu’une telle loi ne s’applique pas à la lumière (aux ondes électromagnétiques pour être plus précis). Pour combler cette lacune, il reformule le principe de relativité en imposant que la lumière soit aussi perçue identiquement par des observateurs en mouvement relatif. Ceci l’oblige à changer les équations. Ainsi naît la relativité restreinte, de la généralisation d’une symétrie. De la même façon, la physique des particules repose exclusivement sur des symétries. Elles s’imposent sans aucune faille comme le règlement de la grande partie de tennis de l’Univers. Elles délimitent précisément le domaine du possible. Ensuite, qui joue cette partie ? Le hasard ! Il s’exprime lors des brisures de symétrie. Il anime à l’infini la combinatoire dont nous avons parlé. La naissance de chaque nouvel être est un tirage au sort. 440

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

À titre d’exemple, posons-nous la question : pourquoi la Terre existe ? Les lois de la nature n’ont jamais dit qu’il devait y avoir dans le Système solaire, une planète située là où nous sommes, à une certaine distance du Soleil, et propice à la vie. C’est le jeu des aléas qui, en respectant la loi de la gravitation, a fait apparaître 8 planètes, des grosses, des petites, des chaudes, des froides… dont la nôtre. C’est ce qui faisait dire à Lemaître à propos du cosmos : « Il ne s’agit pas du déroulement, du décodage d’un enregistrement ; il s’agit d’une chanson dont chaque note est nouvelle et imprévisible. Le monde se fait, et il se fait au hasard. » Ces considérations permettent d’expliquer la combinaison fertile de régularité et de variété qui caractérise l’Univers. Il évolue essentiellement par des aléas, sous la contrainte des lois de la physique. Son moteur est le hasard contraint. Donnons-en une analogie. Pour découvrir une ville, si vous décidez de la parcourir en voiture en flânant un peu partout, votre déplacement restera canalisé par les chaussées tracées, les sens uniques et les feux rouges. Les lois, ici l’urbanisme et le code de la route, imposent la régularité tandis que les aléas de votre promenade engendrent la variété : vous déciderez de traverser le quartier chinois, de voir les rues anciennes autour de la cathédrale ou tout simplement d’explorer la ville au hasard. De façon analogue, l’Univers est subtilement placé à la frange entre l’ordre et le chaos. L’ordre est imposé par les lois de la nature. Il est constamment rompu par le hasard dans des limites strictes. En disant que le rôle principal de l’évolution darwinienne n’était pas de fabriquer la complexité, mais plutôt la diversité, nous exprimions déjà cette loi très générale et vraie pour l’ensemble du cosmos. L’uniformité des espèces est garantie par les lois de la génétique : la préservation et la transmission de l’ADN. Par ailleurs, leur variété est due aux aléas des mutations. L’équilibre entre les deux est très précisément maintenu par la sélection : elle place les êtres vivants juste à la frange entre l’ordre (pas de changement, pas de spéciation) et le chaos (trop de variations, tout se dilue). 441

Partie 5. Le futur de l’humanité et le sens de l’Univers

L’EXTENSION EXTRÊME DE L’UNIVERS DANS L’ESPACE ET LE TEMPS C’est la dernière caractéristique majeure dans notre liste : sa grande taille et sa longévité. Pour commencer, une précaution de langage. Rappelons que petit ou grand ne signifie rien dans l’absolu, pas plus que jeune ou vieux. C’est la raison pour laquelle, en parlant de dimension ou de temps, nous indiquerons toujours relativement à quoi. Commençons par la taille de l’Univers. Pour éviter de parler d’une grandeur dans l’absolu, nous ferons simplement un rapport entre deux dimensions : la plus grande connue dans le cosmos et la plus petite. Nous ignorons jusqu’où s’étend l’Univers car l’horizon cosmologique vient obscurcir notre vision à partir d’une certaine distance. Néanmoins, nous pouvons nous référer à sa taille observable. Pour cela, il suffit de considérer l’éloignement de la « photo » du Big Bang, dont nous avons amplement parlé. L’émission de cette lumière fossile se situe à 13,4 milliards d’années-lumière de nous. Si nous convertissons cette distance en mètres, cela donne : Dimension la plus grande : 1026  mètres soit 1 000 000… 000 avec 26 zéros. Considérons maintenant, l’échelle la plus petite connue, la longueur de Planck : Dimension la plus petite : 10 – 35  mètre soit un mètre divisé par 1 000 000… 000 avec 35 zéros. Si nous faisons le rapport des deux, nous constatons que la taille du cosmos représente 1061 fois la longueur de Planck (1 000 000… 000 avec 61 zéros). C’est une façon objective de dire à quel point il est étendu. Un éventail aussi grand permet la multiplication des expériences de montée vers la complexité : ce qui ne fonctionne pas ici, marche peutêtre un peu plus loin ou à une échelle différente. Avec 100 milliards de galaxies, chacune incluant en moyenne 100 milliards d’étoiles, 442

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

l’Univers observable est à même de réaliser des myriades d’essais. Ainsi, l’immensité compense partiellement ces probabilités décroissantes qui limitent la montée vers la complexité. Des événements aussi improbables que l’apparition de la vie ou des êtres multicellulaires, deviennent possibles si la nature peut s’y essayer en de très nombreux endroits : à la loterie de la complexité, le nombre de tirages peut être gigantesque grâce à l’extrême extension de l’Univers. Avec un bémol cependant : la communication d’un astre à l’autre ne peut dépasser la vitesse de la lumière. Dès lors, les expériences réussies çà et là dans le cosmos, ont de grandes chances de rester déconnectées pour toujours. Parlons maintenant de la durée de vie de l’Univers. Pour que le monde s’organise, il faut du temps : sur Terre, 3,7 milliards d’années ont été nécessaires pour le développement de la vie jusqu’à l’Homme. Une caractéristique de l’Univers a permis cette évolution : sa longévité exceptionnelle. Le calcul déjà fait à propos des distances, s’applique identiquement aux durées. En effet, en relativité, l’espace et le temps sont liés : si nous divisons les distances par la vitesse de la lumière, nous obtenons les temps. Ainsi, la plus petite durée connue est le temps de Planck, associé à la longueur de Planck. Quant à la plus longue, c’est l’âge du rayonnement fossile, soit 13,4 milliards d’années, aussi associée à la plus grande distance visible. En faisant le rapport entre ces deux durées, nous retrouvons évidemment celui évoqué pour les distances : 1061. Ainsi exprimée, la longévité de l’Univers paraît encore plus extrême qu’en parlant en années. D’où provient cette si grande extension de l’espace et du temps ? Elle est liée à une autre propriété du cosmos : sa planéité, c’est-àdire son absence de courbure. Cette caractéristique vue au chapitre 7 (fig. 36) est très improbable : les chances pour qu’un univers soit ainsi ajusté sont de l’ordre du million de milliardième. Nous avions expliqué cette étrange coïncidence par l’épisode inflationnaire survenu au moment du Big Bang, qui avait dilaté considérablement le cosmos. Il avait ajusté sa densité sur une valeur critique très précise : celle qui lui garantissait la durée de vie maximum. 443

Partie 5. Le futur de l’humanité et le sens de l’Univers

En résumé, tout semble organisé pour que le jeu se prolonge le plus longtemps possible et s’étende le plus loin dans l’espace. L’UNIVERS EST TRÈS SINGULIER ET IMPROBABLE À travers l’histoire naturelle de l’Univers, nous venons de dégager cinq grandes propriétés, toutes très particulières : – Il est intelligible : il se ramène à des concepts simples et répétitifs. – Il est stratifié : par le mécanisme de Langton, à chaque échelle une strate en fait émerger une autre plus grande, obéissant à de nouvelles lois (l’Univers matriochka). – Il est fait pour fabriquer la complexité à partir de la simplicité et créer de l’information. – Il combine finement diversité et unité. – Enfin, il est très étendu dans l’espace et dans le temps. Ces propriétés nous paraissent évidentes tant nous sommes habitués à les voir s’illustrer inlassablement autour de nous, à tout instant. Pourtant, elles ne vont pas de soi. La physique nous permet d’imaginer d’autres univers en faisant varier les données de départ, telles que l’intensité des 4 forces, la masse des particules de matière, etc. En attribuant toutes sortes de valeurs à ces chiffres, que nous appellerons paramètres, nous simulons d’autres mondes. Ils sont hypothétiques et l’on peut aisément les manipuler, d’où leur qualificatif d’univers-jouets. En les étudiant, on se rend compte qu’ils sont tous très différents du nôtre. Aucun ne présente les caractéristiques singulières que nous avons détaillées, ce qui fait qu’ils ne pourraient pas porter la vie. Pire encore, on s’aperçoit qu’il suffit de modifier très légèrement le réglage d’un quelconque des paramètres de notre univers, pour que cela conduise à une version parfaitement stérile. À titre d’illustration, nous allons examiner l’effet produit si nous altérons successivement cinq d’entre eux, d’un petit pourcentage. Cet exercice a déjà été mené plus largement sur une centaine de paramètres, avec à chaque fois les mêmes conclusions. Commençons par une propriété élémentaire : notre univers possède 3 dimensions d’espace. D’autres mondes imaginaires pourraient en 444

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

présenter plus ou moins. Seraient-ils capables d’élaborer des structures complexes ? La réponse est non. Grâce aux mathématiques, on simule des univers à 2 ou bien 4 dimensions, voire plus. Ces exercices débouchent sur une conclusion sans appel. Seuls les espaces à 3 dimensions permettent aux astres d’avoir des orbites stables. Ce sont aussi les seuls permettant la propagation des ondes électromagnétiques d’une façon pure et sans réverbération. Parlons maintenant de l’intensité des 4 forces connues. Que se passerait-il si elles variaient en plus ou en moins ? Nous allons découvrir la très grande sensibilité de ces paramètres : s’ils étaient un tant soit peu modifiés, cela aurait des conséquences extrêmes et délétères. En premier, voyons la gravitation qui a agrégé la matière du cosmos en astres et en galaxies. Si elle était plus faible, les étoiles ne s’allumeraient pas, ou apparaîtraient en très petit nombre. À l’inverse, si elle était plus forte, elles se consumeraient trop vite et la vie n’aurait pas assez de temps pour se développer. Au sein des galaxies, les étoiles seraient plus proches les unes des autres et entreraient sans cesse en collision. L’Univers serait cataclysmique. Comment se présenteraient les choses si l’interaction nucléaire forte était moindre ? Il suffirait de 4 % de différence pour que les atomes se désintègrent spontanément. Les étoiles ne se formeraient pas ou bien brûleraient rapidement leur hydrogène et s’effondreraient en trous noirs. À l’opposé, si elle était, ne serait-ce que 10 % plus forte, les étoiles ne s’allumeraient pas. Elles resteraient à l’état d’astres gazeux froids comme Jupiter. Quid de l’interaction nucléaire faible ? Si elle était légèrement plus intense, les éléments lourds (oxygène, fer, etc.) ne se constitueraient pas. Si elle l’était un peu moins, les supernovas ne pourraient engendrer les atomes de poids supérieur au fer. Sur Terre, nous n’aurions que 30 % des 94 éléments connus. Finalement, la force électromagnétique régissant la chimie est particulièrement critique. Si son intensité était plus faible de 1 %, les substances seraient instables. Par exemple, en nous lavant les mains, nous 445

Partie 5. Le futur de l’humanité et le sens de l’Univers

verrions notre peau se dissoudre dans le savon. Au contraire, si elle était plus forte de 1 %, les molécules seraient trop stables. La délicate chimie des protéines ne se développerait pas. Le monde serait resté minéral et très pauvre chimiquement. De tout ceci découle l’idée que notre univers est en soi très improbable et qu’il résulte d’un ajustement étonnamment fin. En combinant tous les paramètres ci-dessus et bien d’autres, on a réussi à mesurer la probabilité pour qu’un monde puisse être aussi finement réglé. En voici un exemple très signifiant. Sachant l’importance que revêtent les étoiles pour le développement de la vie, le cosmologiste Lee Smolin a évalué la probabilité pour qu’un univers imaginaire en produise et pour qu’elles durent plusieurs milliards d’années, condition nécessaire à l’éclosion d’une vie complexe. Il est parvenu au résultat étonnant d’une chance sur 10229 (1/1 000… avec plus de 200 zéros). Sans aucun doute, l’Univers est très précisément ajusté. Pourquoi ? Cette question que l’on ne peut éluder, a débouché sur le principe anthropique que nous allons détailler. Il a fait couler beaucoup d’encre et le fera certainement longtemps car il se situe à la limite de la métaphysique. Il soulève des critiques souvent vives car chacun l’aborde avec ses propres croyances religieuses. L’objectivité devient difficile à garantir. LE PRINCIPE ANTHROPIQUE Il part d’une constatation : pour arriver à l’Homme, l’Univers doit réunir un grand nombre d’exigences. Il doit être stable sur une très longue durée. Il doit former des étoiles vivant elles-mêmes plusieurs milliards d’années. La surface d’une planète portant la vie doit se trouver précisément à la température de l’eau liquide, etc. L’idée du principe anthropique consiste à dire que toutes ces contraintes s’imposent au cosmos car s’il ne les respectait pas, nous ne serions pas là pour en parler. Ainsi, notre seule présence comme observateur est en soi un enseignement : certaines propriétés permettent notre existence et sont donc licites, d’autres non. Dans les années 1970, le 446

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

cosmologiste Brandon Carter formule cette idée en deux versions : la faible et la forte. Le principe anthropique faible se limite à dire : « Ce que nous pouvons nous attendre à observer dans l’Univers, doit être compatible avec les conditions nécessaires à notre présence en tant qu’observateurs. » Ainsi, le scientifique ne peut émettre que des thèses conciliables avec notre existence. À titre d’illustration, imaginons un chercheur qui évaluerait combien il peut y avoir de trous noirs dans le cosmos. Supposons que ses calculs le mènent à un nombre élevé, impliquant qu’il y ait eu des cataclysmes fréquents par le passé autour du Système solaire, ou encore que l’Univers se soit effondré dans d’immenses trous noirs en quelques centaines de millions d’années. Au titre du principe anthropique faible, nous rejetterions ce résultat car s’il était vrai, l’humanité n’existerait pas ! Le principe anthropique faible se résume donc à un simple moyen d’écarter scientifiquement certaines thèses ou bien de leur imposer des bornes. Bien qu’il ait quelque peu aidé à clarifier la relation entre l’Homme et l’Univers, et qu’il ait même contribué à certaines découvertes, ce principe est souvent raillé pour être une lapalissade. En termes savants : une tautologie. Plus intéressante mais aussi plus controversée, la version forte du principe anthropique, dit selon Carter : « L’Univers (et par conséquent, les paramètres fondamentaux sur lesquels il repose) doit être tel qu’il permette la création d’observateurs à un certain stade. » L’important est le mot doit qui exprime une nécessité. Si nous lui donnons le sens d’une intention, nous entrons dans l’interprétation religieuse : un être supérieur a imposé les caractéristiques de l’Univers pour que nous existions. Si au contraire, nous n’y voyons qu’un simple fait, cela mérite pour le moins une clarification : 447

Partie 5. Le futur de l’humanité et le sens de l’Univers

pouvons-nous imaginer que l’Univers se soit ainsi fait par génération spontanée ? D’où proviennent les propriétés si singulières que nous observons ? Cette version forte du principe anthropique nous place donc clairement à la marge d’une autre terra incognita : celle de la métaphysique. Le terme est dû à Aristote, qui distinguait : – la physica ou la nature du monde comme nous le percevons ; – la metaphysica, littéralement ce qui vient après la physique, c’est‑àdire les vérités sous-jacentes responsables de notre perception des choses. L’un des intérêts des sciences les plus avancées aujourd’hui, et principalement de la cosmologie, est de flirter sans cesse avec la métaphysique. Rien d’étonnant à cela puisque le scientifique recherche systématiquement les causes des phénomènes. En remontant toujours des causes vers leurs propres causes, il parvient finalement aux causes premières et inévitablement à la métaphysique. La question ultime posée par cet univers si singulier, est donc celle de ses origines. Pourquoi était-il ainsi configuré dès sa naissance ? Comment de telles lois de la nature ont-elles pu exister en germe dans la bulle d’énergie primordiale, un peu comme l’ADN de chaque être humain était inclus dans l’ovule fécondé provenant de ses parents ? Si aujourd’hui l’Univers nous paraît si finement ajusté et donc infiniment improbable, il l’était déjà dans son état premier. Ce fait extraordinaire est hors de portée de la science car il faudrait en chercher les causes dans le Big Bang, avant le mur de Planck. Il est mystérieux et le restera peut-être à tout jamais. Ces considérations ont mené Reeves à formuler le principe anthropique fort, d’une façon qui me semble particulièrement signifiante pour être en pleine cohérence avec l’histoire naturelle que nous avons présentée : « L’Univers possède depuis les temps les plus reculés accessibles à notre exploration, les propriétés requises pour amener la matière à gravir les échelons de la complexité. » 448

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

Cette formulation pose clairement la question des causes premières : pourquoi dès sa naissance, était-il doté de caractéristiques si singulières et improbables ? Le principe anthropique a soulevé beaucoup de discussions sur ce thème, sans que la science puisse trancher entre elles. Il en va de même de l’évolution darwiniste, toujours décriée par certains et promue au rang de dogme par d’autres. Une partie des scientifiques voit en ces principes, la main d’une puissance supérieure. Pour d’autres, mettre Dieu à contribution quand nous ne comprenons pas, est une réponse simpliste. Les explications trouvées par les non-croyants sont souvent critiquables par leur tendance réductionniste. L’Homme s’explique par la biologie, celle-ci par la chimie, celle-ci par la physique et cette dernière par les mathématiques. C’est vrai, mais nous ne sommes pas plus avancés après l’avoir dit ! Dans la même veine, Steven Weinberg à qui nous devons la description des trois premières minutes de l’Univers, disait que « la flèche des explications pointe vers le bas ». En d’autres termes, plus nous cherchons à expliquer, plus nous nous rapprochons du niveau élémentaire des particules. Poussée à l’extrême, cette conception l’a amené à conclure : « Plus l’Univers nous paraît compréhensible, plus il nous paraît dénué de sens. » Cette vision est bien sûr totalement opposée à la pensée religieuse qui voit plutôt la flèche de l’explication pointer vers le haut. Le pape Jean-Paul II écrivait25 : « Les savants sont bien conscients que la recherche de la vérité, même lorsqu’elle concerne une réalité finie du monde ou d’un homme, est sans fin, mais pointe toujours vers quelque chose de plus élevé que l’objet étudié, vers les questions donnant accès au Mystère. » À l’approche des causes premières, nous sommes donc témoins d’un schisme croissant entre science et religion. Les scientifiques euxmêmes se divisent selon leur sensibilité propre relativement au divin. Parfois malheureusement, ces débats fondamentaux sont menés sans 25. Encyclique Fides et Ratio, 1998. 449

Partie 5. Le futur de l’humanité et le sens de l’Univers

sérénité, ce qu’Einstein commentait ainsi : « Pour moi, la bigoterie des non-croyants est presque aussi drôle que celle des croyants. » Nous aborderons deux thèses suggérées par le principe anthropique, l’une religieuse, l’autre athée, dans un esprit qui se veut objectif. En premier lieu, il s’agit de respecter toutes les opinions ou croyances, dans un domaine où la science ne peut rien prouver. Par ailleurs, dans chacune des deux voies nous découvrirons de sévères limites : elles s’imposent si nous voulons rester fidèles à notre vision de l’histoire naturelle. Concernant nos origines, nous sommes confrontés à deux approches opposées qui peuvent se résumer simplement. Si nous prenons le principe anthropique fort dans le sens de l’intention, nous énonçons que la cause première est Dieu, le Créateur. Nous commencerons par cette option. Si au contraire, nous rejetons l’idée d’intention, alors nous devons admettre qu’il n’existe pas de cause première, mais peut-être des causes naturelles. Nous verrons qu’en penser. LA CONCEPTION DIVINE DE L’UNIVERS EST CONTRAINTE PAR L’HISTOIRE NATURELLE Les différentes allusions au divin faites au cours de notre parcours historique, peuvent se résumer ainsi : selon toute vraisemblance, l’évolution menant du Big Bang à l’Homme s’est déroulée sans intervention d’une puissance supérieure. Les seuls acteurs sont les lois physiques et le hasard. Nous avons décrit un processus de montée vers la complexité relevant essentiellement de l’émergence. Il s’appuie sur des recettes se répétant inlassablement depuis les étoiles jusqu’au cerveau humain. Cette affirmation comporte deux zones d’ombre, et pas des moindres : l’apparition de la vie et celle de la conscience. Nous avons présenté des idées pour expliquer ces deux transitions d’une manière naturelle, tout en précisant qu’elles ne reposaient sur aucune preuve, seulement sur des simulations ou des extrapolations. Sur ces deux 450

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

points d’interrogation, l’intervention divine reste donc une thèse tout à fait défendable. Néanmoins, je crains fort que là aussi, les sciences n’imposent une vue différente avant longtemps. Si demain, une sonde découvre une forme de vie élémentaire sur une autre planète, cela écornera sérieusement la thèse selon laquelle Dieu a établi la vie sur Terre pour y faire émerger l’Homme. De même, les progrès très rapides des neurosciences et de l’intelligence artificielle ne devraient pas tarder à malmener la thèse de la conscience infusée par le Seigneur chez Homo sapiens. Envisager une intervention divine dans le cours de l’histoire depuis le Big Bang, me semble donc être une fausse piste. Malheureusement, cela s’ajouterait à une longue série de contradictions passées entre science et religions. Si nous jetons un coup d’œil rétrospectif sur notre civilisation, que voyons-nous ? La science impose en permanence des reculades aux dogmes religieux, dès qu’il s’agit d’expliquer l’évolution naturelle. Cette situation me paraît nuire gravement au spirituel et à l’Église. Depuis Giordano Bruno, brûlé pour avoir envisagé l’existence d’autres mondes (on dirait aujourd’hui, d’autres galaxies), c’est une série noire. Le chanoine Copernic a publié très tardivement ses écrits sur le système héliocentrique, de peur des réactions de l’Église. Reprenant ses thèses de façon un peu trop tonitruante, Galilée aurait subi le sort de G. Bruno s’il n’avait été proche du pape. Plus tard, Darwin a provoqué un nouveau désaveu cinglant : il a fallu plus d’un siècle après la sortie de L’Évolution des espèces, pour qu’en 1962 et 1965, le concile Vatican II énonce que cette théorie était compatible avec le dogme catholique. Observant toute cette histoire, je prédis les deux prochaines reculades : l’une en découvrant la vie sur un astre du Système solaire, l’autre en élucidant ce qu’est la conscience. Je trouve dommage que la religion s’épuise à ce genre de combat perdu d’avance. Or il y a moyen de la réconcilier avec les sciences. Comme il existe différentes conceptions de l’être supérieur, je suggère simplement de retenir celles qui sont compatibles avec les enseignements de l’histoire naturelle. 451

Partie 5. Le futur de l’humanité et le sens de l’Univers

On distingue généralement deux conceptions du Seigneur. La première, dite théiste, se réfère à un Dieu transcendant. Selon elle, tout ce qui n’a pas été créé par l’Homme, l’a été par lui. Dans cette optique, il évolue dans un univers distinct, mais il a la capacité d’intervenir en tout dans l’existence, y compris de s’ingérer dans les affaires humaines. Il produit des miracles. Il fait surgir la vie depuis le minéral ou encore la conscience dans le cerveau de l’Australopithèque. Bien sûr, cette manière de voir les choses se place inévitablement en porteà-faux vis-à-vis des avancées scientifiques. La seconde, ou déisme, est une vue plus large, selon laquelle Dieu intervient pour la Création, fixe les règles du jeu, puis laisse se dérouler les événements. Elle est clairement compatible avec les découvertes scientifiques. Nous la retrouvons chez les deux plus grands savants de tous les temps, Newton et Einstein, pour qui les lois de la physique, d’origine divine, régissent l’existant. Le second se plaisait à dire : « Je veux savoir comment Dieu a créé ce monde. Je ne m’intéresse pas à tel ou tel phénomène. Je veux connaître ses pensées, le reste n’est que détails. » Il disait aussi : « Je crois au Dieu de Spinoza qui se révèle dans l’harmonie de tout ce qui existe et non en un Dieu qui se préoccuperait du destin et des actes des êtres humains. » Nous parlons alors, d’un Dieu immanent dont le principe réside en lui-même. Pénétrant tout, il est consubstantiel de l’existant. Le divin est tout entier dans l’Univers. Il ne lui est ni extérieur, ni supérieur. À l’inverse du Dieu transcendant, il est séparé des choses tout en étant présent en elles. Il se manifeste à travers ce qu’est le monde, mais non par une quelconque intervention après la Création. Le biochimiste et théologien Arthur Peacocke conçoit l’Univers dans un esprit proche de celui présenté dans cet ouvrage, c’est-à-dire infiniment stratifié à toutes les échelles par les processus de l’émergence (au sens de Langton). Déiste, il ne voit pas d’intervention divine dans cette création continuelle. Il comprend plutôt l’évolution comme étant le résultat des règles fixées par le Seigneur. Il donne une 452

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

analogie intéressante pour illustrer l’idée d’immanence. J’écoute, très concentré, une sonate de Beethoven. Je suis dans la musique. À un moment, je suis interrompu par une personne qui vient me demander où est Beethoven ? Je réponds qu’il n’est plus des nôtres. Pourtant, dans mon interaction avec sa musique, il était tout à fait là, car c’est bien lui que j’écoutais. Dans ce sens, nous pouvons admettre que si Dieu n’a pas d’influence immédiate sur les événements observés par le scientifique, il est continuellement présent derrière ce concert, pour en être le Créateur. Parmi les champions des nouvelles disciplines de la complexité et de l’émergence, Kauffman exprime des idées religieuses similaires. Relevant du même esprit, la conception du chanoine Lemaître est intéressante par son radicalisme. Nous avons vu qu’en inventant l’atome primitif, il renonce à y voir la Création. Il la situe bien en amont, dans la terra incognita de la métaphysique et il relègue le Big Bang au rang d’un banal événement matériel, comme l’est une supernova ou un simple orage. Il aura l’occasion de s’en expliquer avec le pape Pie XII. Dans une position nettement discordiste, il établit une distinction franche entre la science et le sacré. Pour Lemaître, les deux recherchent la vérité en escaladant la montagne de la connaissance par des versants différents. Leurs chemins ne se croisent pas. Ici, faut-il le préciser, nous parlons de la religion sous un angle restreint : celui de l’explication de l’Univers, là où elle se confronte à la science. Cependant, elle couvre un champ bien plus vaste : la foi et l’intimité avec Dieu, la substance de l’âme et sa survie après la mort, l’amour du prochain, les valeurs aidant à se comporter dans la société et bien d’autres choses. En sa qualité d’ecclésiastique, Lemaître vivait toutes ces dimensions intensément sans y voir de conflit avec ses équations. En tant que savant, il développait la connaissance sur un plan qu’il considérait disjoint. En cela, sa position est particulièrement intéressante. Nous pouvons attribuer son discordisme radical à son statut singulier de prêtre et de savant, qui l’exposait aux critiques 453

Partie 5. Le futur de l’humanité et le sens de l’Univers

de l’Église comme à celles de la communauté scientifique. Nous ne saurions lui reprocher ses vues car malgré ses mises au point souvent vigoureuses, il a été injustement accusé d’avoir cherché à introduire la Création divine dans les sciences. Dans la conception déiste, la réconciliation entre science et religion peut aller loin selon le philosophe Dominique Lambert26. À titre d’exemple, nous avons souligné que certaines transitions, telles l’apparition des êtres multicellulaires ou l’émergence d’Homo, avaient mis des temps extrêmement longs à se réaliser. Nous avons présenté ces longueurs comme un argument pour exclure le coup de pouce divin. Si l’on considère que le rôle du Seigneur se limite à créer les conditions et les processus idoines, alors il n’y a plus lieu de s’étonner de telles durées. Une fois le monde initié, le Créateur aurait simplement attendu le temps nécessaire pour que les causes naturelles aboutissent au résultat escompté : la vie, l’être multicellulaire, l’Homme. Quand enfin la créature pensante est arrivée, elle se serait spontanément rapprochée de lui. Tout ceci est compatible avec la science. De même, le processus ayant développé la vie par la sélection darwinienne, n’est plus une contradiction pour le croyant. Dieu immanent n’y intervient pas en tant que cause naturelle, mais simplement comme la cause première, située très en amont. Pour finir, Lambert trouve légitime que la science ne voie aucune finalité à travers l’évolution, d’un point de vue physique. En revanche, cela n’exclut pas qu’une finalité puisse exister au niveau métaphysique, une idée que la science n’a aucune raison d’invalider. Ainsi, le déisme réconcilie harmonieusement la religion et la science. Cependant, c’est une conception qui reste difficilement acceptable pour beaucoup de croyants, car elle offre l’image d’un Dieu lointain et distant des préoccupations quotidiennes de ses fidèles. Voilà pourquoi j’ai tenu à souligner que la thèse divine me paraissait contrainte par l’histoire naturelle. 26.  Sciences et théologie. Dominique Lambert. 1999. 454

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

LA CONCEPTION ATHÉE DE L’UNIVERS EST, ELLE AUSSI, CONTRAINTE Revenons maintenant au principe anthropique fort, tel que Reeves l’a formulé : dès le Big Bang, l’Univers disposait des propriétés requises pour développer la complexité. Comment expliquer cela sans faire appel au divin ? Nous allons voir que la pensée athée peut s’affranchir de la cause première (Dieu) et s’appuyer sur des causes naturelles, là aussi sous certaines conditions. Dans les années 1970, quand le principe anthropique commençait à voir le jour, une thèse rejetant toute puissance supérieure, gagnait en popularité dans la communauté scientifique : la cause première de l’Univers se résumerait au hasard. Le monde serait né d’un seul coup de dés particulièrement heureux. À cette époque, l’aléatoire pénétrait de plus en plus les sciences. L’essence probabiliste de la mécanique quantique tant contestée par Einstein, s’était imposée : « Dieu joue effectivement aux dés ! » pouvait-on dire. Le rôle du hasard dans l’évolution, imaginé par Darwin, était aussi solidement confirmé par la génétique. Enfin, la physique classique déterministe donnait naissance à un bébé non désiré, la théorie du chaos. Celle-ci montrait que nombre de systèmes, pourtant décrits par les théories classiques, échappaient irrémédiablement à toute prédiction au-delà d’un temps court. La météo en est un bon exemple. Dans ce contexte historique, le prix Nobel Jacques Monod attribua notre existence à un pur aléa : « L’Univers n’était pas gros de la vie, ni la biosphère, de l’Homme. Notre numéro est sorti au jeu de Monte-Carlo. Quoi d’étonnant à ce que, tel celui qui vient d’y gagner un milliard, nous éprouvions l’étrangeté de notre condition ? »27. Le hasard devenait alors la cause première, l’alternative à la Création. Cette thèse est ensuite devenue difficilement soutenable. On a commencé à découvrir l’ajustement fin des paramètres de l’Univers, une propriété amplement étudiée et quantifiée par la suite. Son extrême improbabilité s’est révélée de plus en plus criante. 27.  Le hasard et la nécessité. Jacques Monod. 1970. 455

Partie 5. Le futur de l’humanité et le sens de l’Univers

Parallèlement, on travaillait sur la thermodynamique du cosmos et en particulier sur son entropie (voir la fin du chapitre 6). On a compris qu’à ses débuts, il était doté d’une entropie exceptionnellement faible, signifiant un haut degré d’organisation et un état très fortement improbable. Les quelques décennies passées ont aussi vu se développer la simulation de mondes hypothétiques, les univers-jouets dont nous avons parlé. Ces exercices ont confirmé sans équivoque, l’improbabilité extrême de notre monde parmi toutes les variantes testées : toutes ces alternatives connaissaient une courte durée de vie ou bien étaient chaotiques. Dans tous les cas de figure, elles étaient stériles. Ainsi devenait-il difficile d’accepter la thèse de Monod, celle d’un univers existant de lui-même et disposant par le fait du hasard, de propriétés si finement ajustées. À ce moment de l’histoire, la pensée athée qui refuse de voir en Dieu la cause première, se trouve obligée d’écarter aussi cette idée d’une « création coup de chance ». Alors, d’où vient l’Univers ? Un moyen pour sortir de cette impasse est d’élargir le point de vue et de poser une question très fondamentale : la création à partir de quoi ? La thèse divine suppose que le Créateur ait fait surgir le monde du néant. L’idée est intuitive car chacun d’entre nous sait bien qu’il n’existait pas avant de naître : nous ressentons donc notre propre personne comme issue du néant. Pourtant, si nous raisonnons au niveau de l’Univers, c’est-à-dire du tout, nous pouvons mettre en doute l’existence-même de ce néant. Dans son poème De la nature, Parménide écrit : « L’être est, le non-être n’est pas ». Si l’idée qu’une chose existe est évidente, celle du néant l’est beaucoup moins : ne serait-elle pas une simple vue de l’esprit, une invention humaine ? L’Univers pourrait ne pas provenir du néant, mais plutôt d’un tout encore plus grand qui nous serait invisible : un méta-univers. À une telle échelle dépassant largement celle du cosmos, la nature pourrait être chaotique. Les notions familières de temps et de distance n’y siégeraient pas ou bien seraient confuses ou multiples. Le temps existerait peut-être ici et là, localement, de façon fugitive et sous des 456

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

formes distinctes. En revanche, il n’y aurait aucun temps global. Dans un tel cas, il serait inutile de se demander quand est né le monde, ni d’où il vient, ces interrogations ayant perdu leur sens. La question de l’origine du méta-univers lui-même, serait aussi dénuée de sens : il se contenterait d’être là, sans que l’on puisse parler d’un début ou d’une fin. Si dans cette hypothèse, le néant n’a jamais existé, il n’y a pas eu de Création et rechercher une cause première ne mène à rien. En revanche, des causes naturelles auraient fait émerger notre monde de ce méta-univers chaotique. Il serait une partie de ce tout qui nous est inaccessible au stade actuel de la science et peut-être pour toujours. Il en serait issu selon une transition naturelle comme se plaisait à dire Lemaître à propos de son atome primitif : une transition d’un état chaotique vers un autre, organisé. Nous allons voir que cette idée s’inscrit harmonieusement dans l’histoire cosmique ponctuée de nombreux phénomènes d’émergence spontanée. Si le méta-univers a créé notre monde par une transition naturelle, on peut imaginer qu’il en ait engendré beaucoup d’autres, peut-être une infinité. Des milliards d’autres Big Bangs auraient produit autant d’univers distincts du nôtre. Si tel est le cas, il ne faut pas s’étonner que l’un d’entre eux soit doté de particularités très improbables. Lorsque vous entrez dans une boutique acheter des chaussures, êtesvous surpris d’y trouver votre taille ? Cette heureuse coïncidence n’en est pas une : elle s’explique simplement par le fait que toutes les dimensions sont en stock, dont celle qui vous va. Nous retrouvons ici l’idée du tirage gagnant de Monod, toutefois d’une façon plus crédible : le hasard ne fabrique rien à partir du néant, mais il peut très bien justifier l’existence d’un univers aussi singulier que le nôtre, s’il en est une infinité d’autres, tous différents. Cette idée est en parfaite harmonie avec toute l’histoire décrite dans ce livre : des milliards de milliards d’étoiles sont autant de jeux au grand casino de la nature, des myriades de bactéries ont tenté leurs chances inlassablement pendant 3,7 milliards d’années sur Terre, 457

Partie 5. Le futur de l’humanité et le sens de l’Univers

des milliards d’hommes expérimentent chaque jour de nouvelles idées, etc. Le cosmos ainsi que le domaine du vivant fonctionnent à l’image d’une immense loterie offrant à tout instant une infinie variété de lots sans cesse renouvelés. De même, des myriades de Big Bangs ont pu fabriquer toutes sortes de mondes distincts. Si tel est le cas, le principe anthropique faible, souvent qualifié de lapalissade, prend un sens bien plus profond : il ne faut pas s’étonner de la singularité de notre univers, puisqu’au sein d’une infinité d’autres mondes, nous ne pouvions éclore que dans celui qui présentait les caractéristiques idoines. Nous avons tout simplement touché le gros lot, parmi des milliards de lots invisibles. Cet ensemble de mondes multiples, dont un seul nous serait connu, est généralement appelé le multivers. L’IDÉE DU MULTIVERS Elle n’est pas née un beau matin dans l’esprit de quelque philosophe. Elle est apparue discrètement et sous des formes distinctes dans plusieurs théories scientifiques récentes. Nous allons en citer trois, en précisant qu’elles sont toutes de nature spéculative : aucune n’est vérifiée expérimentalement à ce jour. Elles se situent clairement dans les terras incognitas et ne peuvent prétendre infirmer la thèse divine. La première est la théorie des mondes multiples d’Hugh Everett. Nous avons dit qu’au niveau quantique, une particule n’a jamais un état bien déterminé, par exemple, une position exacte. Elle se trouve en plusieurs endroits simultanément. Que se passe-t-il si néanmoins, nous voulons la localiser en utilisant un détecteur ? Au moment précis où la mesure est effectuée, la particule « adopte » l’une des possibilités entre toutes. Nous observons ainsi une position au sens classique du terme, mais nous aurions pu aussi bien en obtenir une autre car c’est le hasard qui a provoqué ce résultat. La mécanique quantique permet néanmoins de prévoir les probabilités de présence à tel ou tel endroit. À juste titre, Bohr défendait cet état de fait contre les attaques 458

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

permanentes d’Einstein. La réalité essentiellement probabiliste des particules est désormais amplement prouvée. Cependant, elle a soulevé une question fondamentale : comment la particule « choisitelle » parmi tous les états possibles ? Cette énigme, appelée problème de la mesure, a trouvé une réponse inattendue en 1956, quand Hugh Everett a proposé une explication on ne peut plus étrange. Selon lui, si la théorie prévoit deux états pour une particule, par exemple apparaître à droite ou à gauche, cette dernière ne « choisit » pas entre les deux comme le prétendait Bohr : les deux éventualités se matérialisent en parallèle dans deux mondes distincts. Ainsi, le fait de mesurer la position d’une particule engendre deux univers, là où il y en avait un seul auparavant. Si au laboratoire, nous constatons que la particule est à gauche, cela signifie simplement que, parmi les deux mondes créés, nous nous trouvons dans celui où la particule apparaît de ce côté-là. Une réplique de nous-mêmes et du laboratoire existe dans un autre univers où la particule est observée à droite. Nous imaginons difficilement le nombre d’univers différents qui naissent ainsi chaque fois qu’une particule est mesurée ou bien interagit avec un corps quelconque. Aussi extravagante qu’elle paraisse, cette théorie a connu un réel succès car elle contourne l’énigme du « choix », tout en étant parfaitement rigoureuse sur le plan formel. La mécanique quantique est tellement contre-intuitive, que l’on est prêt à tout ! Plus tard, une théorie déjà évoquée dans ce chapitre, dite de la décohérence, a éclairé le phénomène de la mesure sous un jour nouveau, de sorte qu’aujourd’hui, l’hypothèse des mondes multiples a perdu de sa popularité. L’important pour notre propos est qu’avec Everett, l’idée du multivers était née. La théorie des cordes est la deuxième ayant introduit la notion d’univers multiples. Elle était très prometteuse parce qu’elle pouvait unifier les deux physiques, quantique et relativiste. Elle attribuait à l’Univers 6 dimensions d’espace supplémentaires invisibles, en plus des 4 de l’espace-temps. Hawking commentait ainsi cette thèse : « Dix dimensions, cela peut paraître excitant, mais c’est également 459

Partie 5. Le futur de l’humanité et le sens de l’Univers

une source potentielle de réels problèmes si vous oubliez où vous avez garé votre voiture. » Les six dimensions supplémentaires étaient repliées sur ellesmêmes à une taille microscopique, de la longueur de Planck, ce qui les rendait parfaitement imperceptibles. Malgré cela, ces dimensions étaient essentielles car les supposées cordes étaient suffisamment petites pour s’y mouvoir. La théorie des cordes est aujourd’hui dans une impasse, pour s’être enlisée dans la complexité mathématique, mais aussi pour une autre raison. Ces six dimensions supplémentaires doivent être spécifiées par différents paramètres, ce qui crée une myriade de possibilités. Ainsi, la théorie décrit un très grand nombre d’univers possibles, sans expliquer ce qu’est le nôtre parmi cette multitude, ni pourquoi il est comme il est. En se livrant à cette réflexion dans la première moitié des années 1990, les chercheurs se sont trouvés confrontés à pas moins de 10500 possibilités de mondes différents (1 000… avec 500 zéros). Cette indétermination n’a pas été résolue et la théorie en a sérieusement pâti : elle prévoyait à la fois tout et rien ! À défaut d’avoir exaucé les rêves d’unification des physiciens, elle aura suggéré qu’il pût exister une quasi-infinité d’univers, tous fondés sur des lois physiques et des paramètres différents. Le nôtre ne serait qu’un parmi beaucoup d’autres, tous dotés de règles et de propriétés distinctes. Il serait l’un des seuls à posséder les caractéristiques adaptées à la vie et à la conscience. La théorie des cordes n’étant en rien démontrée, loin s’en faut, il ne faut y voir aucune vérité établie, simplement la suggestion que de multiples univers différents puissent exister. Enfin, avec une troisième théorie, l’idée du multivers fait une entrée brillante dans la cosmologie des années 1980. Elle trouve son origine dans la notion d’inflation vue au début du chapitre 3. À l’issue du Big Bang, l’Univers a connu une expansion fulgurante : la bulle d’énergie initiale s’est dilatée à une vitesse dépassant de loin celle de la lumière, sous l’action d’un champ répulsif. Ce mécanisme, décrit par Guth de manière claire, est repris ensuite par Alex Vilenkin et Andreï 460

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

Linde. Au lieu d’y voir un acte isolé ayant mené à notre univers, ils imaginent que le même scénario se déroule une multitude de fois à l’infini, avec à la clé, la naissance d’autant de nouveaux mondes. Cela surviendrait incessamment au sein d’un méta-univers, lui-même en inflation éternelle. Comme dans un verre de champagne, il s’y créerait de nombreuses bulles de faux vide, telle celle qui a été le point de départ de notre propre univers. De cette façon, des myriades de Big Bangs s’y produiraient constamment. Beaucoup d’entre eux connaîtraient à leur tour une expansion inflationnaire. Ils se déconnecteraient définitivement des autres. Les amarres larguées, ils suivraient un destin autonome à la manière du nôtre. De nature chaotique, le méta-univers engendrerait ainsi une mousse de nouveaux mondes tous différents : l’un doté de 4 dimensions d’espace-temps, l’autre de 8, l’un présentant 4 forces, l’autre 2 seulement, etc. Nombre d’entre eux avorteraient très vite, tandis que d’autres prendraient une grande extension. Le nôtre trouverait son origine dans une de ces bulles provenant d’un minuscule échantillon du méta-univers chaotique. Connaissant une inflation plus rapide que la vitesse de la lumière, il se serait déconnecté irrémédiablement du méta-univers et de tous les autres univers frères. Ayant perdu tout contact avec la famille dont nous sommes issus, nous penserions que notre monde est unique alors qu’il serait un, parmi une infinité. Cette théorie est tout aussi spéculative que les deux précédentes. Cependant, nous pouvons lui accorder un crédit plus important car elle repose sur le mécanisme essentiel et bien connu de l’inflation, que Guth avait décrit. Elle en est une généralisation. L’inflation étant à l’origine de notre Univers, il est assez naturel d’imaginer qu’elle se produise indéfiniment en une multitude d’autres endroits. QUE NOUS ENSEIGNE LE MULTIVERS ? Sur un plan philosophique, l’idée est très intéressante. D’abord, elle fait naître chaque nouveau monde d’une petite parcelle du méta-univers. Ce dernier est d’essence chaotique, un peu comme un 461

Partie 5. Le futur de l’humanité et le sens de l’Univers

océan constamment secoué par les vagues et formant de la mousse. Cependant le petit échantillon prélevé peut être largement plus simple que son entourage. Sujette à une inflation rapide, cette minuscule bulle pourrait ainsi perdre son caractère chaotique et engendrer ce que nous connaissons : un univers stable, doté de structures bien définies et susceptible de monter en complexité. Je vois une seconde raison pour laquelle l’idée est profonde : en décrivant l’Univers, nous avons beaucoup insisté sur le rôle essentiel de l’expansion dans le processus d’organisation. En généralisant, nous pouvons dire que l’existence de toute chose, repose inévitablement sur l’expansion ou sa version accélérée, l’inflation. Au lieu de penser qu’un néant nous a précédés, Vilenkin et Linde nous invitent à imaginer un tout permanent, infini et chaotique : « Dans un univers en inflation éternelle, tout ce qui peut arriver arrive ; en fait cela arrive un nombre infini de fois ». Dans ce sens, l’athée recherchant les causes de notre monde pourrait dire : – Pour commencer, le néant n’existe pas. Inutile de chercher une création pas plus qu’une cause première. – Il existe un méta-univers éternel, en inflation permanente, dans lequel tout peut émerger sous forme chaotique. Le temps lui-même y est indéfinissable. – Il s’y crée sans cesse de nouveaux mondes à l’infini, chacun doté de son propre espace-temps et de caractéristiques différentes sélectionnées par le hasard. – Parmi eux, ceux qui comme le nôtre, connaissent une inflation rapide dépassant la vitesse de la lumière, se déconnectent et suivent leur propre destin. C’est pourquoi nous ne voyons rien du métaunivers dont nous provenons. – La plupart avortent, soit en restant chaotiques, soit en se figeant dans un ordre stérile. – Seuls quelques-uns sont finement ajustés entre l’ordre et le chaos. C’est le cas du nôtre. 462

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

Ainsi, la cause de notre univers ne serait pas première (au sens du Créateur), mais naturelle (provenant d’un autre état physique) : il trouverait simplement son origine dans une fluctuation du métaunivers chaotique, fluctuation qui aurait enflé démesurément. Cette idée expliquerait les caractéristiques très singulières que nous observons. Nous nous étonnions qu’elles soient déjà inscrites dans la bulle d’énergie primordiale. Si cette dernière est un petit échantillon de l’océan chaotique, c’est probablement de ce prélèvement qu’elle tiendrait ses particularités : il s’agirait d’un tirage heureux. Sans reposer sur une quelconque preuve formelle, ce schéma est néanmoins séduisant. Les propriétés très improbables dont nous nous étonnions, paraissent maintenant plus naturelles : – L’Univers est intelligible, car il repose sur quelques propriétés très simples, échantillonnées dans la fournaise du méta-univers. – Il est stratifié et fait pour fabriquer la complexité : le petit nombre de lois et de particules sélectionné serait propice à enclencher une combinatoire élaborée. –  Il marie la diversité et l’unité, simplement parce qu’il serait un choix gagnant, au sens finement ajusté entre l’ordre et le chaos. Selon le principe anthropique faible, nous aurions éclos dans celui qui réunissait les bonnes conditions : nous habiterions une île jouissant d’un bon climat parmi de nombreuses autres peu hospitalières ! – Il est très étendu dans l’espace et le temps, en raison du mécanisme de l’inflation. En disant que la thèse athée est contrainte, j’entends que nier la Création divine oblige à envisager le multivers comme seule alternative crédible. L’UNIVERS A-T-IL UN SENS ? Entre les deux scénarios, religieux ou athée, chacun suivra ses propres convictions. Dans le domaine des croyances ou des spéculations, nous sommes clairement en terra incognita. Je me suis évertué à tirer le maximum d’enseignements de l’histoire cosmique pour 463

Partie 5. Le futur de l’humanité et le sens de l’Univers

contraindre ces deux options : les mettre en cohérence avec ce que nous dit la nature. Ces précautions prises, les deux thèses restent valables et rien ne permet de les départager. Puisqu’il faut vivre avec deux conceptions possibles de nos origines, j’espère que les partisans de chacune se respecteront mutuellement. Avec le philosophe Jean Staune, je prônerai : « (…) Humilité de la science qui doit admettre que la religion a peut-être accès à des niveaux de réalité qu’elle-même peut à peine envisager. Humilité de la religion qui doit évoluer en fonction des découvertes scientifiques. » Pour en venir à la question du sens de l’Univers, encore faut-il définir ce mot. Pour ce faire, je me référerai à Boris Cyrulnik qui commence l’un de ses livres28 par cette phrase : « Mon chien et moi, nous possédons une armoire Louis XIII ». Il précise le sens que ce meuble prend pour son compagnon : c’est l’endroit où sa gamelle est placée tous les jours : « Dès qu’il perçoit, l’animal confère du sens aux choses qui constituent son monde. Sur l’univers physique, il prélève un matériau à partir duquel il construit ses “objets” propres ». Cette analogie rapporte le sens à la nécessité. Pour Cyrulnik : celle de décorer agréablement son appartement ou de conserver une armoire ancienne venant de sa grand-mère. Pour son chien : celle de se nourrir ou bien de recevoir les caresses de son maître. Chez l’Homme préhistorique, la nécessité concernait sa survie. Avec l’émergence de la culture et de la civilisation, elle a porté sur bien d’autres choses. Je définirai donc le sens comme la création d’objets mentaux sous l’impulsion de la nécessité. Comprendre l’Univers, la vie et leurs origines, est un besoin vous ayant peut-être motivé à lire ce livre, auquel cas celui-ci est signifiant pour vous. L’appel de la beauté et celui du mystère m’ont poussé depuis des décennies à plonger le plus profondément possible dans les énigmes de l’Univers et de la vie. Croyant ou athée, on ne peut qu’être émerveillé par la nature et se sentir tout petit devant elle. J’ai toujours eu ce sentiment. Lors de randonnées à ski dans les Alpes, j’ai été 28.  La Naissance du Sens. Boris Cyrulnik. 1998. 464

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

époustouflé par la magnificence des paysages. La beauté de l’espace photographié par le télescope Hubble, celle des cellules et des bactéries vues en microscopie électronique, m’ont ébloui tout autant. Le décryptage minutieux des mécanismes de la nature, déroulé tout au long de cet ouvrage, relève de la même admiration et de la nécessité de comprendre comment une telle beauté a pu s’élaborer. Plus j’avance dans la science et la philosophie, plus l’histoire de l’Univers me paraît cohérente : l’émergence de structures chaque fois plus riches, à partir d’éléments simples, l’équilibre entre l’ordre et le chaos, et enfin cette alliance si réussie entre régularité et diversité. En deux mots, j’y vois une extraordinaire et improbable machine à fabriquer la complexité, la variété et l’harmonie à l’infini. Nous avons déjà cité le physicien Weinberg, sceptique à ce sujet : « Plus l’Univers nous paraît compréhensible, plus il nous paraît dénué de sens. » Comme je l’ai dit, cette idée en vogue il y a une trentaine d’années, me semble difficilement défendable aujourd’hui, que l’on soit croyant ou non. Un des premiers à s’y être opposé vigoureusement est un élève de Weinberg, celui qui a photographié la lumière fossile du Big Bang : Georges Smoot. Tous deux furent honorés du prix Nobel, chacun à son époque, pour être remontés jusqu’aux origines du monde : le premier par les équations, le second en scrutant la lueur ténue laissée par le Big Bang. Sur l’absence de sens soulignée par Weinberg, l’élève s’insurge : « Je ne suis pas d’accord avec mon ancien maître. L’Univers me paraît l’exact opposé d’un univers dénué de raison (…). La nature est ce qu’elle est, non pas en conséquence d’une suite aléatoire d’événements sans signification, mais au contraire parce qu’il ne pouvait pas en être autrement. Son évolution est inscrite depuis ses débuts dans une sorte d’ADN cosmique si l’on veut. Il y a un ordre clair dans l’évolution de ­l’Univers (…). Réaliser cela est du même ordre que l’extase artistique (…). Le concept religieux de création découle d’un sentiment d’émerveillement devant l’existence de l’Univers et devant notre place en son sein. Le concept scientifique de création ne recouvre pas moins 465

Partie 5. Le futur de l’humanité et le sens de l’Univers

un sentiment d’émerveillement : nous ressentons un respect mêlé de crainte devant la simplicité ultime et la puissance de la créativité de la nature, et devant sa beauté partout présente. » L’idée de Weinberg est réductrice comme l’est intrinsèquement la physique des particules. J’ajouterai qu’elle semble s’appliquer à l’Univers pris isolément. Or comment parler de sens sans se référer à l’Homme, la seule créature consciente connue et capable de jeter un œil tant sur le monde que sur elle-même ? C’est le regard de l’Homme qui crée le sens. Le cosmologiste Max Tegmark se rapproche de ce point de vue en rappelant que l’Univers ne donne pas un sens à la vie : c’est la vie qui donne un sens à l’Univers29. Le sens vient de l’interaction entre l’Homme et le monde. Pour être plus précis, ce n’est pas de l’Homme en général qu’il faut parler, mais bien de chaque homme en particulier car chacun est un tout au même titre que le cosmos qui l’héberge. Chacun ayant sa sensibilité, ses nécessités et ses croyances propres, il en découle la seule vraie question : Vous-même, quel sens donnez-vous à l’Univers ?

29.  Our Mathematical Universe. Max Tegmark. 2014. 466

Les clés secrètes de l’Univers

REMERCIEMENTS

Je remercie le docteur Alain Benoist, médecin et astronome, qui a passé tant d’heures sur mes textes pour me conseiller sur le fond, la forme et la pédagogie.

467

LEXIQUE

Abiogenèse : Théorie de l’apparition de la vie à partir du monde minéral. Acide aminé : Petite molécule s’assemblant en chaînes, les protéines. ADN, ARN, acide nucléique : Polymères assurant l’activité génétique. Il en existe deux versions proches : l’ADN (Acide DésoxyriboNucléique) et sa forme plus archaïque, l’ARN (Acide RiboNucléique). ARN messager : L’ADN enfermé dans le noyau des cellules, produit des copies de ses gènes sous forme de brins d’ARN, dits ARN messagers. Ils franchissent la paroi du noyau puis sont traduits en protéines par les ribosomes. Algorithme : Suite d’opérations ou d’instructions permettant de résoudre un problème. Les logiciels informatiques en sont des exemples. La sélection naturelle se résume à un algorithme élémentaire. Antimatière : Présente les mêmes attributs que la matière, sauf la charge qui est inversée. Si une particule et son antiparticule se rencontrent, elles s’annihilent en émettant une lumière intense. Apoptose : Mort de cellules programmée et commandée par les gènes. Atome primitif : Première appellation du Big Bang due à son inventeur, Georges Lemaître. Ce terme qui rappelle la particule 469

Partie 5. Le futur de l’humanité et le sens de l’Univers

primordiale d’Edgar Poe, a été abandonné car il ne correspondait à aucune réalité en physique des particules. ATP (adénosine triphosphate) : Molécule essentielle du métabolisme, véhiculant l’énergie chimique dans les organismes vivants. Attracteur : Concept mathématique dans la description des systèmes dynamiques. Il s’agit d’un état vers lequel le système tend à évoluer de façon irréversible. Autocatalytique : Se dit d’un ensemble de produits dont certains catalysent des réactions impliquant les autres. Auto-organisation, émergence : Tendance naturelle de la matière à s’assembler en phénomènes complexes plus ou moins stables. Elle repose sur les lois de la physique, mais celles-ci ne suffisent pas à l’expliquer. De nouveaux mécanismes restent à découvrir. C’est l’objet des sciences de la complexité. Autotrophe : Cellule capable de se nourrir de molécules minérales et tirant généralement son énergie de la lumière. Biais de confirmation : Biais dans la pensée, consistant à ne retenir que les idées ou les faits corroborant sa propre opinion et à ignorer les autres. C’est une forme plus précise du biais de sélection. Biais de sélection : À l’origine, erreur statistique née d’un mauvais choix de l’échantillon. Par extension, limite de la pensée provenant du fait que l’on retient certains types d’informations et que l’on ignore les autres. Big Chill, Big Crunch : Expressions similaires à celle du Big Bang, employées pour désigner la fin de l’Univers. La première se réfère à la mort froide dans le cas d’une expansion éternelle. La seconde représente la mort chaude dans le cas d’un Univers qui se contracte (un Big Bang à l’envers). Brisure de symétrie : Mécanisme par lequel une situation symétrique bascule dans une autre, asymétrique. Souvent, les équations des lois physiques sont symétriques, mais pas leurs solutions. La brisure de symétrie introduit le hasard dans l’évolution. 470

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

Catalyseur : Substance capable d’accélérer une réaction chimique. Avec les protéines, sont apparus des catalyseurs, des millions de fois plus efficaces que les catalyseurs minéraux. Causalité descendante, montante : Voir Émergence au sens de Christopher Langton. Céphéides : Étoiles utilisées par E. Hubble comme chandelles étalons pour mesurer la distance des galaxies, en raison de leurs propriétés : – Elles sont reconnaissables car leur luminosité est cyclique. –  Elles présentent toutes une luminosité intrinsèque comparable, ce qui permet d’évaluer leur éloignement en comparant leurs brillances. – Elles sont très lumineuses et se voient de loin. Champ gravitationnel : Valeur définie en chaque point de l’espace, qui caractérise l’effet de toutes les masses environnantes (une force pour Newton, une courbure de l’espace pour Einstein). Chimiotrophe : Bactérie tirant son énergie des minéraux du milieu. Chlorophylle : Molécule fabriquée par les cellules végétales, capable de convertir la lumière solaire en énergie chimique. Coalescence : Changement d’état dû au regroupement de petites fractions de matière entre elles. La formation de la pluie dans les nuages en est un exemple. Code génétique : Tableau qui associe un acide aminé à tout triplet de nucléotides de l’ARN. Cette correspondance est utilisée dans le mécanisme de la traduction de l’ARN en protéines. Combinatoire : Ensemble de propriétés apparaissant quand un grand nombre d’éléments simples interagissent entre eux. La combinatoire des particules mène aux structures chimiques. Celle des protéines conduit à la matière vivante. Les combinatoires se prêtent bien aux descriptions par les mathématiques ou les simulations numériques. Constante de Hubble : E. Hubble a confirmé et mesuré l’expansion de l’Univers. Plus une galaxie est lointaine, plus vite elle s’éloigne 471

Partie 5. Le futur de l’humanité et le sens de l’Univers

de nous. Il a déterminé le rapport vitesse/distance, dit constante de Hubble. Courbure de l’espace-temps : Toute masse imprime localement une courbure à l’espace-temps. En revanche, l’Univers observable pris dans sa totalité ne présente pas de courbure : elle a été « lavée » par l’épisode inflationnaire du Big bang. CRISPR-Cas9 : Ciseau moléculaire employé pour modifier un génome. Il repose sur des enzymes découvertes chez les bactéries, capables de reconnaître un gène (infectieux) et de l’éliminer par incision. Cytosquelette : Dans la cellule eucaryote, structure en protéine assurant la rigidité, les mouvements et différents transports internes. C’est un peu l’équivalent d’un squelette et d’une musculature au sein de la cellule. Décohérence : Théorie montrant comment une particule passe du monde microscopique (état quantique intriqué) au monde macroscopique (état classique). Découplage de l’information : Événement survenu avec l’apparition des gènes dans lesquels s’est localisée l’information héréditaire. Déisme : Conception d’un Dieu immanent, ne s’ingérant pas dans les affaires humaines (émergence de la vie et de la conscience, miracles, etc.). Son intervention serait limitée à la Création, la suite devant se dérouler spontanément dans le respect des données de départ. S’oppose au théisme. Densité critique de l’Univers : Densité de matière pour laquelle l’Univers présente une courbure nulle. C’est aussi la densité qui lui assure la plus grande longévité. Elle correspond à une masse de six protons par mètre cube. L’Univers à courbure nulle est dit plat ou euclidien. C’est le cas du nôtre pour des raisons liées à l’inflation. Dérive génétique : Évolution des populations sous l’effet des mutations dues au hasard. En l’absence de sélection naturelle, la dérive génétique appauvrit l’espèce. 472

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

Différenciation cellulaire : Opération permettant à une cellule souche (indifférenciée) de se spécialiser en cellule de foie, de peau, de rein, etc. Dogme de la biologie : Hypothèse fondamentale de la microbiologie moléculaire disant que l’information passe de l’ADN ou l’ARN vers les protéines, mais non l’inverse. Effet Doppler-Fizeau : Compression (ou dilatation) d’une onde dont la source se rapproche (ou s’éloigne). Une illustration est le décalage vers le rouge, dilatation des ondes lumineuses due au fait que les galaxies s’éloignent de nous. Élément chimique : L’un des 94 atomes existants. Il se caractérise par un numéro atomique (nombre de protons, ou d’électrons). Émergence au sens de Christopher Langton : Un tout se forme à partir de composantes (causalité montante), puis il impose en retour ses propres lois ou contraintes à ses composantes (causalité descendante). Encapsulation : Événement important de l’abiogenèse selon lequel les réactions chimiques du début de la vie (hypercycles) se sont logées à l’intérieur de gouttes lipidiques. On parle aussi de compartimentation. Énergie sombre : La carte du rayonnement fossile a permis de déterminer la densité de l’Univers relativement précisément. Les matières visible et noire ne représentent que 32 % de cette densité. On ignore de quoi est faite la masse manquante. On tend à considérer qu’elle est de l’énergie pure répartie dans le cosmos. Ensemble autocatalytique : Grand ensemble d’hypercycles. Une grande partie de ses réactions, voire toutes, sont catalysées par certains des produits qu’il contient. Entropie : Mesure de l’état de désorganisation de la matière. Selon le second principe de la thermodynamique, tout système accroît globalement son entropie en convertissant de l’énergie en des formes plus dégradées (en général de la chaleur). Le concept est aussi utilisé en théorie de l’information. 473

Partie 5. Le futur de l’humanité et le sens de l’Univers

Enzyme : Protéine dotée de capacité catalytique. Épigenèse : Par opposition à la genèse qui désigne la création de l’être vivant à partir du génome, l’épigenèse se réfère à toute forme de développement provenant de la confrontation de l’organisme avec l’environnement. Par exemple, le cerveau du nouveau-né dispose d’un « précâblage » rudimentaire (génétique). Ensuite, neurones et synapses se déploient par apprentissage de l’environnement (épigénétique). État critique auto-organisé : Un système complexe qui atteint un seuil critique, puis s’y maintient par des mécanismes de rétroaction, sans intervention extérieure. À titre d’exemple, dans le désert, toutes les dunes présentent la même pente. Le vent pousse le sable, ce qui tend à augmenter cette pente, mais des avalanches se déclenchent dès qu’elle passe un certain seuil. Ainsi, la pente s’autorégule sur une valeur critique. Eucaryote : Type des cellules composant tous les êtres multicellulaires, animaux, végétaux et champignons. Expansion : Augmentation d’échelle de l’espace-temps. Si au temps t1, deux points sont à une certaine distance, plus tard au temps t2, elle sera plus grande. Elle se traduit par la fuite des galaxies. En revanche elle n’affecte pas les systèmes gravitationnellement liés : par exemple, la taille d’une galaxie n’est pas en expansion. Expression des gènes : Voir Traduction génétique. Facteur d’échelle : Dans un univers en expansion, la notion de distance évolue avec le temps. Le facteur d’échelle mesure de combien une distance s’est dilatée entre les temps t1 et t2. Faux vide : En mécanique quantique, le vide n’est pas vide : il s’y forme en permanence de nouvelles particules qui disparaissent aussitôt. Dans les situations où la force de gravitation est extrême comme le Big Bang ou les trous noirs, on retrouve cette notion : quand les densités deviennent infinies, l’existant se résume à un faux vide. Il est vide au sens qu’il n’inclut pas de matière, mais il contient les lois de la nature. 474

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

Génotype : Information portée par le génome. S’oppose au phénotype. Géométrie non euclidienne de Riemann : Outil mathématique créé par Bernhard Riemann au xixe siècle. Il s’agit d’une géométrie des espaces courbes. Elle a servi à formuler la relativité générale. Gluon : Particule médiatrice de l’interaction forte. Elle n’a jamais été observée, mais on est sûr qu’elle existe, confinée dans le noyau atomique. Gravité : Synonyme de gravitation, utilisé en général quand on parle de l’environnement proche de la surface d’un astre : par exemple la pesanteur à la surface de la Terre. Gravité quantique à boucles : Théorie en développement, visant à unifier mécanique quantique et relativité. Elle repose sur l’idée d’un espace-temps maillé comme un tissu. Hominine : Groupe des singes bipèdes issus de la séparation entre le chimpanzé et la lignée pré-humaine. Il comprend les Australopithèques, les Paranthropes et Homo. Hybridation : Croisement entre deux individus appartenant à des variétés distinctes. Hydrophilie, hydrophobie : La forme particulière du nuage électronique de la molécule d’eau fait que les autres molécules se classent en deux catégories, selon qu’elles attirent ou repoussent celle de l’eau. Certaines, comme les détergents ou les phospholipides, présentent une zone hydrophile et l’autre hydrophobe. Hypercycle : Chaîne de réactions chimiques formant des cycles et dont certains des produits sont eux-mêmes des catalyseurs pour certaines des réactions. Inflation : Épisode d’expansion fulgurante de l’espace survenu juste après le Big Bang. En une infime fraction de seconde, il est passé d’une échelle microscopique à une échelle astronomique. Informatique quantique : Nouveau type d’ordinateur à l’état de technologie émergente. Des particules sont maintenues en état quantique. Le résultat est qu’au lieu de figurer un 0 ou un 1, ces particules revêtent une infinité d’états possibles de façon 475

Partie 5. Le futur de l’humanité et le sens de l’Univers

superposée. Il suffira de quelques dizaines de telles particules pour réaliser des ordinateurs massivement parallèles, plus puissants que les appareils actuels dans certaines applications. Loi de Hubble-Lemaître : Décrit l’expansion de l’Univers par une formule simple. Plus les galaxies sont lointaines, plus vite elles s’éloignent de nous. Éloignement et vitesse de fuite sont proportionnels et le coefficient de proportionnalité est la constante de Hubble. Loi de la gravitation : Pour Newton, deux masses s’attirent. La force est proportionnelle au produit des deux et à l’inverse du carré de la distance qui les sépare. Pour Einstein, une telle force n’existe pas : ce qui tend à rapprocher les masses entre elles, est une courbure de l’espace-temps imprimée par elles-mêmes. Aux vitesses très inférieures à celle de la lumière, les deux théories donnent des valeurs identiques. MACHO (Massive Compact Halo Objects) : Objets peu visibles tels les trous noirs, qui pourraient expliquer la matière noire. Cette thèse n’apportant pas de solution crédible, on s’est tourné vers la recherche de particules inconnues. Matière noire : Diverses observations montrent que la matière visible n’est qu’une part minoritaire de la masse de matière de l’Univers. Un autre type existe, que l’on sait localiser, mais dont on ne connaît pas encore la nature. Membrane bicouche : Elle est utilisée universellement chez les êtres vivants. Elle est formée de deux couches de phospholipides accolées par leur face hydrophobe. Mème : Selon R. Dawkins, c’est une unité de pensée (idée, image, mot, etc.) qui se propage de cerveau en cerveau par un processus darwinien. Métabolisme : Ensemble des réactions chimiques qui animent un être vivant. Microbiote : Ensemble des micro-organismes vivant en symbiose avec un être multicellulaire. 476

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

Mitochondrie : Organite des cellules eucaryotes, servant à convertir l’oxygène en énergie chimique (fabrication d’ATP). Modèles cosmologiques : Les modèles classiques sont ceux de Friedmann-Lemaître. Ensuite, sont apparus les modèles quantiques et inflationnaires. Modèle standard des particules : Il s’agit de la théorie en vigueur pour expliquer les particules constituant l’Univers. Elle repose sur la théorie quantique des champs. Elle est remarquablement précise, mais pose de nombreuses questions fondamentales. Monomère : Maillon d’un polymère. Nébuleuse : Objet céleste d’aspect diffus. À l’époque où l’on ne connaissait pas l’existence des galaxies, ce terme s’appliquait à celles qui étaient visibles et apparaissaient comme des taches floues. Aujourd’hui, il désigne des nuages de gaz ou de poussière. Neutrino : L’une des particules qui composent la matière. Il est très difficile à observer : les détecteurs sont des piscines d’eau enterrées, de grande dimension, qui n’identifient que quelques neutrinos par an. Nuage électronique : Répartition probable d’un électron dans l’espace autour du noyau atomique. Sa forme se calcule par la mécanique quantique. Il est impossible théoriquement et pratiquement, de localiser l’électron de façon plus précise que cela. Nucléotide : Petite molécule s’assemblant en chaînes dites acides nucléiques (ADN ou ARN). Ontogenèse : Étude du développement d’un être vivant depuis l’ovule fécondé jusqu’à sa forme adulte. Organite : Organe d’une cellule (appareil de Golgi, réticulum endoplasmique, mitochondrie, etc.) Parcimonie génétique : À travers l’évolution, on constate qu’un nombre très réduit de mutations suffisent à expliquer des changements profonds. C’est le cas dans le passage du singe à l’Homme. Par ce moyen, la montée vers la complexité se fait en économisant la longueur du génome. 477

Partie 5. Le futur de l’humanité et le sens de l’Univers

Particule médiatrice : Particule exprimant une force, appelée aussi boson. La particule médiatrice de l’électromagnétisme est le photon. Phagocytose : Absorption d’une particule ou d’un nutriment par une cellule eucaryote, par invagination de sa membrane. Phénotype : Ensemble des traits observables sur un organisme. S’oppose au génotype, qui représente l’information génétique. Phospholipide : Molécule présentant une tête hydrophile et une queue hydrophobe. Elle forme les membranes bicouches. Photon : Grain de lumière. Einstein a montré qu’il se manifestait tantôt comme un corpuscule, tantôt comme une onde, découverte qui a été le point de départ de la mécanique quantique. Phylogenèse : Évolution des espèces au cours des générations en suivant les lignées génétiques. Plasmide : Petit anneau d’ADN que les bactéries échangent entre elles. Il assure une transmission horizontale de gènes entre elles, ce qui a des effets semblables à la sexualité. Polymère : Macromolécule de forme linéaire faite de l’enchaînement de petites molécules dites monomères. Deux d’entre eux jouent un rôle primordial dans le vivant : les acides nucléiques (ARN, ADN) et les protéines. Pool génétique d’une espèce : Ensemble des variations qui existent au sein du génome d’une même espèce : yeux bleus/noirs, pilosité plus ou moins prononcée, capacité digestive différente, malformations diverses, etc. Positon (ou positron) : Antiparticule de l’électron. Possible adjacent : Domaine de possibilités potentielles, non accessible à la nature à un moment donné, mais susceptible de le devenir dès qu’un changement élémentaire se produit au bon endroit. Quand une porte s’ouvre vers un tel domaine, la nature s’y engouffre, ce qui fait émerger un grand nombre de novations. Posthumanisme : Le mouvement philosophique transhumaniste s’intéresse à ce que les progrès en médecine, robotique, informatique, etc. peuvent apporter à l’Homme pour améliorer ses 478

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

possibilités. Sa forme extrême, le posthumanisme, envisage l’émergence d’une intelligence extrahumaine, pouvant à terme se découpler du corps. Principe anthropique : En cosmologie, principe énonçant que les propriétés de l’Univers ne peuvent pas être quelconques : elles sont contraintes par le fait qu’elles doivent être compatibles avec l’émergence de la vie et d’un être pensant. Problème de l’horizon (dit aussi problème de la déconnexion causale) : L’observation du rayonnement fossile montre que la température de l’Univers est remarquablement égale dans toutes les directions, ce qui indique un état d’équilibre thermique. Il en résulte un paradoxe car les parties éloignées de la voûte céleste n’ont jamais pu être en contact. L’inflation cosmologique a apporté une explication. Procaryote : Nom scientifique des bactéries. Profondeur logique : Une mesure très pertinente de la complexité d’un système, due à C. Bennett. Il la définit comme le nombre d’opérations nécessaires pour reconstituer le système en partant de rien. Protéine : Macromolécule faite d’une chaîne d’acides aminés. Une fois repliée, elle représente une forme qui sert à la structure dans l’organisme ou bien exécute une tâche catalytique. Proton, neutron, quark : Le noyau atomique est formé de protons (une charge positive) et de neutrons (pas de charge). Ces deux particules que l’on a longtemps considérées comme élémentaires, ne le sont pas : chacune est formée de 3 quarks. Radiation évolutive : Épisodes foisonnants de l’évolution des espèces se produisant quand de nouvelles niches voient le jour, souvent à l’issue d’une grande extinction. De nombreuses espèces très variées naissent simultanément. Rayonnement du corps noir : Courbe de répartition de l’énergie en fonction de la fréquence, observable sur la lumière sortant d’un four. L’explication de cette courbe par Planck puis par Einstein, est à l’origine de la mécanique quantique. 479

Partie 5. Le futur de l’humanité et le sens de l’Univers

Rayonnement fossile ou cosmologique : Photons émis quand l’Univers âgé de 380 000 ans est devenu transparent. Depuis, très affaiblis, ils circulent toujours dans tout l’espace et ont été détectés pour la première fois en 1965. On parle aussi de rayonnement diffus micro-onde. Réductionnisme : La méthode cartésienne consiste à décomposer les problèmes en sous-problèmes plus faciles à résoudre. La physique, qui repose largement sur cette démarche, tend à réduire les phénomènes ou objets complexes au seul comportement des particules, le risque étant de perdre la notion du tout. Les systèmes sophistiqués comme l’être vivant, ne peuvent être compris par une réduction au seul jeu des particules. Relativité générale : Einstein traite la gravitation en appliquant les équations de la relativité restreinte en chaque point de l’espacetemps, localement. Il montre que la présence de masses courbe l’espace-temps. Dans ce substrat élastique, les trajectoires des masses suivent la courbure. Relativité restreinte : Einstein étend la relativité galiléenne (relativité du mouvement) à l’électromagnétisme : la lumière doit être perçue identiquement quel que soit l’observateur et son mouvement. Ceci l’amène à postuler qu’aucun corps ne peut se déplacer à une vitesse supérieure à celle de la lumière. La théorie débouche aussi sur l’équivalence entre la matière et l’énergie (E = mc2). Récession galactique : Fuite apparente des galaxies, provoquée par l’expansion de l’Univers. Ribosome : Enzyme (ou plus exactement, ribozyme) faite essentiellement d’ARN. Elle est responsable de la traduction génétique. Ribozyme : Catalyseur fait d’ARN, comme l’enzyme est faite de protéine. Sciences de la complexité : Sciences recherchant les mécanismes d'émergence des systèmes complexes. La simulation numérique est un outil privilégié pour y parvenir. Second principe de la thermodynamique : Il énonce que tout système accroît globalement son entropie. Il s’apparente à l’idée 480

Les clés secrètes de l’Univers

La nature intime et le sens de l’Univers

de la dégradation universelle. Une partie d’un système peut évoluer vers l’organisation et la complexité (moins d’entropie) à condition que le reste du système évacue une entropie supérieure à celle perdue, en général sous forme de chaleur. Singularité : Dans les situations où la force de gravitation est extrême, comme le Big Bang ou les trous noirs, toutes les grandeurs deviennent infinies et les lois physiques ne sont plus cohérentes. Sans savoir décrire réellement ces situations, on considère généralement qu’elles représentent une sorte de fin de l’espace-temps : un bord ou un déchirement. Spectre lumineux et raies d’absorption : Le spectre d’une lumière est sa décomposition en couleurs, du rouge au violet, comme on le voit dans un arc-en-ciel. Dans le spectre, on observe des traits noirs, les raies d’absorption. Elles montrent que certains atomes ou molécules sont présents dans la source qui l’émet. Sphère de dernière diffusion : Voûte céleste examinée à une distance de 13,8 milliards d’années-lumière, qui correspond à l’époque d’émission du rayonnement fossile. La première photographie de cette sphère a été prise par le satellite COBE et traitée par G. Smoot en 1992. Tenseur : Tableau de chiffres (ou matrice) utilisé pour décrire certaines grandeurs ne pouvant être représentées par un chiffre unique. La courbure de l’espace-temps en est un exemple. Le calcul tensoriel permet de conduire des opérations avec les tenseurs. Théisme : Conception d’un Dieu transcendant, susceptible d’intervenir dans la gestion des affaires humaines (émergence de la vie, de la conscience, miracles, etc.). S’oppose au déisme. Théorie des cordes : Théorie en développement, visant à unifier mécanique quantique et relativité. Elle repose sur l’idée que les particules émergeraient à partir de cordes vibrantes plus petites que la distance de Planck. Les formes de la matière seraient des modes vibratoires de ces cordes. Après beaucoup d’engouement, la motivation des chercheurs pour cette théorie s’est émoussée devant les difficultés mathématiques soulevées. 481

Partie 5. Le futur de l’humanité et le sens de l’Univers

Théorie des graphes : Discipline des mathématiques, dédiée à l’étude des réseaux. Théorie du tout : Se réfère au Saint Graal de la physique, une théorie qui unifierait mécanique quantique et relativité. Idéalement, les paramètres que les physiciens fixent aujourd’hui arbitrairement comme les masses des particules, découleraient d’une telle théorie. Traduction génétique : Processus convertissant une séquence d’ARN en une protéine dans les bactéries et les cellules. Une machinerie enzymatique complexe l’exécute. Transition de phase : À l’origine, il s’agit de la transition qui mène d’un état de la matière vers un autre : par exemple, le passage de l’état liquide à l’état gazeux. Par extension, s’utilise pour représenter des changements soudains, affectant tout un milieu, au moment précis où une variable franchit un seuil donné (souvent une température). Univers-jouet : Univers simulé mathématiquement en fixant arbitrairement un certain nombre de paramètres. Les univers-jouets sont fictifs, mais ils sont essentiels pour comprendre notre propre univers. Univers stationnaire : Modèle d’univers développé par Fred Hoyle comme une alternative au Big Bang. Il ne présente pas d’origine. Il est en expansion, mais celle-ci est compensée par une création continuelle de matière, de sorte qu’il apparaît toujours identique. Le modèle a été rejeté quand les preuves du Big Bang se sont accumulées. WIMPs (Weakly Interacting Massive Particles) : Particules inconnues qui composeraient la matière noire. Activement recherchées au LHC à Genève.

482

Les clés secrètes de l’Univers