Une introduction à la dynamique des océans et du climat: Tome 2 – Climat 9782759823901

Les enjeux cruciaux du rôle de l’océan dans le changement climatique ont été soulignés depuis longtemps déjà lors des co

196 58 9MB

French Pages 298 [300] Year 2020

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Une introduction à la dynamique des océans et du climat: Tome 2 – Climat
 9782759823901

Citation preview

Une introduction à la dynamique des océans et du climat Tome 2 Climat

Une introduction à la dynamique des océans et du climat Tome 2 Climat

A. Colin de Verdière

Imprimé en France

ISBN (papier) : 978-2-7598-2389-5 ISBN (ebook) : 978-2-7598-2390-1 Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. © EDP Sciences 2020

Table des matières

 Partie 4   • Dynamique du climat 319 Introduction 319 4.1 Les acteurs du climat 325 4.1.1 L’océan 325 4.1.2 La cryosphère 328 4.1.3 La Terre 328 4.1.4 L’atmosphère 329 4.2 Équilibre radiatif et effet de serre 356 4.2.1 Modèle de climat à l’équilibre (EBM, Energy Balance Model) 356 4.2.2 Interaction rayonnement et gaz à effet de serre 363 4.3 Le couplage océan-atmosphère 379 4.3.1 Flux de chaleur à l’interface air-mer 379 4.3.2 Les flux méridiens de chaleur 382 4.3.3 Le cycle de l’eau 387 4.3.4 Interaction du sel et de l’eau douce 392 4.4 Le cycle du carbone 397 4.4.1 Introduction : les réservoirs et les flux de carbone 398 4.4.2 Échanges avec les roches 400 4.4.3 Échanges avec la biosphère 402 4.4.4 Échanges de CO2 à l’interface air-mer 410 4.4.5 La chimie des carbonates dans l’océan 413 4.4.6 Synthèse 424 4.4.7 La pénétration du carbone anthropique dans l’océan 430

V

Une introduction à la dynamique des océans et du climat

4.5 Comment estimer la réponse du système climatique aux gaz à effets de serre ? 433 4.5.1 Le concept du forçage radiatif 433 4.5.2 Les rétroactions (feedbacks) climatiques 437 4.5.3 La sensibilité du climat 448 4.6 L’observation des climats passés 452 4.6.1 Les sédiments océaniques 453 4.6.2 Les carottes de glace 457 4.6.3 Les climats très anciens : de l’Archéen au Crétacé 458 4.6.4 Les deux derniers millions d’années ou le temps des paramètres orbitaux 463 4.6.5 Les derniers 100 000 ans ou le temps de la circulation océanique 475 4.6.6 L’évolution du dernier siècle ou le temps de l’homme 481 4.7 La variabilité naturelle du climat aujourd’hui : de quelques mois à quelques dizaines d’années 507 4.7.1 L’oscillation nord-atlantique (North Atlantic Oscillation, NAO) 508 4.7.2 L’oscillation multidécennale atlantique (Atlantic Multidecadal Oscillation, AMO) 515 4.7.3 El Niño Southern Oscillation (ENSO) 521 4.8 Le futur du climat 536 4.8.1 Les 100 prochaines années 537 4.8.2 Et après ? 540 4.8.3 Les solutions 544 Conclusion 548 Lectures additionnelles 551 Références d’articles cités dans le texte 557 Valeurs utiles et paramètres 569 Annexe 3 : Observer l’atmosphère 573 A.3.1 L’hydrostatique 573 A.3.2 La géostrophie 574 Annexe 4 : Le traitement des données climatiques 577 A.4.1 Moyenne, variance, histogramme et loi normale 578 A.4.2 Le lien avec les probabilités 582 A.4.3 La méthode des moindres carrés et la mesure du réchauffement global 585 A.4.4 L’analyse en fréquences ou analyse de Fourier 592 Annexe 5 : Constantes des réactions des carbonates dissous 599 Index général tomes 1 et 2 601

VI

De ce que la nature est une, on a conclu qu’elle était simple. Erreur. La nature échappe au calcul. Le nombre est un fourmillement sinistre. La nature est l’innombrable. Une idée fait plus de besogne qu’une addition. Pourquoi ? parce que l’idée montre le tout, et que l’addition ne peut faire le total. Victor Hugo

VII

Cette image met en place les acteurs océan, atmosphère et glace du Tome 2 : deux dépressions sur le Pacifique nord-est, une bande de nuages sur le Pacifique équatorial révélatrice de la zone de convergence intertropicale, une bande de nuages sur l’Atlantique nord qui semble dessiner le trajet de la dérive nord atlantique, et les glaces de l’Arctique. Source : Nasa Earth Observatory, MODIS, 2002, https://solarsystem.nasa.gov/resources/786/blue-marble-2002

4 Dynamique du climat

Introduction Climat vient du grec κλιμα ou inclinaison. L’inclinaison des rayons du Soleil qui varie au cours de la journée, de l’année, et même sur des dizaines de milliers d’années est la cause première des variations de température sur la Terre. Ces variations de l’inclinaison des rayons sont dues au mouvement propre de la Terre, rotation sur elle-même et orbite elliptique autour du Soleil, orbite qui est également perturbée par la présence des autres planètes. La deuxième cause, beaucoup moins évidente, fut identifiée bien plus tard. Fourier dans son Mémoire sur les températures du globe terrestre et des espaces planétaires de 1827 comprit qu’un équilibre thermique ne pouvait s’établir qu’en introduisant la notion de chaleur obscure (le rayonnement infrarouge) rayonnée par la Terre pour contrebalancer la chaleur solaire lumineuse incidente. La découverte de l’effet de serre en 1896 est due à Arrhenius qui comprit que certains gaz qui existent sous forme de traces dans l’atmosphère comme la vapeur d’eau, le dioxyde de carbone CO2, le méthane CH4, absorbent le rayonnement infrarouge émis par la Terre pour le réémettre tant vers l’espace que vers le sol et venir ainsi augmenter significativement la température de la surface terrestre. Mais température et pression (pour la vapeur d’eau), vie et volcans (pour les autres) changent la composition de ces gaz traces et donc le climat. Comprendre l’origine des variations passées et prédire le futur des températures de la Terre est donc un problème couplé physique-biogéochimie. À composition atmosphérique constante, le forçage solaire périodique avec ses cycles diurnes et annuels devrait permettre de prédire facilement les températures océaniques et atmosphériques, de la même façon que l’on peut prédire les marées océaniques et leurs oscillations si régulières en réponse au forçage astronomique

319

Une introduction à la dynamique des océans et du climat

d’origine gravitationnelle. Il n’en est rien. Le chauffage d’une casserole d’eau sur le feu montre tout de suite la complexité des mouvements fluides qui se créent, l’instabilité de Rayleigh-Bénard étant la théorie introduite pour expliquer la genèse de ces mouvements erratiques de particules fluides : chauffées en bas, donc légères, elles montent quand les particules du haut, froides donc lourdes, descendent. L’atmosphère peut aussi être considérée comme une casserole chauffée par-dessous, car elle est assez transparente aux rayons solaires et la Terre et l’océan la chauffent en retour. Négligeable pour les mouvements dans la casserole, la rotation de la Terre devient fondamentale pour les mouvements atmosphériques de grande échelle et toute la réponse du fluide en est modifiée. Une circulation zonale (des vents d’ouest) se met en place sous l’effet du forçage solaire, mais cette circulation est instable et se désagrège aux moyennes latitudes pour évoluer vers un régime de turbulence de grande échelle ~ 1 000 km, les tempêtes des latitudes tempérées. Les températures prennent alors ce côté chaotique, imprévisible et aléatoire (au sens d’un jet de dés sur une table) sur des échelles de temps de quelques jours (l’échelle dite synoptique). Il s’agit de la même instabilité active dans l’océan pour créer les tourbillons océaniques (voir § 3-6-2). Ainsi atmosphère et océan apparaissent-ils comme deux fluides turbulents couplés à l’interface air-mer pour échanger chaleur, quantité de mouvement, eau (vapeur et liquide), ainsi que toutes sortes de gaz et autres particules solides. Bien que soumis aux mêmes flux air-mer, atmosphère et océan ne réagissent pas du tout de la même façon, principalement pour des raisons de confinement, mouvement libre ou bloqué par des barrières continentales. Le rapport des masses volumiques d’un facteur mille entre l’air et l’eau conduit à des échelles de temps très différentes, l’atmosphère variant rapidement à l’échelle du jour et de la semaine quand l’océan varie beaucoup plus lentement à l’échelle du mois, de l’année ou du siècle. Si atmosphère et océan sont si turbulents, qu’est-ce que le climat ? Le climat est une notion statistique, que l’on peut aborder simplement en calculant la moyenne temporelle de la température sur le pas de sa porte sur un jour, sur un mois, sur une année, voire sur un siècle. Moyennes diurnes, mensuelles, annuelles ou séculaires qui sont ensuite moyennées spatialement sur toute la surface terrestre pour obtenir la température moyenne au sol dont tout le monde parle lorsqu’on aborde le problème du réchauffement global. Devant l’impossibilité de la prédiction du temps (le weather des anglophones) au-delà d’un horizon de quelques jours pour l’atmosphère et autour d’un mois pour l’océan quantifié par Lorenz (1963), n’est-ce pas totalement illusoire que de vouloir prédire le climat, la moyenne de cette turbulence ? Il est difficile de répondre de façon tranchée à cette question fondamentale, mais on peut néanmoins remarquer que prédiction du temps et prédiction du climat sont deux problèmes de nature très différente. Pour prédire le temps (la turbulence), les conditions initiales des variables comme la température, la pression atmosphérique ou le vent doivent toutes être observées à un instant donné. En revanche, la moyenne annuelle de la température d’une région est déterminée par le forçage solaire, la latitude, la proximité relative de la mer, l’élévation en altitude, la nature du sol et de bien d’autres choses encore qui permettent de distinguer effectivement des climats maritimes, continentaux, polaires ou tropicaux. Le climat apparaît ainsi déterminé

320

4. Dynamique du climat

non pas par les conditions initiales mais par les conditions aux limites, c’est-à-dire par les forçages qui contrôlent le domaine spatial considéré. Prédire la turbulence et prédire le climat apparaissent donc comme deux exercices très différents, le premier répondant aux conditions initiales, le deuxième aux conditions aux limites. Mais attention, comme le climat est la moyenne d’un champ turbulent, la turbulence fait partie intégrante du climat. Les premiers modèles de climat de Budyko (1969) et Sellers (1969) paramétrisaient la turbulence atmosphérique comme un processus de diffusion thermique mais avec des coefficients de diffusion gigantesques n’ayant rien à voir avec ceux de la vraie diffusion moléculaire. La course à la résolution spatiale (la taille de la grille du modèle) dans les modèles de climat est devenue une course aux puissances de calcul des machines pour dépasser ces lois de diffusion artificielle et représenter la turbulence d’une façon toujours plus réaliste. Les réflexions de Lorenz (1968) sur cette question du déterminisme du climat en présence de turbulence gardent toute leur actualité. Une introduction à la variabilité du climat prise sous l’angle des systèmes dynamiques est fournie par Ghil (2001). L’analyse des climats du passé a beaucoup progressé grâce à l’histoire enregistrée dans les structures géologiques (les roches), dans les sédiments océaniques et dans les glaces des calottes polaires et toutes ces histoires mises bout à bout racontent le rôle majeur joué par le cycle du carbone. Comme le carbone est présent dans les roches sédimentaires présentes à la surface de la Terre (le calcaire) et se trouve être l’atome fondamental des structures vivantes, le cycle du carbone a une nature biogéochimique dont l’analyse dépasse les seules considérations physiques. Pourquoi la température de la Terre est-elle restée dans ce créneau étroit entre la température de congélation de l’eau et une température maximale environ moitié de la température d’ébullition de l’eau ? Ce n’est visiblement pas le cas des planètes voisines, Vénus par exemple atteint 735 °C en surface et Mars –80 °C, deux planètes telluriques proches de la Terre qui n’ont ni vie ni eau liquide. Étroitement couplés, eau et carbone ont contrôlé le climat de la Terre sur des échelles de temps de l’ordre de la centaine de millions d’années de la façon suivante : les volcans injectent en permanence du dioxyde de carbone (CO2) dans l’atmosphère. Mais quand les continents sont apparus, la pluie rendue acide par le CO2 est venue lessiver chimiquement les roches (chemical weathering) et le CO2 s’est alors retrouvé intégré dans le carbonate de calcium (CaCO3) puis transporté jusqu’à l’océan par les rivières. Ce lessivage est une rétroaction négative (negative feedback), car si le CO2 augmente, l’atmosphère se réchauffe par effet de serre, l’évaporation des océans augmente, et donc aussi les pluies et le lessivage. Le CO2 alors diminue et la Terre se refroidit. La Terre trouve la bonne valeur du CO2 atmosphérique afin que lessivage et dégazage par les volcans s’équilibrent sur des millions d’années. La Terre a connu certes quelques épisodes catastrophiques d’états boule de neige (Snowball Earth), mais ceux-ci ne peuvent perdurer bien longtemps car le dioxyde de carbone CO2 injecté continûment par les émissions volcaniques s’accumule dans l’atmosphère et sans aucune possibilité pour le carbone de se cacher dans l’océan ou dans les forêts, l’effet de serre associé finit par prendre le dessus pour faire fondre la glace. La Terre a heureusement évité la situation inverse de sauna vécue par Vénus qui a perdu toute son eau et dont l’atmosphère composée aujourd’hui majoritairement de CO2 est le théâtre d’un

321

Une introduction à la dynamique des océans et du climat

effet de serre gigantesque. Les interactions du climat avec la vie terrestre sont apparues beaucoup plus tard dans l’histoire de la Terre. À l’origine, la Terre était en effet anoxique et l’oxygène n’est apparu qu’avec la vie. La concentration en oxygène a atteint sa valeur actuelle il y a environ 300 millions d’années, l’époque d’apparition des organismes multicellulaires, et semble assez stable depuis. Il est produit par photosynthèse, mais les organismes respirent et la matière organique se décompose de sorte que la même quantité d’oxygène que celle initialement fabriquée est consommée par ces respirations et ces dégradations. Oui certes, sauf si la matière organique disparaît de la scène, pour sédimenter au fond des océans. Si le climat peut être stabilisé sur des millions d’années pour les raisons invoquées plus haut, les deux derniers millions d’années du Quaternaire paraissent assez singuliers dans l’histoire de la Terre : des calottes de glace sont en effet apparues dans l’hémisphère nord et les enregistrements dans les glaces de l’Antarctique et du Groenland montrent une très grande instabilité avec des cycles glaciaires et interglaciaires majeurs, oscillations qui se produisent sur des périodes allant du millier d’années à la centaine de milliers d’années. Le CO2 atmosphérique enregistré dans ces carottes de glace montre un visage différent du cycle du carbone. Bas dans les périodes froides, haut dans les périodes chaudes, il semble que l’effet de serre associé amplifie les variations thermiques. Le CO2 passe ainsi d’un rôle de régulateur avec le lessivage chimique à celui d’un amplificateur. L’explication de cette variation du CO2 au cours des cycles glaciaires-interglaciaires reste une question largement ouverte qui fait l’objet d’efforts de recherche importants. Et le climat d’aujourd’hui ? Les activités humaines ajoutent un nouveau flux de carbone dans l’atmosphère à des taux bien supérieurs au volcanisme naturel avec à peu près la moitié de ces émissions re-captées par la Terre et les océans, mais cela n’empêche pas la température d’augmenter et il risque de se produire bien des surprises avant que le lessivage chimique ne fasse son grand nettoyage sur des échelles de 100 000 ans ou plus. Le pergélisol (permafrost) actuellement gelé des régions périarctiques ne va-t-il pas fondre bien avant et remettre dans le circuit atmosphérique des quantités énormes de carbone organique qui ne demandent qu’à se décomposer à l’air libre pour injecter méthane et CO2 ? L’océan pourra-t-il continuer à capter le CO2 avec la même efficacité qu’aujourd’hui ? Soumise au forçage solaire et au forçage des gaz à effets de serre, la Terre répond avec de multiples interactions entre océan, atmosphère, cryosphère et organismes vivants. Si on aborde les questions du réchauffement climatique, il faudra considérer les échanges de chaleur, de dioxyde de carbone et de vapeur d’eau entre ces compartiments. La glace est importante aussi, car la quantité de rayonnement solaire réfléchi dépend de sa surface plus ou moins étendue. L’objectif de ce Tome 2 sera de montrer le fonctionnement de quelques-unes de ces interactions au travers d’arguments physiques basés sur les cycles de l’énergie, de l’eau et du carbone, le mot cycle rassemblant les notions de source, de puits, de stock et de transport (par les vents ou les courants océaniques). Pour permettre au lecteur de rentrer dans la physique qui gouverne les enjeux climatiques, l’exposition des mécanismes se veut assez quantitative, car seuls les chiffres permettent de hiérarchiser l’importance de telle cause pour rendre compte de tel

322

4. Dynamique du climat

effet. Le contenu de cette partie ne fournit pas de description du climat au sens traditionnel : la climatologie observe et décrit les climats globaux et régionaux, alors que l’approche physique complémentaire considérée ici tente de remonter aux causes du climat et de ses variations avec une attention particulière pour l’époque actuelle. L’océan et l’atmosphère sont gouvernés par les mêmes équations du mouvement, la deuxième loi de Newton, mais des différences de nature thermodynamique comme la compressibilité, des différences de forçages et de conditions aux limites, l’absence de barrières continentales et le grand rôle joué par le rayonnement pour l’atmosphère doivent être prises en compte, toutes différences qui expliquent la singularité de ces deux circulations. La dynamique du climat est présentée du point de vue de l’océan avec la même philosophie quantitative que dans le Tome 1. La présentation de la dynamique atmosphérique restera néanmoins assez limitée car les mécanismes de l’interaction entre vent moyen et turbulence demandent des outils trop complexes pour une introduction. L’objectif reste le même : donner des exemples qui permettent une compréhension physique, car lorsque les interactions deviennent trop nombreuses, les mécanismes deviennent juste impossibles à identifier. Les acteurs du climat sont tout d’abord présentés, l’océan l’a déjà été largement au Tome 1 de sorte que l’attention est surtout portée sur l’atmosphère, et plus particulièrement sur ses grandes échelles au-delà de quelques centaines de kilomètres. La dynamique de la cellule de Hadley et des rails de tempêtes des moyennes latitudes (storm tracks) seront brièvement abordées. L’équilibre radiatif de l’atmosphère et l’effet de serre, le point central du problème climatique, sont plus développés. La section suivante présente les échanges de chaleur, de quantité de mouvement et de gaz à l’interface air-mer. Le cycle du carbone, le sujet probablement le plus complexe mais aussi le plus important en sciences du climat, est inclus pour l’océan alors que les interactions avec la surface terrestre et la biosphère terrestre ne sont pas abordées, non pas qu’elles soient négligeables, bien au contraire, mais parce que le sujet demande un traitement spécifique par les spécialistes terrestres. On revient ensuite plus en détail sur le forçage radiatif et la sensibilité du climat aux différents feedbacks climatiques qui peuvent emballer le système dans un sens ou dans l’autre. Vient ensuite une description brève des paléoclimats et des méthodes de reconstruction nécessaires. Les principaux modes de variabilité du climat d’aujourd’hui sont décrits avec une volonté de proposer quelques pistes d’origine dynamique. La dernière partie plus classique est une brève présentation des causes du réchauffement global, du futur du climat et des solutions possibles pour limiter la consommation des énergies fossiles. Recensons pour commencer quelques analogies et contrastes physiques entre atmosphère et océan : • L’eau. L’atmosphère ne contient qu’une fraction minime de l’eau sur Terre, tout le reste étant dans les océans (97 %) et dans les calottes de glace (2,2 %). • L’inertie thermique. On peut la mesurer par le produit [masse volumique × chaleur spécifique × épaisseur du fluide]. De ces trois facteurs le premier est le plus important car trois ordres de grandeur séparent la masse volumique de l’air (≈ 1 kg m–3) de celle de l’eau (≈ 103 kg m–3). Si la réponse de l’atmosphère

323

Une introduction à la dynamique des océans et du climat













324

à un flux de chaleur fixé à l’interface air-mer s’équilibre sur disons un mois, l’océan demandera une centaine d’années pour s’équilibrer à ce même flux. L’océan a donc un pouvoir gigantesque pour stocker de la chaleur sur de très longues périodes. L’équilibre du système couplé océan-atmosphère demande un temps d’ajustement 1 000 fois plus grand que celui d’une atmosphère seule, une des raisons pour le coût calcul très important d’un modèle de climat lorsque la circulation océanique est incluse. Transports méridiens de chaleur. Les objectifs énergétiques de l’atmosphère et de l’océan sont similaires : transférer l’excès de chaleur reçu à l’équateur vers les pôles. Si le flux méridien total maximal est de l’ordre de 6 PW (1 PW petawatt = 1015 W), la part atmosphérique est de 4 PW (les deux tiers) et celle de l’océan de 2 PW (le tiers). Échanges de gaz à l’interface air-mer. L’océan joue un rôle clé dans le contrôle de la composition de l’atmosphère : il produit de l’oxygène et enlève du dioxyde de carbone au travers de cycles biogéochimiques cruciaux pour la vie sur Terre et dans les mers. Le forçage radiatif. Les ondes électromagnétiques sillonnent l’atmosphère mais ne pénètrent que très peu dans la mer parce qu’elle conduit l’électricité à cause du sel décomposé dans l’eau en ion sodium Na+ et chlorure Cl–. La couche euphotique (éclairée) n’atteint qu’une centaine de mètres. Par voie de conséquence, le forçage radiatif (un peu solaire mais surtout infrarouge) est un flux d’énergie présent dans l’intérieur de l’atmosphère, mais n’est qu’une condition aux limites en surface pour l’océan. Le vent. C’est un des forçages essentiels pour l’océan via la tension de vent exercée à l’interface air-mer. Ce qui est force active pour l’océan devient frein pour l’atmosphère en vertu de la troisième loi de Newton, le principe d’Action et Réaction (si on somme les forces sur la profondeur de l’atmosphère et de l’océan, la tension du vent, une force intérieure, disparaît). Quand on considère maintenant l’énergie, le travail du vent sur l’océan est une source d’énergie essentielle pour l’océan tandis que le frottement sur la frontière inférieure est une dissipation d’énergie importante pour l’atmosphère. Les frontières. L’atmosphère n’est limitée que par le bas. La pression et la densité tendent vers zéro vers le haut. Au-delà de 100 km dans la thermosphère, les rayons ultraviolets dissocient les molécules d’oxygène et d’azote (le peu qu’il en reste) et l’air est ionisé. La couche importante pour le climat, la troposphère, ne fait qu’une vingtaine de kilomètres d’épaisseur et est donc du même ordre de grandeur que la profondeur de l’océan. Mais la principale différence concerne les frontières latérales : l’atmosphère est totalement libre de circuler autour de la planète quand l’océan est contenu dans des bols formés par les continents (sauf pour l’océan Austral). Ces conditions aux limites ont des conséquences majeures pour la forme de ces deux circulations. Compressibilité. Elle mesure la façon dont le volume change sous l’effet d’une force de pression. L’eau comme tous les liquides est essentiellement incompressible mais l’air, un gaz, est beaucoup plus compressible. La vitesse de propagation

4. Dynamique du climat

des ondes acoustiques, 300 m s–1 dans l’air, 1 500 m s–1 dans l’eau, donne une idée de ces différences. • Stratification en densité. Mesurée par la fréquence de Brünt Väisälä N, elle est d’un ordre de grandeur plus élevée dans l’atmosphère que dans l’océan. La conséquence est très intéressante, car les dépressions atmosphériques des moyennes latitudes (diamètre de 1 000 km) et les tourbillons océaniques (diamètre de 100 km) obéissent au même processus de génération, à savoir l’instabilité barocline, qui prédit une taille horizontale proportionnelle à cette stratification pour les mouvements les plus instables. En conséquence, on pourra loger au maximum 20 dépressions atmosphériques sur une région de 10 000 km × 2 000 km, mais 2 000 tourbillons océaniques (soit 100 fois plus). Sur cette base, on peut dire que la turbulence géostrophique de l’océan est plus riche que celle de l’atmosphère. La conséquence pratique pour un modèle de climat est que la taille de la grille océanique doit être aussi d’un ordre de grandeur plus petit que la taille de la grille atmosphérique faisant monter rapidement les coûts calcul.

4.1 Les acteurs du climat Sont maintenant présentés brièvement les acteurs climatiques et le terrain global sur lequel ils jouent.

4.1.1

L’océan

L’océan occupe 70,8 % de la surface de la Terre. Sa profondeur moyenne est de 3 800 m. Les trois quarts des océans ont des profondeurs comprises entre 3 000 et 6 000 m et seul 0,1 % ont des profondeurs qui dépassent 7 000 m (la profondeur maximale est de 10 803 m). Les plateaux continentaux avec des profondeurs de moins de 200 m occupent 2 % de la surface. Bien mélangés par les vents et les marées, les sels nutritifs de ces plateaux sont disponibles en surface pour la production primaire de phytoplancton et une forte activité de pêche en résulte. La distribution terre-mer est très asymétrique avec 80 % du total des terres dans l’hémisphère nord et 63 % du total des océans dans l’hémisphère sud. La figure 4-1-1 montre les bassins océaniques découpés par des dorsales intraplaques plutôt orientées dans la direction méridienne (sud-nord) sauf au sud de l’Australie et de la Nouvelle-Zélande. Les masses d’eau profonde d’origine nordatlantique (NADW), ou antarctique (AABW) sont formées près des pôles et leur circulation quasi horizontale dans l’intérieur est fortement structurée par cette topographie des fonds marins. Ces dorsales sont interrompues en des points clés par des fractures (des cols) qui vont jouer le rôle de déversoir pour permettre des passages d’eau d’un bassin à l’autre. L’observation des débits de ces déversoirs constitue des mesures importantes des variations des eaux profondes (zone de fracture CharlieGibbs, zone de fracture de la Romanche dans l’Atlantique).

325

4. Dynamique du climat

des ondes acoustiques, 300 m s–1 dans l’air, 1 500 m s–1 dans l’eau, donne une idée de ces différences. • Stratification en densité. Mesurée par la fréquence de Brünt Väisälä N, elle est d’un ordre de grandeur plus élevée dans l’atmosphère que dans l’océan. La conséquence est très intéressante, car les dépressions atmosphériques des moyennes latitudes (diamètre de 1 000 km) et les tourbillons océaniques (diamètre de 100 km) obéissent au même processus de génération, à savoir l’instabilité barocline, qui prédit une taille horizontale proportionnelle à cette stratification pour les mouvements les plus instables. En conséquence, on pourra loger au maximum 20 dépressions atmosphériques sur une région de 10 000 km × 2 000 km, mais 2 000 tourbillons océaniques (soit 100 fois plus). Sur cette base, on peut dire que la turbulence géostrophique de l’océan est plus riche que celle de l’atmosphère. La conséquence pratique pour un modèle de climat est que la taille de la grille océanique doit être aussi d’un ordre de grandeur plus petit que la taille de la grille atmosphérique faisant monter rapidement les coûts calcul.

4.1 Les acteurs du climat Sont maintenant présentés brièvement les acteurs climatiques et le terrain global sur lequel ils jouent.

4.1.1

L’océan

L’océan occupe 70,8 % de la surface de la Terre. Sa profondeur moyenne est de 3 800 m. Les trois quarts des océans ont des profondeurs comprises entre 3 000 et 6 000 m et seul 0,1 % ont des profondeurs qui dépassent 7 000 m (la profondeur maximale est de 10 803 m). Les plateaux continentaux avec des profondeurs de moins de 200 m occupent 2 % de la surface. Bien mélangés par les vents et les marées, les sels nutritifs de ces plateaux sont disponibles en surface pour la production primaire de phytoplancton et une forte activité de pêche en résulte. La distribution terre-mer est très asymétrique avec 80 % du total des terres dans l’hémisphère nord et 63 % du total des océans dans l’hémisphère sud. La figure 4-1-1 montre les bassins océaniques découpés par des dorsales intraplaques plutôt orientées dans la direction méridienne (sud-nord) sauf au sud de l’Australie et de la Nouvelle-Zélande. Les masses d’eau profonde d’origine nordatlantique (NADW), ou antarctique (AABW) sont formées près des pôles et leur circulation quasi horizontale dans l’intérieur est fortement structurée par cette topographie des fonds marins. Ces dorsales sont interrompues en des points clés par des fractures (des cols) qui vont jouer le rôle de déversoir pour permettre des passages d’eau d’un bassin à l’autre. L’observation des débits de ces déversoirs constitue des mesures importantes des variations des eaux profondes (zone de fracture CharlieGibbs, zone de fracture de la Romanche dans l’Atlantique).

325

Une introduction à la dynamique des océans et du climat

 Figure 4-1-1   Bathymétrie de l’océan mondial pour les profondeurs supérieures à 2000 m ; les régions de profondeurs supérieures à 6 000 m ont été comblées. L’intervalle entre les contours est de 500 m. D’après les données ETOPO1 data, Amante and Eakins (2009).

La Terre contient 1,335 109 km3 d’eau et l’énorme volume océanique va pouvoir stocker de la chaleur depuis l’échelle de la saison aux échelles millénaires. Il transporte à peu près un tiers de l’énergie de l’équateur vers les pôles, l’atmosphère effectuant les deux tiers. La figure 4-1-2 montre la température de surface de la mer ou SST (Sea Surface Temperature) moyenne dont la distribution géographique rend compte du climat actuel de la Terre. Cette distribution à l’interface air-mer est la variable de contrôle des flux de chaleur entre atmosphère et océan. La SST est le résultat de processus d’échanges complexes difficiles à observer entre deux couches limites, la couche limite planétaire dans l’atmosphère avec une épaisseur typique de l’ordre du kilomètre et la couche de mélange océanique avec une épaisseur de l’ordre de la cinquantaine de mètres. Un modèle d’atmosphère a besoin de cette seule SST comme condition aux limites à sa base et son observation quotidienne est cruciale pour la prédiction du temps (weather). Évidemment le problème est tout autre pour la prédiction du climat : la SST devient alors une variable d’évolution déterminée par les flux de chaleur (qui dépendent eux-mêmes de la SST) et par les courants océaniques de surface (qui dépendent aussi du vent). La SST de la figure 4-1-2 varie entre 0 °C et 28 °C, deux extrêmes qui sont contrôlés par les changements de phase de l’eau. Le minimum de SST est proche de 0 °C dans les régions polaires, une limite basse facile à comprendre puisque l’on est proche du point de congélation de l’eau de mer (–1,9 °C à une salinité de 35 o/oo). Le flux de chaleur en surface peut continuer à extraire de la chaleur de l’océan, la SST ne descendra pas en dessous, car la glace de mer va se former. Le maximum de

326

4. Dynamique du climat

SST lui ne dépasse pas beaucoup 28 °C dans les régions tropicales avec une zone chaude privilégiée sur le Pacifique ouest et l’Est Indien. Bien sûr le rayonnement solaire est maximum dans ces régions, mais il est plus difficile de savoir pourquoi on observe 28 °C et pas 20 °C ou 40 °C. L’autre changement de phase, liquide-vapeur cette fois, est impliqué. La quantité de vapeur d’eau que l’air peut contenir au voisinage de la mer augmente exponentiellement avec la SST. Mais ce changement de phase prend son énergie à l’océan et est donc un facteur de diminution de la SST, et donc de la cause initiale. On peut remarquer que lorsque les SST dépassent cette valeur moyenne de 28 °C, les cyclones tropicaux se déclenchent : ils peuvent donc être considérés comme un facteur limitant de la SST.

 Figure 4-1-2  La température de surface de la mer (SST) en moyenne annuelle. L’intervalle entre les isothermes (noir) est de 2 °C. Climatologie WOA 2009.

On remarque sur la figure 4-1-2 une grande différence entre les isothermes de l’hémisphère sud qui varient peu en longitude et ceux de l’hémisphère nord. On observe, notamment dans l’Atlantique nord, des isothermes en forme d’éventail plus ou moins déplié et centré au bord Ouest. Aux basses latitudes, les bords Est sont plutôt froids pour devenir chauds aux hautes latitudes, caractéristiques induites par la circulation anticyclonique des gyres océaniques. Aux mêmes latitudes dans le Pacifique nord, les isothermes restent plus zonaux que dans l’Atlantique nord, une conséquence de la faiblesse de la circulation méridienne et de l’absence de la formation d’eau profonde dans le Pacifique. Bien que soumis à un rayonnement solaire et à un forçage en vent équivalents, ces deux océans sont très différents. On peut noter finalement la langue d’eau froide du Pacifique équatorial est. La présence du réservoir chaud à l’ouest et du réservoir froid à l’est est à l’origine du phénomène El Niño (ENSO), une des signatures les plus claires du couplage océan-atmosphère à l’origine de la variabilité tropicale sur des périodes de 3 à 7 ans.

327

Une introduction à la dynamique des océans et du climat

4.1.2

La cryosphère

Environ 2 % de l’eau sur Terre est gelée et cette fraction constitue 80 % de l’eau douce. La masse de glace est contenue à 89 % dans la calotte Antarctique et 8,6 % dans celle du Groenland. Ces calottes de glace se construisent par les précipitations de neige en surface et s’érodent par l’intermédiaire des glaciers qui s’écoulent par gravité vers les frontières des calottes. Pour le climat de la Terre, ce n’est pas tant la masse de glace qui est importante que sa surface. On définit l’albédo d’une surface comme le rapport entre le rayonnement réfléchi et le rayonnement solaire incident. Comme l’albédo de la glace est important, les calottes polaires permettent de réfléchir considérablement le rayonnement solaire vers l’espace. La glace de mer, la banquise, a aussi ce pouvoir réfléchissant, mais un effet supplémentaire apparaît. Quand l’eau de mer atteint le point de congélation, elle gèle et le rôle joué par la banquise est maintenant celui d’un isolant thermique entre atmosphère et océan. L’atmosphère au-dessus de la banquise pourra atteindre des températures négatives extrêmes alors que l’océan protégé restera au voisinage du point de congélation. Les surfaces et les volumes des différents compartiments sont indiqués dans le tableau ci-dessous :  Tableau 4-1  Source Hartmann (1994). Surface km2

Volume km3

Calotte Antarctique

13,9 106

30,1 106

Calotte du Groenland

1,7 106

2,6 106

Glaciers de montagne

0,5 106

0,3 106

Pergélisol (glace dans le sol)

25 106

0,2-0,5 106 (contenu en glace)

Glaces de mer océan Austral [Min Max]

[3 106, 18 106]

[6 103, 2 104]

Glaces de mer Océan Arctique [Min Max]

[8 106, 15 106]

[2 104, 4 104]

Le rôle joué par les calottes de glace de l’Antarctique et du Groenland sur les observations des climats passés est très important, car on s’est aperçu dans les années 1980 que l’histoire du climat du dernier million d’années y était inscrite (comme dans les sédiments marins). Ces paléo-observations jouent depuis un rôle considérable en fournissant la signature d’autres périodes climatiques (glaciaires et interglaciaires) ayant existé sur Terre.

4.1.3

La Terre

La surface terrestre joue un rôle moins important pour les conditions thermiques de la planète que l’atmosphère et l’océan, mais évidemment les hommes y vivent

328

4. Dynamique du climat

et c’est aussi pour eux que l’avenir du climat est fondamental. La température, l’humidité de l’air et les précipitations sont les variables clés pour l’agriculture. L’albédo de la surface terrestre joue aussi un rôle, l’état de la surface étant plus ou moins réflectif du rayonnement solaire. L’albédo est ainsi maximum pour la neige fraîche (0,7) et décroît ensuite pour le désert (0,3), la végétation basse (0,2), puis les forêts (0,15). La Terre influe de façon majeure sur l’atmosphère par la distribution du relief qui modifie la circulation. Un fluide en rotation rapide est très sensible aux variations topographiques et l’atmosphère n’y fait pas exception (voir § 3.3.1.4). Les deux grandes élévations que constituent la chaîne de montagnes de l’Amérique (Rockies au nord et Cordillère des Andes au sud) et le plateau tibétain structurent la circulation atmosphérique. Dans une perspective climat, le cycle du carbone est impliqué sur la Terre au travers de deux processus : 1) le lessivage (weathering) par les pluies acides des roches silicatées qui produit carbonate de calcium et silice. Le dioxyde de carbone de l’atmosphère est ainsi consommé et transféré dans une molécule de carbonate de calcium. Ces carbonates de calcium atteignent l’océan par les rivières et éventuellement le fond de la mer ; 2) la végétation terrestre dont les réactions de photosynthèse capturent le dioxyde de carbone et dont la décomposition de la matière organique le restitue. À l’équilibre, ces deux effets se compensent mais la transformation de l’usage des sols par la déforestation des forêts tropicales devient une source de dioxyde de carbone pour l’atmosphère.

4.1.4

L’atmosphère

L’atmosphère joue le premier rôle pour notre survie, mais son état et son évolution dépendent pour beaucoup de l’océan et des couvertures de glace polaire. Les deux éléments principaux qui définissent le climat pour l’observateur de tous les jours sont la température et la pluie, qui contrôlent le développement des espèces végétales et animales pouvant survivre en un endroit donné. L’humidité (vapeur d’eau) est aussi une variable climatique importante à cause de sa contribution comme gaz à effet de serre. Lors de sa condensation en altitude, les nuages apparaissent et influencent le rayonnement solaire et le rayonnement infrarouge émis par la Terre. Le vent est évidemment crucial pour les marins (génération des vagues et propulsion à la voile), les pilotes d’avion, le climat local, les énergies éoliennes, la dispersion des pollutions urbaines, et son intensité lors des tempêtes extrêmes est le facteur majeur pour assurer la résistance de l’architecture des bâtiments. Et puis il y a une quantité très facile à mesurer, la pression au niveau de la mer, une observation qui a été à l’origine du développement de la météorologie dynamique.

329

Une introduction à la dynamique des océans et du climat

4.1.4.1

La température

La température moyenne à la surface de la Terre est de 15 °C, alors que les extrêmes vont de –89 °C à Vostok en Antarctique à +58 °C dans le désert libyen.

Stratosphère

Trosposphère

 Figure 4-1-3  La distribution moyenne de la température atmosphérique en fonction de l’altitude. La droite horizontale montre la limite de la troposphère, la couche inférieure importante pour le climat. Profil « 1976 US Standard Atmosphere ».

La température décroît avec l’altitude sur les 10-15 premiers kilomètres de l’atmosphère, une région appelée troposphère où le gradient de température (lapse rate) affecté du signe – vaut : dT Γ=− ≈ 6, 5o C km −1 dz Ce gradient Γ varie un peu selon la latitude et la saison. Le minimum de température ici vers 16 km sur la figure 4-1-3 définit la tropopause moyenne. Au-dessus la température augmente avec l’altitude et on parle d’inversion de la température dans cette région nommée stratosphère. Sa limite supérieure se situe vers 50 km, la stratopause. La question immédiate est celle de la stabilité de la troposphère : comment de l’air chaud donc léger peut-il se retrouver en moyenne sous de l’air froid ? La figure suivante montre que ceci se retrouve à toutes les latitudes. Sur une large bande équatoriale la température de surface reste autour de 26 °C puis décroît presque linéairement vers les pôles. On remarquera que la température descend plus bas dans l’hémisphère sud à cause de la présence de la calotte Antarctique. La différence de température de surface de l’air entre équateur et pôle est de 40 °C environ, une valeur qui définit un indice climatique fondamental pour la période actuelle. Notez qu’à 500 hPa (5 km environ), toutes les températures sont négatives.

330

4. Dynamique du climat

La température est constante de 20 °S à 20 °N et on retrouve la même décroissance vers les pôles. La figure suivante 4-1-5 illustre les variations saisonnières de la température au sol.

 Figure 4-1-4  La température moyennée zonalement en [oC] en fonction de l’altitude et de la latitude, au sol, 1 000 hPa et en altitude à 500 hPa. Source : Réanalyse NCEP.

 Figure 4-1-5  La valeur absolue de la différence entre température de l’air du mois de janvier et celle du mois de juillet. Source : Réanalyse NCEP.

Cette différence de température de l’air en surface entre le mois de janvier et le mois de juillet illustre le rôle fondamental de l’océan sur les variations saisonnières du climat : alors que le contraste thermique été-hiver peut atteindre 40 °C sur les continents, il ne dépasse que rarement les 10 °C sur les océans. En conséquence, les variations saisonnières sont plus grandes dans l’hémisphère nord puisque

331

Une introduction à la dynamique des océans et du climat

70 % de la surface terrestre se situe dans cet hémisphère. Cet amortissement des contrastes d’un climat océanique est essentiellement dû au stockage de chaleur dans les couches superficielles de l’océan pendant la période estivale rendu possible par l’inertie thermique considérable de l’eau. On remarquera aussi dans la bande de latitude 30 °N - 60 °N que les effets d’un climat continental se propagent sur les bords Ouest des océans alors que ceux d’un climat océanique rentrent sur les continents au voisinage des bords Est. Ce sillage des continents se retrouve aussi dans l’hémisphère sud. Ces effets sont une conséquence directe de la présence des vents d’ouest (vers l’est) à ces latitudes.

4.1.4.2

La composition de l’atmosphère

Celle-ci est composée de différents gaz dont parmi les principaux :  Tableau 4-2  1 ppmv ou partie par million par volume = 10–6, 1 ppbv ou partie par milliard par volume = 10–9. Les gaz inertes en noir, les gaz radiativement actifs en caractères gras. Source : Hartmann (1994) et Wallace et Hobbs (2006). Gaz

Formule chimique

Air sec

Masse molaire [g]

% en volume (à p = 1 atm)

Masse totale [g]

28,97

100 %

5,12 1021

Temps de résidence TR

Sources principales

Azote

N2

28,013

78 %

3,87 1021

1,6 107 ans

biogénique

Oxygène

O2

32,000

21 %

1,18 1021

3 000-4 000 ans

biogénique

Argon

Ar

39,95

0.93 %

6,59 1021

Vapeur d’eau

H2O

18,016

variable

~1,7 1019

390 ppmv en 2010 ~2,76 1018 (mais 353 en 1990 (1990) et 315 en 1958)

Dioxyde de Carbone

CO2

44,01

Méthane

CH4

16,04

1,7 ppmv

Oxyde nitreux

N 2O

56,03

0,31 ppmv

Ozone

O3

48,00

10-100 ppbv

~4,9 1015

~3,3 1015

radiogénique

jours

océanique, volcanisme

3-4 ans

biologique, océanique, volcanisme et anthropique

9 ans

biologique, le gaz des marais

150 ans

biologique et anthropique

jours semaines

photochimique (stratosphère)

Sont indiqués dans ce tableau les gaz dits à effets de serre capables d’absorber le rayonnement infrarouge émis par la Terre pour le re-émettre vers le haut et vers le bas selon leur température propre (elle-même fonction de l’altitude). Ce sont les gaz les plus importants pour le climat, mais ils ne contribuent que pour moins de 1 %

332

4. Dynamique du climat

de la masse totale. En état stationnaire (en absence de changement climatique), la masse totale de chaque gaz est constante. Il peut y avoir production ou consommation interne et entrée-sortie aux frontières (océan, sol), mais le total de tous ces flux est alors par définition zéro. Le temps de résidence TR indiqué sur le tableau 4-2 est égal à la masse du gaz (le stock en kg) divisée par la partie négative du flux, soit celle qui diminue le stock (en kg s–1). On remarque qu’à l’exception de la vapeur d’eau (et de l’ozone) les temps de résidence sont très longs. Il faut les comparer à l’échelle de temps advective que l’on peut construire à partir de la vitesse typique du vent U et de la taille L du domaine. Ainsi TA = L/U est-il le temps mis par une particule d’air pour parcourir la distance L à la vitesse U. Avec L égale au rayon de la Terre et une vitesse typique de vent U = 10 m s–1, TA ≈ 1 semaine. Lorsque le temps de résidence est grand devant TA (TA/TR expression dans laquelle les variations de ρ peu importantes pour l’argumentation sont négligées. La covariance HF représente donc le flux de quantité de mouvement zonale effectué par les transitoires à une latitude y. Au signe près, ce terme est une composante des tensions de Reynolds qui expriment les forces exercées par la turbulence sur la circulation moyenne. Puisque est positif au sud de ~45 °N et négatif au nord sur la figure 4-1-17, ce flux de quantité de mouvement est convergent. On peut imaginer des mouvements turbulents en arêtes de poisson sur la figure ci-dessous :

HF< 0 Le jet zonal moyen < u’ v’>HF> 0

accélère:

du >0 dt

 Figure 4-1-18  Une arête de poisson illustre des mouvements de particules fournissant des covariances positives (négatives) au sud (nord) de la région. La convergence de ces HF augmente la quantité de mouvement au centre : le vent en moyenne zonale u accélère.

354

4. Dynamique du climat

Les transitoires apportent de la quantité de mouvement dans la région centrée autour de 45 °N, ce qui va renforcer le jet zonal visible sur la figure 4-1-12. Mais en régime stationnaire les forces sont équilibrées et l’accélération est nulle. Lorsque l’on raisonne sur la circulation en moyenne zonale, les gradients de pression n’interviennent plus. Plaçons-nous dans l’hémisphère nord : la vitesse en altitude de la cellule de Ferrel est vers le sud. Lui est associée une force de Coriolis vers l’ouest et c’est elle qui vient maintenant équilibrer la convergence de quantité de mouvement, la force exercée par la turbulence vue plus haut. Dans les basses couches, la vitesse de la cellule de Ferrel est vers le nord, la force de Coriolis est donc vers l’est et c’est maintenant la force de frottement au sol qui équilibre la force de Coriolis (la force de frottement exercée par la Terre sur l’atmosphère est vers l’ouest puisque le vent est vers l’est). L’interaction de la turbulence et des vents moyens des moyennes latitudes est captivante : la turbulence tire son énergie de l’énergie potentielle moyenne mais elle exerce aussi une force qui accélère le vent moyen par ce processus de convergence, s’ensuit cette circulation de Ferrel dans le plan méridien. Ce sujet occupe une grande partie des recherches du domaine (voir le livre de Vallis, 2017). Comment joindre les deux régimes de Rossby et Hadley ? On pourrait dire que la latitude maximale de la cellule de Hadley est celle où la vitesse zonale du jet prédite par la conservation du moment cinétique vient s’ajuster à la vitesse géostrophique du régime de Rossby. On peut aussi se demander pourquoi le régime turbulent reste cantonné aux moyennes latitudes et n’envahit pas les régions tropicales. Le critère de Eady rappelé précédemment dans le cadre de l’expérience de laboratoire revient à remplacer 2Ω par f, le paramètre de Coriolis quand on l’adapte au cas terrestre : N H 1.19 < fλ 2π Avec N = 1,2 10–2 s–1, H = 7,4 km et θ = 10o, cette inégalité exige λ > 18 600 km. La faible rotation effective au voisinage de l’équateur (f petit) repousse l’instabilité barocline à des échelles très grandes justifiant le traitement axisymétrique de la circulation aux basses latitudes. Ceci n’est qu’une estimation plausible car beaucoup d’ingrédients manquent dans cette argumentation. Le modèle conceptuel important pour rationaliser la présence de la cellule de Hadley jusqu’à 30° de latitude est celui de Held et Hou (1980) qui ont réussi un tour de force pour reconstruire une cellule de Hadley en prenant en compte les exigences des équilibres de masse, de chaleur et de moment cinétique (une version simplifiée est fournie dans Vallis, 2017).

355

Une introduction à la dynamique des océans et du climat

4.2 Équilibre radiatif et effet de serre La circulation de l’atmosphère juste décrite découle des différences de pression, elles-mêmes découlant des différences de température. Mais on peut dire à l’inverse que la température est transportée et donc imposée par la circulation (l’équation des traceurs). Certes mais pas seulement, car des forçages thermiques radiatifs (le rayonnement électromagnétique), externes et internes, sont à l’œuvre dans l’atmosphère. Leur structure va être présentée ici et va permettre d’expliquer comment la Terre contrôle sa température globale en équilibrant ses flux externes en entrée (le rayonnement solaire) et ses flux internes en sortie (le rayonnement infrarouge). Comme la Terre obtient de l’énergie à partir du Soleil pour se réchauffer, Fourier (1827) réalise qu’elle doit en perdre autant par rayonnement infrarouge (la chaleur obscure) pour atteindre un équilibre thermique. Il comprend que l’atmosphère est essentiellement transparente à la lumière solaire, que cette lumière solaire est absorbée à la surface terrestre puis convertie en rayonnement infrarouge et réémise vers le haut. Comme l’atmosphère est relativement opaque au rayonnement infrarouge, il voit que sa température doit augmenter pour que le bilan de chaleur au sommet de l’atmosphère soit équilibré. Il faudra attendre encore un siècle et la révolution quantique pour relier le flux d’énergie du rayonnement émis par un objet à sa température et à la longueur d’onde du rayonnement et encore un siècle pour expliquer comment la convection impose le gradient thermique sur la verticale, et identifier le rôle des constituants mineurs comme la vapeur d’eau et le dioxyde de carbone. Le rôle des nuages et de la vapeur d’eau et bien sûr de l’océan continue de handicaper aujourd’hui les théories du climat. Voir Pierrehumbert (2004) et Dufresne (2006) pour des comptes rendus de la découverte de l’effet de serre par Fourier.

4.2.1

Modèle de climat à l’équilibre (EBM, Energy Balance Model)

L’énergie radiative d’origine tant solaire que terrestre est transportée dans l’espace par des ondes électromagnétiques qui se propagent à la vitesse de la lumière c. Ainsi fréquence ν (le nombre d’oscillations par seconde) et longueur d’onde λ (la distance entre deux crêtes) sont-elles reliées par : n = c/l avec c = 2,998 108m s −1 Selon les situations, la fréquence, la longueur d’onde ou le nombre d’onde k = 1/λ sont utilisés pour définir un rayonnement. Dans le contexte présent, la longueur d’onde est donnée en micron noté µ (1µ = 10–6 m). Dans l’espace interstellaire la propagation dans le vide se fait sans atténuation, mais ce n’est plus le cas dans l’atmosphère car les molécules de gaz, les gouttes de pluie et les aérosols peuvent s’interposer pour diffuser le rayonnement, l’absorber et le réémettre, toutes interactions qui dépendent de la longueur d’onde du rayonnement. La mécanique quantique a donné les règles d’interaction entre la matière et le rayonnement : la lumière est vue

356

4. Dynamique du climat

comme composée de particules, des photons d’énergie et de longueur d’onde bien déterminées et la matière comme des oscillateurs possédant des niveaux d’énergie discrets. Lorsqu’un photon a la bonne longueur d’onde pour permettre la transition entre deux niveaux d’énergie, le photon est absorbé et l’atome passe dans un état excité. Si cet état est instable, un photon est réémis lorsque l’atome revient à son état fondamental. Un corps porté à une certaine température émet du rayonnement, ondes ou photons selon le point de vue, de longueurs d’onde variées : on est chauffé devant un feu de cheminée par la propagation de ces ondes électromagnétiques. Un corps noir (black body) est un matériau qui ne laisse rien passer et absorbe toutes les radiations incidentes sur lui. Planck a pu déterminer l’énergie maximale émise, fonction de la longueur d’onde λ et de la température T, pour ce corps idéalisé. Lorsque l’on fait la somme sur toutes les longueurs d’onde de la loi de Planck, le rayonnement total du corps noir est donné par :

E bb = σ T 4 4-2-1

la loi dite de Stefan-Boltzmann avec σ = 5,67 10–8 W m–2 K–4 qui relie le flux émis à la température T du corps. La loi de Wien, une conséquence de la loi du rayonnement du corps noir, lie la température d’un corps et la longueur d’onde du maximum d’énergie rayonnée : 4-2-2 λMAX = 2897/T avec la longueur d’onde λMAX en micron et la température T en Kelvin. D’après cette relation, le rayonnement émis par le Soleil (6 000 K) est donc centré autour de 0,48 µ et s’étend entre 0,3 et 0,7 µ. Les longueurs d’onde inférieures à 0,3 µ, les rayons ultraviolets, sont absorbés par la couche d’ozone O3 dans la stratosphère. Les températures de la Terre, des océans et de l’atmosphère étant beaucoup plus basses, la loi de Wien indique que le rayonnement infrarouge émis par la Terre (≈ 300 K) est centré autour de 10 µ. Les longueurs d’onde comprises entre 5 et 100 µ appartiennent au domaine du rayonnement dit infrarouge. Compte tenu du manque de recouvrement de leurs longueurs d’onde, le rayonnement solaire et le rayonnement infrarouge peuvent se traiter indépendamment l’un de l’autre. Le soleil délivre un flux constant d’énergie L0 (= 3,9 1026 W), appelée luminosité. À une distance d du soleil, le flux d’énergie solaire est simplement : S0 =

L0 4πd 2

Avec d = 1,5 1011 m la distance moyenne entre la Terre et le Soleil, S0 = 1 367 W m–2, ce que l’on appelle la constante solaire. Quasi constante car elle n’augmente que très lentement à l’échelle du milliard d’années. Maintenant ce qui est effectivement reçu en un point sur la Terre dépend du cosinus de l’angle entre les rayons solaires et la normale à la surface de la sphère. La difficulté est que cet angle change constamment à cause de la rotation de la Terre sur elle-même et autour du Soleil. Le plan de la trajectoire de la Terre autour du Soleil appelé écliptique fait aujourd’hui un angle ε = 23,4° avec le plan équatorial appelé obliquité. La figure ci-dessous permet d’illustrer la situation aux deux solstices d’été et d’hiver.

357

Une introduction à la dynamique des océans et du climat

N

S

N

S

 Figure 4-2-1  La situation de la Terre au solstice d’été, du 21 juin à gauche et au solstice d’hiver du 21 décembre à droite. L’axe de rotation de la Terre est la ligne des pôles SN. L’obliquité ε = 23,4° est l’angle entre les rayons solaires et le plan équatorial, mais aussi l’angle entre le plan de l’écliptique et l’axe de rotation. Le 21 juin, un rayon solaire est normal à la sphère terrestre au tropique du Cancer dont la latitude est donc 23,4 °N. Le 21 décembre, un rayon solaire est normal à la sphère terrestre au tropique du Capricorne (en pointillé) dont la latitude est donc 23,4 °S. Les cercles Arctique (Antarctique), ligne solide (pointillée), déterminent les latitudes [90-23,4 = 66,6°) au-delà desquelles le jour (ou la nuit) est permanent (selon le solstice).

Compte tenu de l’obliquité, le flux solaire moyenné sur le jour au sommet de l’atmosphère (TOA Top of Atmosphere) dépend de la latitude et du mois de l’année de la façon suivante :

 Figure 4-2-2  Le flux solaire moyen en W m–2 au sommet de l’atmosphère (TOA, Top of Atmosphere) en fonction du temps et de la latitude pour l’année 2017.

358

4. Dynamique du climat

Ce flux solaire moyen est la première contrainte fondamentale qui détermine le climat de la Terre (l’autre étant la composition des gaz de l’atmosphère). On notera que les variations saisonnières augmentent avec la latitude et que le maximum d’insolation se retrouve en été aux plus hautes latitudes. Le maintien des glaces polaires d’une année sur l’autre va donc être très sensible à ces valeurs d’été, elles-mêmes contraintes par l’obliquité qui change sur de longues périodes. Lorsque l’on moyenne les valeurs de la figure 4-2-2 sur l’année, on obtient la distribution suivante :

 Figure 4-2-3  Le flux solaire en moyenne annuelle en W m–2 au sommet de l’atmosphère (TOA).

La moyenne annuelle du flux solaire incident de la figure 4-2-3 permet de quantifier le déséquilibre du forçage avec la latitude : plus de 400 W m–2 arrivent dans les régions équatoriales comparées à environ 170 W m–2 aux pôles. Atmosphère et océan sont mis en mouvement par ce déséquilibre et transportent l’excès des flux solaires des basses vers les hautes latitudes en déficit pour stabiliser (tempérer) le contraste thermique Pôle-Équateur. Avant de considérer les mouvements fluides mis en jeu par ce déséquilibre radiatif au sommet de l’atmosphère, commençons par nous poser la question de la température moyenne de la Terre en réponse au forçage solaire net. La quantité d’énergie qui arrive en moyenne sur la sphère terrestre peut se calculer facilement avec le dessin suivant :

FLUX SOLAIRE

 Figure 4-2-4  Le flux solaire incident est intercepté par la surface correspondant à l’ombre de la Terre, le disque hachuré de surface π rT2 (rT le rayon terrestre).

359

Une introduction à la dynamique des océans et du climat

La surface hachurée est l’ombre de la Terre sur un plan perpendiculaire aux rayons incidents. Comme cette surface vaut π rT2 (rT le rayon terrestre), le flux reçu par la Terre est simplement S0 π rT2. Une partie de ce rayonnement solaire est réfléchie, l’albédo étant le rapport entre énergie réfléchie et énergie incidente. L’albédo α est grand (~0,5) dans les régions polaires à cause de la glace (0,3 à 0,7) pour les nuages, assez important sur les déserts (~0,35) et plus faible sur les océans (0,02 à 0,1). Une valeur moyenne globale est α ≈ 0,3. La quantité absorbée qui nous intéresse est donc (1-α) S0 π rT2. Si la Terre émet comme un corps noir, ce flux solaire entrant doit être égal à l’équilibre au flux émis par toute la surface de la sphère à la température cherchée TE, soit : S0(1 − α) πrT2 = σ TE4 4πrT2 Cette relation définit le forçage solaire moyen S0(1 − α) / 4 à la surface de la Terre, proche de 240 Wm–2, et TE la température d’émission de la planète : S0(1 − α) ≈ 240Wm −2 = σTE4 4 Avec les valeurs ci-dessus, on trouve TE ≈ 255 K = –18 °C. Comme la température moyenne à la surface de la Terre est de +15 °C, ce modèle prédit une température trop basse de 33 °C environ. Essentiellement il manque une atmosphère. La vapeur d’eau H2O, le dioxyde de carbone CO2 et le méthane CH4 sont ce que l’on appelle des gaz à effet de serre. Les molécules de ces gaz vibrent pour certaines longueurs d’onde dans la gamme infrarouge. Lorsque le rayonnement possède une de ces longueurs d’onde, il peut être absorbé par une molécule qui passe dans un état excité. Cet état est instable et le rayonnement est alors réémis dans toutes les directions. Le modèle le plus simple que l’on puisse imaginer pour rendre compte de cette situation est celui d’une atmosphère transparente au flux solaire et opaque au flux infrarouge (on voit sur la figure 4-2-6 qu’en réalité 25 % du flux solaire et 90 % des flux infrarouges sont absorbés par l’atmosphère). S0(1-α)/4

σTA4

Atmosphère σTS4

σTA4

 Figure 4-2-5  L’atmosphère est supposée ici opaque au rayonnement infrarouge (gris) et transparente au flux solaire (pointillé).

360

4. Dynamique du climat

L’équilibre des flux au sommet de l’atmosphère est identique au cas précédent et donc TA = TE. Pour déterminer la température au sol TS, l’équilibre des flux au sol donne : S0(1 − α) + σTA4 = σTS4 4 et donc : σTS4 = 2σTA4 = 2σTE4 une dernière relation qui n’est autre que l’équilibre des flux infrarouges pour l’atmosphère. Ainsi TS = 21/4TE ≈ 303 K = 30 °C. L’équilibre au sol montre qu’en fait : 2x

S0(1 − α) = σ TS4 4

Le sol reçoit maintenant non seulement le rayonnement solaire mais aussi une même quantité de flux infrarouge de l’atmosphère dirigé vers le bas de sorte que le sol reçoit maintenant l’équivalent de deux fois le rayonnement solaire. À l’équilibre, le sol doit donc augmenter un peu sa température pour pouvoir réémettre ce forçage double. Ce que l’on appelle l’effet de serre G est la différence entre l’infrarouge émis par la surface terrestre et celui émis au sommet de l’atmosphère (encore appelé OLR (pour Outgoing Long wave Radiation) : G = σTS4 − σTA4 = σTE4 =

S0(1 − α) 4

L’effet de serre est donc ici égal au rayonnement solaire absorbé au sol. Il y a augmentation manifeste de température au sol, mais celle-ci est maintenant trop chaude par rapport aux observations. On en déduit que l’atmosphère n’est probablement pas ce corps noir idéal qui émet avec la loi 4-2-1, une hypothèse sur laquelle on reviendra au § 4.2.2. Notons qu’il manque aussi dans ce calcul l’océan qui perd de la chaleur au profit de l’atmosphère via des flux qui ne sont pas d’origine radiative (voir figure 4-2-6). Quelle est la situation des planètes voisines ?  Tableau 4-3  L’unité astronomique UA est la distance moyenne Terre-Soleil = 1,5 1011 m. Planète

Distance au Soleil (UA)

Constante solaire S0

Albédo α

Température d’émission TE (K)

Température de surface observée TS (K)

Mercure

0,39

8 994

0,06

439

452

Vénus

0,72

2 639

0,78

225

735

Terre

1

1 368

0,3

255

288

Mars

1,52

592

0,17

216

227

Le tableau 4-3 donne les données de flux solaire et infrarouge et d’albédo pour les planètes dites telluriques, voisines de la Terre et de masse volumique similaire.

361

Une introduction à la dynamique des océans et du climat

Si on compare les deux dernières colonnes, on voit que la température d’émission explique assez bien la température de surface pour Mercure et Mars dont l’effet de serre est peu important. En revanche, Vénus n’a plus de vapeur d’eau mais une épaisse atmosphère de dioxyde de carbone, et l’effet de serre y est gigantesque et la température très élevée. Pourquoi ces planètes sont-elles si différentes est discuté au § 4-5-2. L’équilibre énergétique du climat actuel sur la Terre donné par Wild et al. (2013) est le suivant :

 Figure 4-2-6  Les flux d’énergie de l’atmosphère recalculés par Wild et al. (2013). La somme des flux entrant au sommet de l’atmosphère est de +1 Wm–2 et de 0,6 Wm–2 au niveau du sol (la part du réchauffement global). Les chiffres entre parenthèses donnent une idée des erreurs de mesure. Source : Wild et al. (2013).

Tous les flux du diagramme ci-dessus sont en W m–2 et il faut donc multiplier par la surface de la Terre pour obtenir un total en Watt. On s’aperçoit qu’il y a une part non négligeable du forçage solaire incident qui est absorbé par l’atmosphère (79 W m–2) qui n’est donc pas si transparente. N’arrive à la surface de la Terre que 161 Wm–2 au lieu de 240 dans le schéma précédent. L’infrarouge émis par la Terre est de 398 Wm–2 dont une partie 40 Wm–2 traverse l’atmosphère sans absorption dans une fenêtre atmosphérique. L’atmosphère renvoie vers l’espace 239 Wm–2 (l’OLR), de sorte que l’effet de serre n’est donc ici que G = 398 – 239 = 159 W m–2. Le gain des flux radiatifs pour la Terre est de 342 + 161 – 398 = 105. L’équilibre énergétique demande un océan qui perde cette même chaleur au profit de l’atmosphère via des flux non radiatifs : le flux de chaleur latente (lié à l’évaporation) de

362

4. Dynamique du climat

84 Wm–2 et le flux de chaleur sensible 20 Wm–2, sont ces deux flux qui viennent chauffer l’atmosphère par-dessous. Les pertes radiatives pour l’atmosphère intérieure sont de + 79 + 398 – 342 – 239 = –104 W m–2 à nouveau compensées par ces flux air-mer. Au sommet de l’atmosphère, le flux net est 340 – 100 – 239 = 1 W m–2. À flux solaire constant, cela indique que le climat se réchauffe car l’OLR a diminué de 1 W m–2. Les pertes infrarouges ont diminué car la température d’émission a diminué. C’est le déséquilibre du système climatique dans son ensemble que l’on voit ici, dont on se demande s’il est anecdotique compte tenu des barres d’erreurs importantes sur les mesures de tous ces flux. Comme l’océan est le composant avec la plus grosse capacité thermique, on devrait voir son contenu de chaleur augmenter en réponse à ce déséquilibre. C’est le cas en effet, car depuis l’échantillonnage intense par les flotteurs Argo, l’estimation du gain de chaleur océanique mesurée est d’environ 0,6 W m–2 (Hansen, 2013). Le bilan des flux entrant au sommet de l’atmosphère sur la figure 4-2-6 a donc été réajusté à une valeur de +1 W m–2 pour être plus consistent avec ce réchauffement océanique. Le modèle précédent d’une atmosphère se comportant comme un corps noir ne permet pas de poser le problème potentiel du réchauffement global et de l’accroissement des gaz à effets de serre. Cette atmosphère noire, totalement opaque, cause un effet de serre qui est déjà au maximum et l’accroissement du dioxyde de carbone n’y peut rien changer. En réalité la figure 4-2-6 montre bien que les gaz et les particules atmosphériques réfléchissent et transmettent une partie du rayonnement et que ce ne sont donc pas des corps noirs. Si on veut saisir la problématique du réchauffement global, il faut aller plus loin dans l’interaction entre gaz et rayonnement. La complexité de la propagation du rayonnement dans l’atmosphère ne permet pas d’inclure ici un traitement approfondi mais comme cette physique est aussi la clé de l’explication du réchauffement climatique actuel, il s’avère indispensable d’en présenter au moins les grandes lignes dans le paragraphe suivant.

4.2.2

Interaction rayonnement et gaz à effet de serre

L’interaction entre le rayonnement, les ondes électromagnétiques, et les gaz et aérosols est une part importante des échanges thermiques au sein de l’atmosphère. La physique de l’interaction matière-rayonnement a été à l’origine de la révolution de la mécanique quantique du début du xxe siècle qui a trouvé les règles gouvernant les propriétés de la matière au niveau atomique et sub-atomique, ce dont était incapable la physique classique. Einstein a proposé que l’énergie lumineuse n’existait qu’en morceaux élémentaires (ou quanta) appelés photons. Ainsi le photon possède-t-il un quantum d’énergie proportionnel à la fréquence du rayonnement : E n = hˆ ν avec la constante de Planck hˆ = 6,625 10−34 J s La quantité d’énergie lumineuse la plus petite est donc celle d’un seul photon et l’énergie totale d’un rayonnement électromagnétique est toujours un multiple de

363

Une introduction à la dynamique des océans et du climat

l’énergie du photon. La propagation des ondes dans l’atmosphère est complexe car les photons interagissent avec les molécules des gaz et avec les corps solides, gouttes d’eau liquide ou poussières qui composent les aérosols, des particules dont la taille va de 10–10 m (la taille d’un atome) au cm (la taille d’un grêlon). Le rayonnement interagit avec cette matière atmosphérique de deux façons, par la diffusion (scattering) et par l’absorption.

4.2.2.1

La diffusion

Lorsqu’un rayon solaire rencontre une particule, l’énergie lumineuse est diffusée dans toutes les directions :

On parle de dispersion Rayleigh lorsque la particule est de petite taille par rapport à la longueur d’onde incidente, le cas des atomes et des molécules de gaz, et de type Mie lorsque la particule est de grande taille par rapport à la longueur d’onde incidente, le cas des aérosols. Le ciel est bleu car la diffusion Rayleigh des rayons solaires par les gaz de l’atmosphère est beaucoup plus importante pour les courtes longueurs d’onde. Notez que ce processus n’a rien à voir avec la diffusion moléculaire déjà introduite dans la partie 2.

4.2.2.2

L’absorption

La mécanique quantique voit une particule, atome ou molécule, comme un oscillateur qui possède des niveaux d’énergie discrets. Par exemple l’énergie de l’oscillateur harmonique, un modèle pour l’atome d’hydrogène, est quantifiée sous la forme :

( 12) hˆ ν avec n entier

E= n+

Planck postule qu’un tel oscillateur va pouvoir émettre de l’énergie lumineuse lorsqu’il passe d’un état à un autre. S’il passe d’un état au voisin (n change d’une unité), l’énergie émise par le corps à la fréquence ν est : ∆E = hˆ ν et cette émission est isotrope, la même dans toutes les directions. Si maintenant un photon de la bonne fréquence vient frapper cette particule – oscillateur, celle-ci prend l’énergie du photon et passe dans un état excité. Mais cet état excité ayant une durée de vie limitée, l’oscillateur retourne à son état initial en re-émettant le photon, à ceci près que la lumière est re-émise de la même façon dans toutes les directions.

364

4. Dynamique du climat

4.2.2.3

L’émission

Le lien entre la température d’un corps et le rayonnement qu’il peut émettre fut découvert par Planck. Pour calculer l’énergie lumineuse à une certaine longueur d’onde émise par un corps à une certaine température, Planck a eu l’idée de considérer une cave dont les murs ont une température T. Ces murs absorbent toutes les radiations incidentes, mais à l’équilibre thermodynamique ils doivent réémettre la même quantité d’énergie et Planck a calculé cette émission d’énergie qui est la même dans toutes les directions et seulement fonction de la longueur d’onde et de la température. Ce matériau parfaitement absorbant est appelé corps noir et il émet donc le rayonnement de Planck : ˆ 2 λ −5 2hc Bλ ( T ) = ˆ 4-2-3 e hc / kλT − 1

(

)

avec k la constante de Boltzmann (= 1,381 10–23 J K–1). L’unité de ce rayonnement Bλ est le W m–3 stéradian–1, c’est-à-dire une puissance par mètre carré, par stéradian, par intervalle de longueur d’onde.

6000K

288K

 Figure 4-2-7  Rayonnement solaire et rayonnement terrestre de Planck : la figure montre λT–4 Bλ(T) en fonction du log10(λ) pour la température du soleil 6 000 K et celle de la Terre 288 K. Avec cette représentation, l’aire sous la courbe est indépendante de T.

La figure montre directement l’énergie émise Bλ fois λT–4 en fonction de la longueur d’onde pour la température du Soleil (6 000 K) et celle de la Terre (288 K). Notez le peu de recouvrement des longueurs d’onde émises par les rayonnements solaire et terrestre. Ces courbes possèdent ce maximum donné par la loi de Wien 4-2-2. Le lien entre 4-2-1 et 4-2-3 est examiné plus loin. Les gaz de l’atmosphère ne sont pas parfaitement absorbants et on appelle émissivité ελ d’un corps le rapport entre son émission et celle du corps noir à la longueur d’onde λ. De la même façon, l’absorption d’énergie par un corps peut n’être que partielle et l’absorptivité aλ mesure la fraction d’énergie absorbée par rapport à l’énergie

365

Une introduction à la dynamique des océans et du climat

incidente sur le matériau. Une surface réfléchissante est un mauvais absorbeur et un mauvais émetteur (c’est le matériau des couvertures de survie et aussi celui de la surface extérieure des matériaux d’isolation des toitures). Imaginons qu’un corps à une température T soit plongé dans une cave dont les murs à la température T0 émettent comme un corps noir et examinons l’effet global de la radiation thermique. À chaque longueur d’onde le corps perd de l’énergie E out = ελ Bλ(T) et absorbe des murs une quantité E in = a λ Bλ(T0 ) soit un gain net : Fnet = a λBλ(T0 ) − ελBλ(T) À l’équilibre thermodynamique dans la cave de Planck, le flux est nul et les murs de la cave et le corps s’ajustent à une température commune T et donc : F = (a − ε )B (T ) = 0 net

λ

λ

λ

À chaque longueur d’onde, émission et absorption sont égales :

ελ= aλ 4-2-4

Cette relation de Kirchoff est une propriété de la matière qui reste valable pour des conditions plus générales que celles de l’argumentation considérée ici (conditions hors équilibre).

4.2.2.4

Observation des longueurs d’onde ou fréquences d’absorption

Les gaz de l’atmosphère absorbent peu le rayonnement solaire dans le visible mais sont de forts absorbeurs du rayonnement terrestre dans l’infrarouge. Les molécules des gaz qui ont plus de 3 atomes possèdent des mouvements de vibration et rotation dans la gamme de fréquences infrarouges et on arrive par spectroscopie à reconstituer la forme des molécules. vibrations d’élongation

vibrations de déformation d’angles dans le plan

symétrique

antisymétrique

en dehors du plan

 Figure 4-2-8  Les modes de vibration de la molécule de CO2. Les deux atomes d’oxygène entourent le carbone et les trois sont alignés, les liaisons chimiques mettant en commun deux électrons (les deux barres horizontales). À gauche, des vibrations d’élongation ; à droite, des vibrations associées à des modifications d’angles.

On peut s’imaginer les vibrations des liaisons chimiques des atomes de la figure 4-2-8 comme analogues à celles de trois masses liées par des ressorts. Il existe des vibrations d’élongations et des vibrations de cisaillement où l’angle entre les liaisons change.

366

4. Dynamique du climat

Chaque mode de vibration de la figure possède sa fréquence propre d’oscillation. La vibration de droite a une longueur d’onde de 15 μ alors que l’élongation antisymétrique à gauche a une longueur d’onde de 4,3 μ, des valeurs qui sont déterminées expérimentalement par spectroscopie. La vibration de l’élongation symétrique de gauche n’est pas optiquement active car le moment du dipôle électrique doit aussi changer. Une molécule a un moment électrique dipolaire quand le centre de charges négatives ne coïncide pas avec le centre de charges positives. Le moment dipolaire de la molécule dans son état de base est nul compte tenu de sa symétrie et c’est aussi le cas quand elle vibre symétriquement. Pour les autres vibrations, le rayonnement infrarouge émis pas la Terre aux longueurs d’onde optiquement actives peut être absorbé en faisant vibrer la molécule à la bonne fréquence. Lorsque la molécule retourne à son état de base, la même quantité d’énergie est réémise à la même fréquence à cette différence près que le rayonnement se fait dans toutes les directions, vers l’espace mais aussi vers la Terre. Si aucune transition correspondant à l’énergie d’un groupe de photons n’est possible, les photons passent au travers du milieu sans interaction : l’atmosphère est alors transparente pour cette fréquence. C’est ce qui se passe en première approximation pour le rayonnement solaire. En revanche, les gaz dits à effets de serre possèdent des transitions entre niveaux d’énergie qui correspondent à des énergies de photons de fréquence infrarouge émis par la Terre.

Figure 4-2-9 L’énergie reçue par un satellite dans le domaine infrarouge émise par 20,71 °S et 40,14 °O le 1/01/2014 à 00 h 25 min 31 sec, décomposée en fonction de la longueur d’onde (courbe grise). Si l’atmosphère était transparente et si la Terre émettait comme un corps noir, l’énergie suivrait la courbe correspondant à la température de surface (23,2 °C) de la loi de Planck Bλ. Les gaz présents dans l’atmosphère absorbent certaines des longueurs d’onde émises par la Terre et réémmettent à leurs températures en altitude avec la loi de Planck Bλ. La courbe noire discutée plus loin est le résultat du code radiatif 4A/OP de Scott et Chedin (1981). Source : R. Armante.

367

Une introduction à la dynamique des océans et du climat

La prédiction de la mécanique quantique peut se vérifier directement sur la figure 4-2-9 qui montre que l’énergie reçue par un satellite possède des trous à certaines bandes de longueurs d’onde du rayonnement. La discussion des vibrations de la molécule de CO2 indique que l’absorption se fait pour des longueurs d’onde discrètes avec des lignes très nombreuses. D’autre part sous l’effet des collisions moléculaires et de l’effet Doppler (la modification de la fréquence du rayonnement par les vitesses variables des molécules), les lignes d’absorption discrètes s’élargissent, un facteur qu’il faut aussi prendre en compte pour modéliser correctement l’absorption. On peut voir clairement des fenêtres où le rayonnement infrarouge passe sans obstruction et correspond à la loi de Planck pour une température d’émission de 23,2 °C qui correspond au sol. C’est le cas entre 8,5 et 14 µ mais la fenêtre est interrompue par la bande de l’ozone O3 plus haut dans la stratosphère. Vapeur d’eau, méthane CH4 et dioxyde de carbone CO2 constituent des écrans très efficaces à certaines longueurs d’onde. Ils absorbent le rayonnement dans les basses couches pour émettre vers l’espace à leur température propre, celle de l’altitude d’émission. On voit sur la figure la vapeur d’eau qui émet à une température de ~ –13 °C entre 6 et 8 µ et le CO2 qui émet à – 53 °C dans la bande à 15 µ. Ce faible rayonnement provient des plus faibles températures qui règnent aux altitudes d’émission plus hautes (voir la figure 4-1-3 qui montre que la température décroît avec l’altitude en moyenne de 6,5 °C par km). La figure 4-2-9 permet alors de comprendre l’effet de serre de la façon suivante : imaginons qu’il n’y ait pas d’atmosphère, alors le flux infrarouge (OLR) équilibre le flux solaire incident. Introduisons de la vapeur d’eau ou du CO2, la figure 4-2-9 montre que le rayonnement vers l’espace est plus faible aux longueurs d’onde optiquement actives. Si le rayonnement infrarouge est globalement plus faible, le flux solaire l’emporte : le système (atmosphère + Terre) va devoir augmenter sa température pour rééquilibrer le flux sortant infrarouge au flux solaire. En résumé, les gaz les plus importants pour l’opacité de l’atmosphère et donc l’effet de serre sont la vapeur d’eau (60 %), le dioxyde de carbone (26 %), l’ozone (8 %), le méthane et oxyde nitreux N2O (6 %), Kiehl-Trenberth (1997). La vapeur d’eau absorbe vers 6,3 µ puis au-dessus de 12 µ et jusqu’à 200 µ. Entre les deux se situe la fenêtre dite de vapeur d’eau. L’importance du CO2 pour le climat est due à sa forte bande d’absorption autour de 15 µ, pas très loin du centre du rayonnement émis par la Terre. Le méthane absorbe vers 5,25 µ et l’ozone vers 9,5 µ. On peut souligner l’importance du méthane CH4 comme gaz à effet de serre. Il y en a beaucoup moins que de CO2 dans l’atmosphère (1,8 ppm en 2010) mais son effet radiatif par molécule est 20 fois plus puissant. Agriculture et élevage produisent des flux de méthane qui sont estimés à 65 % du total (le reste étant naturel) et comme pour le CO2 sa croissance dans l’atmosphère a commencé il y a deux siècles. Vapeur d’eau et CO2 sont donc les deux acteurs principaux du climat, mais notons dès maintenant qu’ils jouent dans des registres très différents : le CO2 quasi homogène spatialement avec un temps de résidence de plusieurs années est un forçage radiatif, un bouton de contrôle du climat, alors que la vapeur d’eau sujette aux changements de phase, très inhomogène spatialement et avec son temps de résidence de

368

4. Dynamique du climat

la semaine va réagir puissamment aux ordres du CO2. En effet si le CO2 diminue, un refroidissement se produit, la vapeur d’eau diminue (par la relation de ClausiusClapeyron 4-1-6) et l’effet de serre de la vapeur d’eau refroidit encore plus l’atmosphère et cela continue, une rétroaction (feedback) positive qui amplifie les ordres du bouton de contrôle CO2. Le feedback marche aussi bien sûr dans l’autre sens : si le CO2 augmente, l’effet de serre est amplifié par la vapeur d’eau. On reviendra sur ce sujet au § 4.5.2.3 lors de la discussion des feedbacks et au § 4.6.6.6 lors de la discussion du réchauffement global. Le chauffage d’une serre de jardin est causé par la paroi de verre qui laisse passer le flux solaire et bloque dans une certaine mesure le rayonnement infrarouge émis par les plantes. Mais l’analogie avec le cas atmosphérique n’est pas correcte, car l’efficacité de la serre de jardin vient surtout du blocage de la convection (l’interdiction de sortie de l’air chaud).

4.2.2.5

Les équations du transfert radiatif

La propagation du rayonnement repose sur les équations du transfert radiatif qui permettent de déterminer l’énergie gagnée ou perdue par un rayon lors de son interaction avec la matière. Ces équations s’appliquent tant au rayonnement solaire qu’au rayonnement infrarouge, sachant que pour ce dernier il faudra aussi rajouter l’émission de Planck. Ce paragraphe reste une introduction au sujet, mais compte tenu de son importance pour le changement climatique, il est difficile de l’occulter. Il donne une première idée de ce que sont les codes radiatifs d’un modèle de climat. Une des conséquences des équations du transfert radiatif est de montrer que les altitudes d’émission du rayonnement infrarouge vers l’espace augmentent avec la concentration des gaz à effets de serre, un élément crucial pour comprendre le lien entre cette augmentation et le réchauffement global. Le lecteur qui admet ce point pourra aller directement au § 4.2.2.6. Considérons la quantité d’énergie rayonnée contenue dans un certain cône qui passe à travers une surface dA dans une direction donnée. dσ



s

dA

 Figure 4-2-10  

La figure montre un cône de lumière dans la direction du vecteur unitaire s qui émane d’un point d’une surface dA. À une distance r de la surface, le cône intercepte

369

Une introduction à la dynamique des océans et du climat

une surface dσ et on appelle angle solide le rapport dΩ = dσ/r2, la généralisation en trois dimensions de la notion d’angle et de longueur d’un arc. L’unité d’angle solide est le stéradian. Lorsque la surface interceptée est la sphère tout entière, l’angle solide vaut donc 4π. Si dEλ est l’énergie contenue dans l’angle solide dΩ, traversant la surface dA dans la direction du vecteur unitaire s, pendant le temps dt, dans l’intervalle de longueur d’onde [λ, λ + dλ], alors la radiance monochromatique Iλ est définie par : Iλ =

dE λ dΩ dt dA dλ

Son unité est en W m–3 stéradian–1. La fonction de Planck du corps noir 4-2-3 en est un exemple où Bλ(T) est indépendant de la position et de la direction. Considérons maintenant l’énergie totale passant à travers une surface dont la normale est donnée par le vecteur unitaire n, et intégrée sur la demi-sphère :

dΩ n

s

θ

φ

 Figure 4-2-11  Un rayonnement est émis dans la direction s et contenu dans l’angle solide dΩ . Ce rayonnement fait un angle θ avec la normale à la surface.

L’irradiance monochromatique Fλ est l’énergie totale qui passe à travers la surface de la figure 4-2-11 : il faut donc intégrer sur la demi-sphère la radiance de toutes les directions de propagation qui ont une composante dans la direction n soit : Fλ = ∫ Iλ cos θdΩ ou en coordonnées sphériques θ, φ : 2π π/ 2

Fλ =

∫ ∫ 0

Iλ cos θ sin θdθ dφ

0

Si la radiance est indépendante de la direction : 2π π/ 2

Fλ = Iλ ∫ 0

et Fλ = π Iλ

370

∫ 0

cos θ sin θdθ dφ

4. Dynamique du climat

Comme la fonction de Planck 4-2-3 est effectivement isotrope, on peut montrer que : ∞ F = π ∫ Bλ(T)dλ = σT 4 0

ce qui permet de faire le lien entre 4-2-1 et 4-2-3. L’extinction de l’énergie radiative (la radiance) par une couche de matière obéit à la loi de Lambert-Beer-Bouguer que l’on illustre par la figure suivante : Iλ θ

n ds

Iλ − dIλ

 Figure 4-2-12  Le rayonnement est atténué au passage dans le milieu d’épaisseur ds.

L’énergie qui passe à travers la couche de gaz d’épaisseur ds est atténuée proportionnellement à la quantité d’énergie incidente et au nombre de molécules susceptibles d’absorber contenues dans la couche d’épaisseur ds, nombre proportionnel à la masse de gaz #i. La masse de gaz par unité de volume est ρXi avec Xi = mi/mair sec le rapport de mélange du gaz et ρ la densité de l’air, de sorte que l’équation d’extinction s’écrit :

dIλ = −Iλ k λρX i ds 4-2-5

où kλ est le coefficient d’extinction qui dépend de la longueur d’onde du rayonnement et qui peut représenter le processus d’absorption par les gaz ou celui de diffusion par les particules. La quantité ρXi ds est proportionnelle au nombre de molécules du gaz #i par mètre carré présentes pour interagir avec le rayonnement. Examinons maintenant le destin sur la verticale de l’énergie d’un rayon qui pénètre dans l’atmosphère. Sur la figure 4-2-12, la normale n est orientée selon l’axe z (la verticale ascendante). Pour trouver l’atténuation, il faut intégrer 4-2-5 depuis le sommet de l’atmosphère z = ∞ jusqu’à un niveau z arbitraire. Pour un rayon descendant, dz = – ds cosθ et on peut réécrire l’équation différentielle 4-2-5 comme : dIλ 1 = k ρX dz Iλ cos θ λ i En intégrant des deux côtés de l’∞ à z, on obtient :

I λ = I λ∞ e



τλ cos θ 4-2-6

371

Une introduction à la dynamique des océans et du climat

avec :



τλ = ∫ k λρX i dz 4-2-7 z

où τλ est la profondeur optique qui mesure l’extinction d’un rayon dirigé vers le bas au zénith (θ = 0). C’est une quantité adimensionnelle, juste un nombre positif. Quand le rayon est incliné sur la verticale, l’extinction augmente puisque le chemin parcouru est plus important, expliquant la présence du cosθ dans 4-2-6. Le coefficient de transmission est simplement : Tλ = e



τλ cos θ

Ce qui permet de trouver l’absorptivité aλ sur l’épaisseur en question, la fraction d’énergie absorbée par l’atmosphère sur le chemin du rayon :

a λ = 1 − Tλ = 1 − e



τλ cos θ 4-2-8

L’absorptivité est déterminée par la profondeur optique qui elle-même dépend des lignes d’absorption du gaz considéré #i à travers le coefficient kλ, de la densité de l’air ρ et de l’abondance du gaz mesuré par son rapport de mélange Xi. Comme Xi est une quantité conservée par une particule fluide (voir § 4.1.4.7), la convection turbulente mélange efficacement et on s’attend à ce que Xi varie peu sur la verticale alors que ρ diminue rapidement à cause de la diminution de pression. Lorsque kλ et Xi sont pris constants sur la verticale et que ρ = ρsole −z /HI (avec HI ≈ 7,4 km), on peut montrer que l’atténuation est maximale au niveau où la profondeur optique τλ = 1, ce qui peut se comprendre ainsi : au-dessus de ce niveau, il n’y a pas beaucoup de molécules pour absorber, en dessous il ne reste plus beaucoup d’énergie radiative à atténuer. Une relation similaire existe pour un rayonnement émis du sol (z = 0) vers le haut : Iλ = Iλ(z = 0) e



τλ cos θ

avec la profondeur optique maintenant définie par : z

τλ = ∫ k λρX i dz 0

Dans le cas d’un gaz optiquement actif, il reste à ajouter l’émission par la loi de Planck 4-2-3. La relation 4-2-5 donne l’absorption du rayonnement sur l’épaisseur ds : dIλ(absorption) = −Iλ k λρX i ds = −Iλa λ où aλ est donc l’absorptivité de cette couche. Mais cette couche émet aussi avec l’émissivité ελ : dIλ(emission) = ελBλ(T) Comme d’après la loi de Kirchoff 4-2-4, émission et absorption sont égales, on additionne ces deux équations pour obtenir l’équation complète du transfert radiatif :

372

dIλ = − (Iλ − Bλ(T)) k λρX ids 4-2-9

4. Dynamique du climat

Voilà l’équation centrale de Schwarzschild que doivent résoudre les codes radiatifs d’atmosphère en incluant tous les gaz et leurs lignes d’absorption et la diffusion par les particules pour connaître kλ et toutes les directions s de propagation du rayonnement. Cette équation s’applique tant pour le rayonnement dirigé vers le bas (solaire et infrarouge) que vers le haut (infrarouge). Elle demande des conditions aux limites : au sommet de l’atmosphère, flux solaire imposé et flux infrarouge nul pour le flux descendant, au sol flux infrarouge imposé pour le flux montant. La solution formelle de 4-2-9 n’est pas difficile à trouver. Pour un rayon se propageant dans une direction s de la position s0 à la position s, la profondeur optique est : s



τλ =



k λρX i ds 4-2-10

s0

Ceci permet d’écrire l’équation 4-2-9 en fonction de la variable τλ plutôt que de la variable s : dIλ + I = Bλ dτλ λ En multipliant des deux côtés par e τλ , cette équation peut encore s’écrire : d (Iλe τλ ) = B λ e τλ dτλ Ce qui permet d’écrire la solution directement : Iλe τλ = ∫ Bλe τ′λ dτ′λ + C où la condition initiale en s0 donne la constante C = I0 en s = s0. La solution de 4-2-9 s’écrit finalement :

I λ = I0 e − τ λ +

τλ



Bλe −(τλ − τ′λ )dτ′λ 4-2-11

0

Elle se compose de deux termes, le premier est juste l’absorption de la radiance initiale I0 sur le trajet de 0 à τλ (ou de s0 à s). Si τλ   1. Le deuxième terme représente l’effet cumulé de l’émission Bλ à chaque position s′ comprise entre s0 et s pondéré par le terme : Tλ = e −(τλ − τ′λ ) 4-2-12

En utilisant 4-2-10, on voit que :

s



∆τλ = τλ − τ′λ = ∫ k λρX i ds 4-2-13 s′

qui n’est pas autre chose que l’épaisseur optique entre la position s′ où le signal a été émis et la position finale s où on l’observe. Cette quantité contrôle le coefficient de transmission 4-2-12 de chaque émission à son niveau s′.

373

Une introduction à la dynamique des océans et du climat

Considérons à titre d’exemple, la propagation du flux infrarouge sur la verticale depuis le sol vers le haut pour examiner la structure verticale de ce coefficient de transmission pour un gaz comme le CO2. Pour une atmosphère sèche animée d’une convection active, la température décroît avec l’altitude selon le gradient adiabatique : T = TS − Γ A z Avec la relation hydrostatique et l’équation d’état (§ 4.1.4), on détermine la pression puis la densité de l’air qui décroît avec l’altitude z comme :

ρ = ρS (1 − αz)CP /R −1 4-2-14 avec α = Γ A / TS

Le traceur CO2 est assez bien mélangé sur l’horizontale et la verticale de sorte que le rapport de mélange XCO2 peut être pris constant. Supposons pour simplifier que kλ soit aussi constant (il représente ici le coefficient d’absorption et est en fait fonction de la température et de la pression). Dès lors seule la densité de l’air varie dans l’expression de l’épaisseur optique 4-2-13. En utilisant 4-2-12, 4-2-13 et 4-2-14, on peut calculer le coefficient de transmission entre un point quelconque z′ et le sommet de la troposphère fixé ici à z = 15 km pour déterminer d’où provient le rayonnement vu depuis l’espace.

 Figure 4-2-13  Le coefficient de transmission Tλ (de 4-2-12) qui donne à z = 15 km la fraction du signal émis à un niveau z′ quelconque en dessous. La droite horizontale indique le niveau où l’épaisseur optique ∆τλ = 1. Courbe solide XCO2 = 350 ppm, pointillée XCO2 = 700 ppm. Les flèches indiquent la montée de l’altitude d’émission lorsque l’on double la concentration en CO2. La figure a été faite avec kλ = 0,45.

374

4. Dynamique du climat

Sur la figure 4-2-13, l’épaisseur optique unité sépare un peu arbitrairement la zone du dessous pour laquelle l’émission pénètre peu vers l’espace (Tλ < 0,4) de la zone du dessus où la transmission vers l’espace est bien meilleure (Tλ > 0,4). Comme la température diminue avec l’altitude, l’émission vers l’espace de ces niveaux privilégiés se fera avec des valeurs de Bλ plus faibles. Ceci permet de définir grossièrement les altitudes d’émission vers l’espace, ici au-dessus de 3 km. Si maintenant on double la concentration de CO2, on voit que la zone de transition monte : l’altitude d’émission est maintenant proche de 7 km et les émissions vers l’espace vont donc être encore réduites par rapport au cas précédent. C’est le point crucial pour comprendre l’effet de serre causé par la croissance du CO2 au paragraphe suivant. Étant donné la température, la concentration des gaz à effets de serre et la prise en compte des angles des rayons, un code radiatif calcule les flux infrarouges reçus par un satellite avec l’équation de Schwarzschild 4-2-9. Le résultat du code radiatif de Scott et Chedin (1981) donné par la courbe noire de la figure 4-2-9 permet de juger de la très grande qualité du résultat quand on compare aux observations du satellite (la courbe grise). Cette même équation est aussi utilisée en sens inverse pour remonter aux températures à partir des flux infrarouges observés par les satellites. Mais ce problème inverse est plus beaucoup plus difficile puisque d’après 4-2-11 le flux observé depuis l’espace est le résultat cumulé d’émissions à diverses altitudes, donc diverses températures.

4.2.2.6

L’effet de serre : vapeur d’eau et dioxyde de carbone

Le modèle élémentaire du § 4.2.1 d’une atmosphère totalement transparente au rayonnement solaire et totalement opaque au rayonnement infrarouge ne permet pas de répondre aux interrogations actuelles concernant l’augmentation du dioxyde de carbone dans l’atmosphère puisqu’il n’y a aucun paramètre que l’on peut varier. On peut y répondre avec un code radiatif d’atmosphère qui calcule le rayonnement visible ou infrarouge en chaque point de l’atmosphère en tenant compte de la direction du rayonnement, de la diffusion, de l’absorption et de l’émission pour chacune des nombreuses longueurs d’onde d’absorption des gaz, de leur concentration et de leur température. On peut tester la validité du calcul en comparant le spectre calculé en un point, un jour donné, avec un spectre observé par satellite comme celui de la figure 4-2-9 pour la partie infrarouge. La physique du rayonnement et de son interaction avec la matière est maintenant bien connue mais ces codes radiatifs sont complexes et représentent une part importante du coût calcul d’un modèle de climat. Une alternative entre la simplification précédente et ces codes radiatifs est de suivre l’approche intermédiaire de Dufresne et Treiner (2011) qui permet de mettre en lumière la situation différente de la vapeur d’eau et du CO2 dans l’effet de serre. On va se limiter ici à considérer l’effet des deux éléments suivants : 1) l’absorption du rayonnement infrarouge augmente quand la concentration d’un gaz à effet de serre augmente ; 2) la température de l’atmosphère n’est pas constante mais décroît fortement avec l’altitude (de 6,5 à 10 °C) par km, une conséquence de la compressibilité de l’air et de la teneur en vapeur d’eau (voir § 4.1.4.9).

375

Une introduction à la dynamique des océans et du climat

Selon le point 1, l’atmosphère n’est plus un corps noir : elle n’est plus totalement opaque et n’absorbe plus qu’une fraction aS du flux infrarouge émis par la Terre et laisse passer la fraction 1–aS. Elle émet également moins efficacement que le corps noir. Comme d’après 4-2-4 les coefficients d’absorption et d’émission sont égaux pour chaque longueur d’onde, ils le sont aussi pour l’ensemble considéré ici : ε = aS Ainsi l’atmosphère du modèle de la figure 4-2-5 émet-elle comme : E A = ε E bb = ε σ TA4 avec ε < 1. En écrivant comme précédemment que les flux reçus sont égaux aux flux émis, au sommet de l’atmosphère : S0(1 − α) = εσTA4 + (1 − a S )σTS4 4 puis au sol :

S0(1 − α) + εσTA4 = σTS4 4

Notez que le sol reste ici un corps noir. En résolvant pour TS et TA on obtient : 1/ 4

2  TS =    2 − aS 

1/ 4

1  TE et TA =    2 − aS 

TE =

() 1 2

1/ 4

TS

Les données de la figure 4-2-6 indiquent que sur les 398 Wm–2 de flux infrarouge émis au sol, 40 W m–2 s’échappent de l’atmosphère par la fenêtre spectrale entre 8,5 et 14 µ. La fraction absorbée est donc aS ≈ 0,9. Avec la température d’émission TE toujours égale à 255 K, la température au sol devient TS = 296 K (23 °C) et la température de l’atmosphère TA = 249 K (–24 °C). On s’aperçoit que lorsque l’absorption diminue, la température au sol diminue par rapport au cas du corps noir (aS = ε = 1) et le modèle produit des températures au sol un peu plus proches des observations. L’effet de serre devient alors : G = σTS4 − εσTA4 − (1 − a S )σTS4 =

aS σT 4 2 − aS E

Ce qui représente 196 W m–2 soit 81 % de l’effet de serre du modèle du corps noir précédent. Si la concentration en gaz à effet de serre augmente, le coefficient d’absorption aS augmente et la température au sol augmente sous l’effet du flux croissant émis vers le sol par l’atmosphère. En comparant les résultats d’un code radiatif complet avec un modèle proche de celui-ci, Dufresne et Treiner concluent que le modèle ci-dessus est approprié pour expliquer l’effet de la vapeur d’eau mais ne l’est pas du tout pour le CO2.

376

4. Dynamique du climat

 Figure 4-2-14  Le coefficient d’absorption calculé sur toute la hauteur d’une atmosphère moyenne sans nuages en fonction de la longueur d’onde pour la vapeur d’eau (noir), le CO2 (gris foncé) et les autres constituants (gris clair). Source : Dufresne et Treiner (2011).

On note sur la figure 4-2-14 que l’eau est bien le principal gaz à effet de serre, car c’est elle qui absorbe le mieux le rayonnement terrestre entre 5 et 8 µ puis au-delà de 16 µ. Pour le CO2, l’absorption est totale autour de 5 et autour de 15 µ. On retrouve entre 8 et 16 µ, la fenêtre de sortie déjà mentionnée. Qu’advient-il lorsque l’on augmente la concentration des gaz ? Le coefficient d’absorption pour la vapeur d’eau augmente bien avec l’humidité alors que Dufresne et Treiner obtiennent quasiment la même courbe pour le CO2 que celle de la figure 4-2-14 pour des concentrations allant de 180 ppm à 720 ppm. L’absorption est totale même pour des concentrations aussi faibles que 200 ppm, un effet appelé saturation des bandes d’absorption du CO2. Ils concluent : si la concentration en CO2 n’a aucun effet sur le coefficient d’absorption, l’effet de serre associé ne devrait pas changer et la température de la Terre non plus. Pourquoi donc tant s’inquiéter ? Évidemment les codes radiatifs complets montrent bien un effet significatif de l’augmentation de la concentration du CO2. La sortie du paradoxe est possible quand on prend en compte le point 2 et que l’on inclut la variation de la température avec l’altitude. Pour chaque longueur d’onde, Dufresne et Treiner décomposent l’atmosphère en deux régions, une basse atmosphère pour laquelle le rayonnement émis n’atteint jamais l’espace car il est absorbé par l’atmosphère au-dessus, une couche aveugle qui ne voit pas l’espace et n’est pas vue depuis l’espace. Dans une couche plus haute, le rayonnement peut atteindre l’espace et c’est cette couche qui est vue par les satellites sur la figure 4-2-9 et qui donne l’altitude d’émission (celle à laquelle le rayonnement qui atteint l’espace a été émis). Cette altitude d’émission pour les bandes d’absorption du CO2 et de la vapeur d’eau est comprise entre 3 et 8 km environ et donc tout se passe comme si le rayonnement infrarouge émis par la Terre vers l’espace provenait de ces altitudes. Si la concentration d’un gaz absorbant augmente, le rayonnement émis à une altitude donnée est absorbé sur une distance plus courte. La partie aveugle de l’atmosphère augmente et l’altitude d’émission augmente, ce que montre clairement la figure 4-2-13. La figure suivante illustre alors les conséquences (disons pour une atmosphère sèche dont le gradient thermique adiabatique est de 10 °C par km).

377

Une introduction à la dynamique des océans et du climat

FIR = FSOL FIR = FSOL

FIR < FSOL

Z2 Z1

Z2

Z1 T1 a)

T2 T1 b)

T1 c)

 Figure 4-2-15  La droite T(z) est le gradient adiabatique sec 10 °C par km. a) L’altitude d’émission est en Z1 et le rayonnement infrarouge vers l’espace s’effectue à la température T1 et ce flux est égal au flux solaire incident. En b) la concentration de CO2 a augmenté : l’altitude d’émission augmente en Z2. Mais à cette altitude, la température T2 est plus basse et le flux infrarouge chute en dessous du flux solaire à cause de 4-2-1. L’atmosphère se réchauffe par excès du flux solaire. Le gradient thermique est toujours le même mais tout le profil est déplacé vers la droite. La figure c) montre le nouvel équilibre des flux lorsque la température T1 atteint le niveau Z2. D’après Dufresne et Treiner (2011).

On peut montrer que le réchauffement radiatif crée toujours des gradients thermiques verticaux plus importants que le gradient adiabatique. Mais la figure 4-1-6 indique que cette situation est instable, de sorte que la convection thermique se met en route pour ramener le profil thermique vers la stabilité et le profil adiabatique. Ainsi l’ajustement convectif permet-il de dire que le gradient thermique vertical reste le même lorsque l’on augmente la concentration en CO2. Lorsque l’altitude d’émission augmente en b) sous l’effet de l’augmentation du CO2, le flux infrarouge chute et l’atmosphère se réchauffe pour arriver en c) au nouvel équilibre. Pour que l’équilibre radiatif avec le flux solaire soit rétabli, il faut amener la température T1 en Z2. C’est possible si tout le profil thermique initial de a) se déplace en bloc vers les températures plus fortes. L’effet de serre se traduit par un réchauffement de toute la dT colonne d’air de − (Z − Z1). Quand on inclut la vapeur d’eau, le calcul est plus dz 2 compliqué puisque des changements entre phases peuvent aussi apparaître. Les premiers calculs complets d’un tel modèle radiatif-convectif ont été faits par Manabe et Strickler (1964) et Manabe et Wetherhald (1967). La variété des climats observés passés, présents et futurs qui sera discutée aux § 4.6 et 4.7 tourne donc largement autour de cette question de connaître la concentration des gaz à effets de serre, vapeur d’eau, dioxyde de carbone et méthane compte tenu de leurs effets radiatifs si importants. Pour aller plus loin sur la propagation du rayonnement atmosphérique, le lecteur considérera les livres de Wallace et Hobbs (2006), Andrews (2000) et celui de Liou (2002) pour aller plus au fond du problème.

378

4. Dynamique du climat

4.3 Le couplage océan-atmosphère Le climat est largement contrôlé par les échanges de chaleur et d’eau à l’interface air-mer. On vient de voir que l’atmosphère perd environ 100 Wm–2 à cause du déséquilibre entre flux solaire et flux infrarouge et elle demande donc à l’océan de lui fournir l’équivalent pour restaurer son équilibre. En la chauffant par-dessous, l’océan la déstabilise et la convection thermique apparaît dans l’atmosphère. Ces échanges à l’interface air-mer sont une des clés de l’évolution climatique, mais sont excessivement difficiles à mesurer directement et font l’objet de méthodes en perpétuelle évolution. Leurs distributions géographiques moyennes vont nous montrer comment ces flux sont structurés par la circulation océanique.

4.3.1

Flux de chaleur à l’interface air-mer

La preuve la plus simple du couplage océan-atmosphère est l’amplitude sur l’année des moyennes mensuelles de la température de surface de l’air de la figure 4-1-5. Quand le contraste été - hiver atteint 40 °C sur l’Amérique du Nord et l’Europe du Nord, il ne dépasse guère les 5 à 10 °C sur les océans. Océan et atmosphère échangent en permanence de l’énergie. On a déjà considéré le forçage mécanique de l’océan par le vent dans la Partie 3 et on se concentre ici sur la forme chaleur dont les flux sont mesurés localement en nombre de Watt par m2. Ces flux varient à la surface des océans en réponse aux différences de température air-mer et ces différences dépendent de la circulation de chacun des deux fluides. Deux types de flux air-mer existent qui sont estimés par des formules dites bulk : 1) Le flux de chaleur sensible QC dépend de la différence en un point entre la température de l’air TA et celle de l’eau TS et s’estime via :

Q C = ρ A CPA CH U A (TA − TS ) 4-3-1

Il y a une couche limite turbulente de chaque côté de l’interface air-mer et QC est déterminé de façon empirique par la relation ci-dessus avec ρA la masse volumique de l’air, CPA la chaleur spécifique de l’air, UA (m s–1) la vitesse du vent et CH un coefficient empirique sans dimensions ≈ 10–3. TS est la température de surface de la mer (SST) et TA la température de l’air à un niveau standard (≈ 10 m la hauteur de la passerelle des bateaux). Toutes les incertitudes concernant la forme même de 4-3-1 sont enrobées dans ce coefficient CH qui dépend de la stabilité de l’atmosphère et peut doubler si l’atmosphère est instable. Il dépend aussi de la vitesse du vent : il a un minimum vers 5 m s–1 puis augmente par vent fort. Si par exemple TS > TA, le flux QC est négatif : l’océan perd de la chaleur au profit de l’atmosphère (c’est le deuxième principe de la thermodynamique qui impose le sens de cet échange). 2) Le deuxième flux de chaleur est le flux de chaleur latente qui apparaît lors du changement de phase eau liquide → vapeur à l’interface air-mer. La chaleur latente de vaporisation Lv (= 2,5 106 J kg–1) est la quantité de chaleur qu’il faut fournir à

379

Une introduction à la dynamique des océans et du climat

1 kg d’eau pour le convertir en vapeur sans changement de température. Donc pour estimer cette contribution, il faut d’abord connaître l’évaporation à la surface de la mer c’est-à-dire la masse de vapeur qui s’échappe de la mer par seconde et par m2. Pour la calculer, on procède de façon empirique comme pour le flux de chaleur sensible :

E = ρ A CE U A (qS − q A ) 4-3-2

où qA est l’humidité spécifique de l’air au niveau standard et qS l’humidité à saturation pour la température de la mer TS. CE (≈ 1,5 10–3) est un nouveau coefficient empirique qui augmente aussi par vent fort. Le flux E est ici en kg s–1 m–2 mais on utilise aussi souvent la quantité E/ρA qui devient une vitesse (comme pour la précipitation on l’exprime souvent en m an–1). On s’attend donc à ce que E soit grand lorsque de l’air froid et sec passe sur une mer chaude et c’est précisément le cas l’hiver lorsque de l’air continental froid pénètre au-dessus du Gulf Stream. Le flux de chaleur perdu par l’océan lors de la transition de phase est alors :

Q E = L v E 4-3-3

Ce flux de chaleur est important à cause de la forte valeur de Lv. On voit ainsi sur le bilan global de la figure 4-2-6 que QE dépasse QC d’un facteur 4. Avec une convection active dans la couche limite atmosphérique (l’atmosphère est instable car chauffée par-dessous), la vapeur d’eau se retrouve rapidement en altitude avec des températures plus faibles, donc des qS plus faibles. Il y a alors condensation et formation des nuages. Au moment de la condensation, la chaleur prise à l’océan est restituée à l’atmosphère. Le même processus est en jeu quand la particule d’air se déplace vers les hautes latitudes (plus froides). L’effet net est un transfert de chaleur méridien dans l’atmosphère de l’équateur vers les pôles alimenté par l’évaporation au-dessus des océans. Des climatologies de ces flux ont été construites au départ à partir des observations de navires. Puis des expériences dédiées ont été montées (et le sont encore) pour déterminer ces flux lors d’événements extrêmes (fronts, ouragans). Les flux air-mer font encore partie aujourd’hui des quantités les plus difficiles à mesurer directement. À ces flux latents et sensibles il faut bien sûr ajouter les flux radiatifs déjà discutés, à savoir le flux solaire incident QS et le flux net infrarouge QB (le bilan entre ce qui est reçu de l’atmosphère et réémis par la mer) pour trouver le flux air-mer total QOA qui devient : QOA= QS (1 – α) + QB + QC + QE 4-3-4 les flux étant ici positifs ou négatifs selon que l’océan gagne ou perd de la chaleur. L’albédo α de la mer est faible (entre 0,02 et 0,1) et donc l’essentiel du rayonnement solaire est absorbé par l’océan. Barnier et al. (1995) ont déterminé cette condition aux limites pour forcer un modèle global d’océan. Large et Yeager (2009) ont reconstitué ces flux à partir des réanalyses de données NCEP de la SST de 1948 à 2006. On montre ci-dessous la moyenne sur cette période.

380

4. Dynamique du climat

 Figure 4-3-1  Le flux total QOA à l’interface air mer en W m–2. Le flux entrant dans l’océan est positif. Les données sont celles analysées par Large et Yeager (2009).

On imaginerait volontiers pour le flux de chaleur net une structure de grande échelle de chauffage (QOA > 0) dans les tropiques et de refroidissement graduel vers les pôles (QOA  = 0,6 mmol m -3 Kp g zg Si P est inférieur à 0,6, Z décroît et on retombe sur le cas précédent du système à deux variables NP. Voici ce qui est observé lorsque N0 = 1 mmol m–3 et que P est initialisé avec une valeur supérieure à 0,6. Le calcul est fait avec les fractions µp = 1, µz = 1 faisant le choix de la reminéralisation complète dans la couche de mélange.

 Figure 4-4-5  L’évolution du système NPZ calculée avec les paramètres précédents et les fractions µp= 1, µz= 1. Les conditions initiales à t = 0 sont N0 = 1 mmol m–3, P0 = 1 mmol m–3 et Z0 = 0,2 mmol m–3.

On observe deux régimes sur la figure 4-4-5, un régime initial rapide avec un bloom de phytoplancton qui consomme tous les nutritifs sur la journée. Puis une échelle de temps plus longue apparaît au cours de laquelle le zooplancton se met à brouter le phytoplancton et un réajustement se produit entre les deux populations. Mais maintenant, l’azote dissous commence lui aussi à augmenter lentement grâce à la reminéralisation de la matière organique morte dans la couche de mélange. Au bout d’une vingtaine de jours, un équilibre est atteint avec N = 0,12 mmol m–3, une conséquence directe de l’addition de la variable zooplancton.

409

Une introduction à la dynamique des océans et du climat

Dans une perspective climat, la quantité importante est le bilan de carbone des réactions biogéochimiques modélisées par le modèle NPZ. Pour cela, on peut calculer la variation de la matière organique P et Z entre l’état initial et final de la figure 4-4-6 : ∆P = 0.61 − 1 = −0.39 ∆Z = 1.46 − 0.2 = 1.26 soit ∆P + ∆Z = 0.87 Si on considère que ces concentrations sont uniformes dans une couche de mélange de 100 m, la création de matière organique est donc de 87 mmol m–2 en équivalent azote. Pour transformer cela en carbone, le rapport de Redfield C:N = 106 :16, donne ∆C = 87 × 106/16 = 576 mmol m–2 ou encore 576 × 12 × 10–3 = 6,9 grammes C m–2. Dans cet exemple, la valeur initiale des sels nutritifs est imposée (N0 = 1 mmol m–3 à t = 0) et la biologie a permis de séquestrer près de 7 grammes de carbone par mètre carré sous forme de matière organique. Les diverses paramétrisations des modèles NPZ sont revues par Franks (2002). Lorsqu’un modèle NPZ est couplé avec un modèle de circulation océanique de l’Atlantique nord, l’injection des sels nutritifs est alors contrôlée par les divers mouvements océaniques qui ramènent les sels nutritifs dans la couche de mélange (voir par exemple Oschlies et Garçon, 1999). L’ensemble du processus de production primaire et d’export dans la colonne d’eau nommé pompe biologique, est certainement l’élément le plus complexe à mettre en place dans un modèle de cycle du carbone de l’océan compte tenu (i) de la multiplicité des organismes vivants et de leur métabolisme interactif et (ii) des petites échelles spatiales associées aux vitesses verticales qui alimentent la couche de mélange. La revue de Ducklow et Steinberg (2001), les livres de Jacques (2004), Frontier et al., (2004), Williams et Follows (2011), Euzen et al. (2017) permettront d’approfondir et de mesurer les défis pour quantifier la chaîne du vivant.

4.4.4

Échanges de CO2 à l’interface air-mer

Pour que la réaction de photosynthèse 4-4-4 ait lieu, le CO2 présent dans l’atmosphère doit pénétrer dans l’océan. Oui mais comment ? Lorsqu’aucune molécule d’un gaz donné n’est présente dans l’eau, un transfert de molécules de ce gaz se met en route de l’atmosphère vers l’océan. Lorsqu’il y a autant de molécules qui entrent que de molécules qui sortent (flux entrant = flux sortant), l’équilibre thermodynamique est atteint et l’eau est dite saturée pour ce gaz. Le gaz est toujours proche de la saturation dans un film très mince à la surface de l’océan. On mesure la quantité d’un gaz dans l’air par son rapport de mélange volumique Yi ou par sa pression partielle pi, les deux étant reliés par : pi = Yi p avec p la pression atmosphérique totale (voir 4.1.4.7). Lorsqu’on laisse longtemps en contact de l’air avec un liquide, ici l’eau de mer, un équilibre thermodynamique s’établit entre la pression partielle du gaz #A présent dans l’air et sa concentration dans l’eau [A]SAT. Le rapport entre [A]SAT (en mol kg–1) et la pression partielle pA dans l’air définit la solubilité de ce gaz dans l’eau, la loi dite de Henry :

410

[ A ]SAT = S A (en mol kg −1 atm −1) pA

4-4-6 (a)

4. Dynamique du climat

Il y a alors équilibre entre le flux entrant et le flux sortant de molécules du gaz. Pour comparer une concentration [A] quelconque mesurée dans l’océan avec la concentration dans l’air, on définit la pression partielle dans l’eau avec : pSW A =



[ A] SA

4-4-6 (b)

Ainsi pSW A est la pression partielle du gaz A dans l’air en équilibre avec la concentration du gaz [A] dans l’eau. On note ici pA avec l’exposant SW pour rappeler qu’il s’agit de l’équilibre avec l’eau de mer (seawater). Le degré de saturation du gaz A dans l’eau est défini par : pSW [ A] %SAT = SAT ⋅ 100 = A ⋅ 100 A pA [ A] La concentration dans l’eau de mer n’est égale à la valeur à saturation qu’à l’équilibre thermodynamique atteint lorsque les deux pressions partielles sont égales pSW A = pA. Le pourcentage de saturation est alors de 100 %. Le temps d’équilibration du CO2 est long de sorte que sur-saturation ou sous-saturation sont communes. La diminution de la solubilité des gaz quand la pression chute est bien connue : le CO2 produit par fermentation dans la bouteille de champagne dégaze lorsque celle-ci est ouverte brutalement. Le sang du plongeur se charge en bulles d’azote si la remontée se fait trop rapidement. Comme les échanges de gaz se font à l’interface air-mer, le facteur important à prendre en compte ici n’est pas la pression mais la température dont l’effet est donné dans le tableau suivant.  Tableau 4-7  Les solubilités de l’oxygène et du dioxyde de carbone dans l’eau de mer. Le tableau montre la plus grande solubilité du CO2 par rapport à celle de l’oxygène, une différence liée à la structure triatomique ou diatomique de la molécule. Les données de SO2 sont celles de Sarmiento et Gruber (2006). Les données de SCO2 ont été calculées par l’algorithme de Copin-Montégut (1996). Température Salinité fixée 35

0

5

10

15

20

25

Solubilité SO2 [mmol kg–1 atm–1]

1,72

1,52

1,36

1,23

1,12

1,04

Solubilité SCO2 [mmol kg–1 atm–1]

63,2

52,4

44,1

37,6

32,5

28,5

Remarquez que la solubilité du CO2 est beaucoup plus grande que celle de l’oxygène. Le tableau indique que la solubilité augmente quand la température diminue. Si la température de l’eau est plus grande, l’agitation moléculaire augmente et les molécules du gaz vont pouvoir sortir plus facilement, et on s’attend alors à ce que la solubilité diminue. SCO2 diminue effectivement d’à peu près un facteur 2 entre les eaux polaires et les eaux tropicales. Pour une pression partielle dans l’atmosphère de 370 µatm, et pour un SCO2 = 0,0632 mol kg–1 atm–1 à 0 °C, la concentration à saturation du CO2 est de 370 × 0,0632 = 23,4 µmole kg–1. À 20 °C, la concentration à

411

Une introduction à la dynamique des océans et du climat

saturation chute à 12 µmole kg–1. La solubilité de SCO2 est donnée en fonction de la température et de la salinité par Copin-Montégut (1996) (voir Annexe 5). Pour déterminer en un point donné de l’océan l’échange de gaz avec l’atmosphère, on écrit que le flux dépend de la différence de concentration du gaz dans les deux milieux de la façon suivante :

F = k w ([ A ]OCEAN − [ A ]ATMOS ) 4-4-7

Le flux de gaz est toujours dirigé des fortes concentrations vers les faibles et s’exprime en mole m–2 s–1. Son signe est ici défini positif quand le transfert s’effectue vers l’atmosphère. Il peut s’exprimer aussi en termes des pressions partielles en utilisant les relations 4-4-6 (a) et (b) :

F = k w .S A .∆p A 4-4-8 et ∆p A = pSW A − pA

Quand ∆pA est positif (négatif ), le gaz est dit sur- (sous-)saturé. Pour estimer le flux d’échange du gaz, la difficulté supplémentaire est d’estimer le coefficient d’échange kw. On le mesure typiquement dans les couches de mélange océanique et atmosphérique de l’ordre de quelques dizaines de mètres dominées par les échanges turbulents. Le coefficient kw a les dimensions d’une vitesse (appelée traditionnellement piston velocity). Dans une mer calme et une atmosphère calme, les transferts sont faibles et kw petit. En revanche par vent fort et état de mer rugueux avec apparition de bulles de gaz, les concentrations de chaque côté sont renouvelées sans arrêt et le transfert sera plus fort, kw grand. De nombreuses paramétrisations du kw ont vu le jour et celle couramment utilisée aujourd’hui est due à Wanninkhof (2014). Les valeurs moyennes de kw vont de 10 à 20 cm/heure.

 Figure 4-4-6  Le flux de carbone à l’interface air-mer (gramme de carbone par m2 et par an) pour l’année de référence 2000, de Takahashi et al. (2009). Le flux sortant est compté positivement.

412

4. Dynamique du climat

Les expériences JGOF et WOCE des années 1990 ont permis de faire une moisson sans précédent d’observations de la pression partielle pCO2. Comme le dioxyde de carbone est quasi homogène dans l’atmosphère (~380 µatm en 2005), l’utilisation de 4-4-8 permet de calculer les flux de carbone à l’interface air-mer (figure 4-4-6). Ce flux montre de fortes variations géographiques : le flux est négatif dans les régions polaires (il y a sous-saturation) et au contraire positif dans les régions tropicales (l’océan est sursaturé et dégaze du CO2). Une exception, le flux dans le Pacifique nord-ouest qui est positif. La contribution de l’océan Austral reste plus incertaine par manque de mesures. L’océan Équatorial, et particulièrement le Pacifique est, dégaze : c’est le flux principal de CO2 vers l’atmosphère avec un flux de +0,48 GtC an–1. Lorsqu’on ajoute les contributions des régions équatoriales de l’Indien et de l’Atlantique, ce flux monte à 0,69 GtC an–1. Il est causé par les upwellings équatoriaux qui remontent en surface beaucoup du carbone qui est reminéralisé en profondeur. Le puits de CO2 le plus important apparaît dans la bande 20°-50°, –0,7 GtC an–1 dans l’hémisphère nord, –1,05 GtC an–1 dans l’hémisphère sud. Il y a encore un puits dans les mers Nordiques de l’Atlantique nord de –0,27 GtC an–1. Lorsqu’on somme toutes ces contributions sur la surface océanique, le flux net entrant dans l’océan est de –1,6 GtC an–1 mais les erreurs sont importantes de ±1 GtC an–1 (erreurs d’échantillonnage, erreurs sur les mesures, erreurs sur les coefficients de transfert, la vitesse du vent). L’Atlantique contribue pour 40 % de ce total, alors que le Pacifique ne contribue que pour 30 % en dépit de sa surface bien supérieure. Ces valeurs sont celles du flux de carbone contemporain. Puisque la concentration de CO2 de l’atmosphère est restée stable sur les 5 000 dernières années, l’atmosphère était probablement en équilibre avec les autres compartiments « océan + terre » à la période préindustrielle. On estime malgré tout qu’environ ~0,4 GtC an–1 devait aller de l’océan à l’atmosphère. Il existe aujourd’hui une contribution des rivières (run-off ) qui ramènent du carbone dissous à l’océan et ce 0,4 est la contribution des rivières estimée pour la période préindustrielle. Ce même 0,4 repartait donc dans l’atmosphère puis à la surface terrestre. On peut donc dire que la variation totale du flux de carbone à l’interface air-mer depuis la période industrielle est de –1,6 – (+0,4)= –2 GtC an–1. L’ensemble du cycle du carbone perturbé par la consommation des énergies fossiles est discuté plus loin sur la figure 4-6-16. La grande capacité de l’océan à stocker du carbone dépend des réactions chimiques du CO2 dans l’eau de mer pour former bicarbonates et carbonates, l’objet du paragraphe suivant.

4.4.5

La chimie des carbonates dans l’océan

Le système des carbonates dans l’océan joue un rôle important car il régule l’acidité de l’eau de mer (le pH) et contrôle la circulation du CO2 entre la biosphère, la lithosphère, l’atmosphère et les océans. Pour l’apprécier, il faut prendre le temps nécessaire pour décrire les réactions chimiques importantes.

413

Une introduction à la dynamique des océans et du climat

4.4.5.1

Réactions chimiques de base

L’eau est un électrolyte faible et se dissocie en ions hydrogène [H+] acide et en ions hydroxide [OH–] base : H2O ⇔ H+ + OH− où les concentrations obéissent à l’équilibre thermodynamique : [H+ ][OH− ] = K w 4-4-9



avec Kw ≈ 10–14 (mol kg–1)2. L’acidité d’une solution est mesuré par son pH = –log10 [H+] où [H+] est la concentration en ions hydrogène (mole kg–1). Une solution est dite acide si le pH est inférieur à 7 et basique si son pH est supérieur à 7. L’eau de mer a un pH qui se situe entre 7,4 et 8 et elle est donc légèrement basique. Le pH est plus faible en profondeur qu’en surface. Quand le gaz CO2 se dissout dans l’eau apparaît une forme aqueuse qui réagit avec l’eau pour former l’acide carbonique H2CO3. On notera dans la suite CO*2 le gaz dissous dans l’eau de mer. Les deux réactions chimiques fondamentales du CO2 dans l’eau sont les suivantes :

H2O + CO*2 ⇔ H+ + HCO3− (a ) 4-4-10 HCO3− ⇔ H+ + CO32 − (b)

La 1re réaction libère des ions H+ et l’ion bicarbonate HCO3– et la 2e libère des ions H+ et l’ion carbonate CO32–. Ces réactions sont rapides de sorte que l’équilibre thermodynamique est atteint et les concentrations sont régies par la loi d’action de masse pour chacune d’elles :



[HCO3− ][H+ ] = K1 [CO*2 ]

(a )

[CO32 − ][H+ ] = K2 [HCO3− ]

(b)

4-4-11

avec les concentrations entre crochets toujours données en mole kg–1. Notez que K1 >> K2. Une augmentation de la concentration du CO2 dans l’atmosphère augmentera le CO*2 et 4-4-11 (a) prédit que l’équilibre se déplace vers la droite libérant des protons, les ions acides [H+]. Mais si [H+] augmente, alors 4-4-11 (b) indique que l’équilibre va se déplacer vers la gauche et consommer ces [H+]. L’effet net est de considérer ensemble les deux réactions :

H2O + CO*2 + CO32 − ⇔ 2HCO3− 4-4-12

avec un équilibre donné par : [CO32 − ][CO*2 ] K 2 = K1 [HCO3− ]2 Sous réserve de la présence d’ions bicarbonates CO32–, l’augmentation du gaz dissous CO2* déplace la réaction 4-4-12 vers la droite sans pour autant augmenter

414

4. Dynamique du climat

l’acidité de l’océan (sans production nette d’ions [H+]). On appelle cela l’effet tampon des carbonates. La capacité de l’océan à absorber le dioxyde de carbone dépend donc de sa disponibilité en ions bicarbonates CO32–. Les constantes des réactions 4-4-11 dépendent de la température, de la pression et de la salinité. Elles sont données dans l’Annexe 5 et dans le tableau ci-dessous pour trois températures à salinité constante.  Tableau 4-8  Les constantes des réactions des carbonates dans l’eau de mer. Ces valeurs sont calculées par l’algorithme fonction de la température et de la salinité donné par Copin-Montégut (1996). Température (S = 35 o/oo)

SCO2 [mol kg–1atm–1]

K1 [mol kg–1]

K2 [mol kg–1]

Kw [mol kg–1]

0

0,063

7,7 10–7

4,1 10–10

4,8 10–15

10

0,044

9,9 10–7

6,4 10–10

1,4 10–14

20

0,032

1,24 10–6

9,7 10–10

3,8 10–14

oC

Comme le carbone échangé avec l’atmosphère peut se retrouver dans l’océan sous les trois formes ci-dessus, la variable importante va être le carbone total inorganique dissous (total dissolved inorganic carbon) noté CT (et autrefois DIC) :

C T = [CO*2 ] + [HCO3− ] + [CO32 − ] 4-4-13

Si on connaît CT et que l’on veut connaître la répartition entre ces trois formes de carbone pour un pH donné, on commence par exprimer HCO3– et CO32– en fonction de CO2* et H+ à l’aide de 4-4-11 (a) et (b), expressions que l’on reporte ensuite dans 4-4-13, ce qui donne la première relation ci-dessous. Les autres s’en déduisent directement : [CO*2 ] [H+ ]2 = CT D

[HCO3− ] K1[H+ ] = CT D [CO32 − ] CT

=

4-4-14

K1K 2 D

avec D = [H+ ]2 + K1[H+ ] + K1K 2 Avec les valeurs des constantes du tableau à 20 °C et un pH de l’eau de mer de 8, les proportions des concentrations des différentes espèces chimiques sont alors les suivantes : C T = [CO*2 ] + [HCO3− ] + [CO32 − ] 0, 72% 90, 3%

9%

415

Une introduction à la dynamique des océans et du climat

Ces pourcentages montrent que l’essentiel du carbone total se trouve sous la forme du bicarbonate HCO3– et dans une moindre mesure du carbonate CO32–. Le gaz dissous CO*2 est une fraction très faible du carbone total, or ce n’est que sous cette forme que le carbone est échangé avec l’atmosphère. Il est utile d’explorer la répartition des ions en fonction du pH pour une valeur de CT donnée. En prenant une valeur typique des conditions de surface CT = 2 000 µmol kg–1, les relations 4-4-14 permettent d’en déduire toutes les concentrations sur la figure 4-4-7.

 Figure 4-4-7  Les concentrations des carbonates [mol kg–1] en fonction du pH de l’eau de mer pour un carbone total donné (CT = 2 000 µmol kg–1) et les constantes des réactions du tableau 4-8 à 20 °C.

La concentration en bicarbonate varie relativement peu dans la gamme du pH de l’eau de mer. En revanche le CO*2 augmente fortement quand le pH diminue alors qu’à l’inverse le carbonate CO32– augmente avec le pH. De fait ce sont les concentrations de ces trois formes de carbone qui fixent le pH de l’océan par les réactions acide-base majeures 4-4-10. Lorsque le gaz est en équilibre thermodynamique avec la pression partielle atmosphérique, on peut aussi calculer le carbone total CT. En prenant la valeur atmosphérique pCO2 = 380 ppmv en 2005, on trouve d’abord la concentration CO*2 à l’équilibre à 20 °C : [CO*2 ] = pCO2 . SCO2 12, 5 mmol kg -1 = 380 x 0, 033 Puis avec un pH de 8, on calcule CT, HCO3– et CO32– pour trouver CT = 1 700 µmol kg–1, [HCO3–] = 1 500 µmol kg–1, [CO32–] = 155 µmol kg–1.

416

4. Dynamique du climat

À côté du carbone total, l’autre quantité importante est l’alcalinité. Comme l’eau de mer est conductrice d’électricité, la somme des charges positives des cations équilibre la somme des charges négatives des anions. Certains atomes conservatifs sont toujours complètement ionisés quelle que soit la valeur du pH mais pour d’autres l’ionisation dépend de la température, de la salinité et du pH. On définit l’alcalinité totale AT comme la charge électrique nette des ions conservatifs majeurs, charge qui est donc conservée à une particule d’eau :

A T = [Na + ] + 2[Mg 2 + ] + 2[Ca 2 + ] + [K + ] + 2[Sr +2 ] −[Cl − ] − 2[SO24− ] − [Br − ] − [F− ] − [NO3− ] ...

4-4-15 (a)

Mais comme l’eau de mer est électriquement neutre, cette valeur doit être nécessairement égale à la somme des charges associées aux ions des acides faibles et bases dont les concentrations varient avec le pH, de sorte que AT est aussi :

A T = [HCO3− ] + 2[CO32 − ] + [B(OH)−4 ] + [OH− ] − [H+ ] + ... 4-4-15 (b)

L’alcalinité est dominée par les deux premiers termes. La réaction acide-base suivante de l’acide borique B(OH)3 gouverne la concentration du troisième terme, l’ion borate : B(OH)3 + H2O ⇔ B(OH)4− + H+ dont les concentrations sont gouvernées à l’équilibre par : [B(OH)4− ].[H+ ] = KB B(OH)3 Le bore total B T = B(OH)−4 + B(OH)3 est conservatif à une très bonne approximation et on peut donc le relier à la salinité, l’ajustement empirique étant : BT (mol kg–1) = 1,188 10–5 S. Ceci permet de trouver une relation directe entre la concentration de l’ion borate et celle de l’ion H+:

[B(OH)4− ] = 1,18810−5S

KB 4-4-16 K B + [H+ ]

L’acide boride est un acide faible, peu dissocié. Copin-Montégut (1996) donne KB en fonction de la température et de la salinité (KB = 2,2 10–9 à T = 20 °C et S = 35) (voir Annexe 5). Pour une compréhension qualitative du fonctionnement du système des carbonates, on néglige à 10 % près les ions borates, H+ et OH– dans 4-4-15 (b). L’alcalinité des carbonates est alors définie par : A C = [HCO3− ] + 2[CO32 − ] Mais si l’alcalinité vue au travers des ions majeurs est conservative, il s’ensuit que l’alcalinité vue au travers des carbonates est elle aussi quasi conservative et elle

417

Une introduction à la dynamique des océans et du climat

permet de comptabiliser la concentration des ions négatifs qui vont réagir avec les ions [H+]. Puisque CO*2 est très faible dans l’eau de mer, on peut écrire les relations approximatives suivantes qui vont être très utiles : A C = [HCO3− ] + 2[CO32 − ] C T ≈ [HCO3− ] + [CO32 − ]

4-4-17

ainsi : [CO32 − ] ≈

AC − CT

[HCO3− ] ≈

2C T − A C

Les six variables [CO*2 ], [HCO3− ], [CO32 − ], [H+ ], C T , A C constituent le système des carbonates, un système qui est gouverné par quatre équations, les deux équations 4-4-11 (a) et (b) et les deux définitions 4-4-17. Il y a donc deux degrés de liberté qu’il faut connaître pour déterminer les six variables. Dans les modèles de cycle du carbone, on utilise les deux équations de traceurs de la forme 2-3-10 pour CT et AT (avec leurs sources et puits inclus). À un pas de temps donné du modèle, 4-4-15 donne alors les concentrations des carbonates et bicarbonates puis 4-4-11 (a) et (b) fournissent le pH, CO*2 et donc pCO2 : pCO2 =

2 [CO*2 ] K 2 [HCO3− ] K 2 (2C T − A C ) = ≈ SCO2 SCO2K1 [CO32 − ] SCO2K1 ( A C − C T )

2C − A C [H+ ] = K 2 T AC − CT

4-4-18

Notez que la présence au dénominateur de AC – CT dans 4-4-18 amplifie les approximations individuelles faites sur AT et CT, approximations sur lesquelles on reviendra au § 4-4-7-2. Les observateurs peuvent mesurer le pH, pCO2, l’alcalinité totale AT et le carbone total et le choix des mesures faites dépend plus des objectifs de recherche et des moyens analytiques du laboratoire. Bien que deux observations de ces variables suffisent pour en déduire toutes les autres, il est préférable d’avoir de la redondance et d’en mesurer un peu plus. La relation 4-4-18 permet de savoir comment pCO2 varie avec la température dans un système clos où AC et CT seraient maintenus constants. La variation de la solubilité SCO2 avec la température est le facteur le plus important et l’approximation suivante a été proposée par Takahashi et al. (1993) :

∂ ln pCO2 ≈ 0.0423 oC −1 4-4-19 ∂T

La variation de SCO2 avec la température est appelée la pompe de solubilité et 4-4-19 en est la traduction quantitative. Pour une variation typique de la SST de 20 °C entre l’équateur et les pôles, la relation prédit pCO2|équateur / pCO2|pole = e0.042x20 = 2,3. Comme la variation observée est moindre que ce facteur deux, les flux à l’interface air-mer et la distribution des carbonates en surface qui interviennent dans 4-4-18 sont aussi à prendre en compte.

418

4. Dynamique du climat

4.4.5.2

La dissolution du carbonate de calcium dans l’océan

On a observé depuis longtemps que la teneur des sédiments océaniques en carbonate de calcium (CaCO3) diminuait quand la profondeur augmentait le long des talus continentaux. Pourquoi ? Le maintien du carbonate de calcium sous sa forme solide est lui aussi contrôlé par un équilibre thermodynamique au travers de la réaction : CaCO3 |solide ⇔ Ca 2 + + CO32 − Lorsqu’on ne peut plus dissoudre de CaCO3 dans l’eau, la solution est dite saturée en carbonate de calcium. L’équilibre est atteint lorsque le taux de dissolution est égal au taux de précipitation. Les concentrations des ions à saturation obéissent alors à : [Ca 2 + ]SAT [CO32 − ]SAT = K SP avec KSP la constante de solubilité. KSP croît faiblement quand la température diminue et beaucoup plus quand la pression augmente. Le tableau suivant donne KSP pour les deux formes calcite et aragonite sous lesquelles on trouve le CaCO3 dans l’océan, deux formes qui ont des structures cristallographiques différentes.  Tableau 4-9  Sont données quelques valeurs de KSP pour la calcite et l’aragonite pour différentes pression et température. Source : Sarmiento et Gruber (2006). -log10KSP Température (mol kg–1)2 o [ C] Calcite

-log10KSP (mol kg–1)2 Aragonite

-log10KSP (mol kg–1)2 Calcite

-log10KSP (mol kg–1)2 Aragonite

-log10KSP (mol kg–1)2 Calcite

-log10KSP (mol kg–1)2 Aragonite

p = 0 dbar

p = 0 dbar

2

4,3 10–7

6,8 10–7

5,2 10–7

8,16 10–7

1,25 10–6

1,86 10–6

10

4,3 10–7

6,8 10–7

5,15 10–7

8 10–7

1,15 10–6

1,68 10–6

20

4,3 10–7

6,6 10–7

5,05 10–7

7,7 10–7

1,07 10–6

1,53 10–6

p = 1 000 dbar p = 1 000 dbar p = 6 000 dbar p = 6 000 dbar

On définit le degré de saturation par le rapport : ΩC =

[Ca 2 + ] [CO32 − ] [Ca 2 + ] [CO32 − ] = K SP [Ca 2 + ]SAT [CO32 − ]SAT

Si ΩC < 1, il y a sous-saturation, une situation favorable à la dissolution, et si ΩC > 1, il y a sur-saturation, une situation favorable à la précipitation (la formation du solide). Comme le calcium est présent en grande quantité dans l’eau, sa concentration varie très peu et le degré de saturation du carbonate ΩC est surtout contrôlé par la concentration en CO32– et la variation de KSP. Dans les eaux de surface et intermédiaires, la concentration en carbonate est supérieure à la valeur à saturation (ΩC > 1) mais pour autant la précipitation n’est pas spontanée et se fait essentiellement dans l’organisme vivant lui-même lorsqu’il synthétise coquille ou

419

Une introduction à la dynamique des océans et du climat

squelette : la photosynthèse consomme du dioxyde de carbone et fabrique des structures solides par production de coquilles/squelettes de carbonate de calcium solide CaCO3 au travers de la réaction 4-4-2 avec l’ion bicarbonate présent en grande quantité. Après la mort de l’organisme, cette matière solide descend lentement dans la colonne d’eau. L’augmentation de KSP en profondeur, essentiellement due à la pression, indique tout de suite que CaCO3 sera plus soluble dans les eaux profondes. Alors que les eaux de surface sont sur-saturées, la sous-saturation en profondeur est fréquente et la dissolution du carbonate de calcium est alors favorisée avec régénération de CO32–. La lysocline est la profondeur à laquelle cette dissolution devient effective, quelques centaines de mètres en dessous de l’horizon de saturation où ΩC = 1. De l’ordre de 3 500 à 5 000 m dans l’Atlantique nord, la lysocline remonte à 1 000 m dans le Pacifique nord à cause des faibles concentrations de carbonates. On s’est aperçu que la présence de carbonate de calcium dans les sédiments dépend en fait plus de facteurs cinétiques que de l’équilibre thermodynamique précédent. Si les particules chutent rapidement, elles peuvent atteindre le fond avant dissolution par la réaction précédente : la vitesse de chute des particules solides depuis la surface et le taux de dissolution sont donc les deux paramètres à comparer. La profondeur de compensation de la calcite (Calcite Compensation Depth, CCD) est la profondeur à laquelle les deux s’équilibrent. Elle se situe entre 500 et 1 000 m sous la lysocline. Ainsi uniquement si la bathymétrie se situe au-dessus de la CCD, le CaCO3 se déposera-t-il au fond des océans. Ceci explique pourquoi les sédiments de carbonate de calcium en plein océan sont distribués à proximité des axes des dorsales océaniques.

4.4.5.3

Distribution géographique du système des carbonates

1.  Distribution en latitude À la surface des océans, le carbone total CT varie en latitude de 2 000 µmol kg–1 dans les tropiques à 2 100 µmol kg–1 aux hautes latitudes. Cette augmentation en latitude tient pour une grande part à l’augmentation de la solubilité SCO2 lorsque la température diminue. À l’équilibre avec une pression partielle pCO2 fixée, les eaux froides contiennent plus de carbone total. Cette même variation en latitude se retrouve pour CO*2 et HCO3–. Comme l’alcalinité ressemble davantage à la salinité, elle diminue aussi quand la latitude augmente en réponse aux flux de surface E–P. La décroissance observée du carbonate CO32– avec la latitude s’explique directement à l’aide de 4-4-15 par la décroissance de AC et la croissance de CT (due à la solubilité accrue). Ainsi une partie de la distribution des flux de carbone de la figure 4-4-7 s’explique par la façon dont pCO2 varie avec la température (la relation 4-4-19). En effet comme pCO2|ATM est homogène spatialement, la distribution géographique du flux est contrôlée par le pCO2 océanique faible aux hautes latitudes (le gaz rentre car l’océan est sous-saturé en CO2) et fort aux basses latitudes (l’océan dégaze car l’océan est sursaturé).

420

4. Dynamique du climat

2.  Distribution en profondeur Une station du Pacifique occupée lors du programme GEOSECS des années 1970 va servir d’exemple pour suivre les processus qui permettent de rationaliser la distribution des différents traceurs (carbone et sels nutritifs) sur la verticale.

 Figure 4-4-8  Les distributions sur la verticale de CT, alcalinité, oxygène et nitrate à la station GEOSECS 214 (32 °N, 176 °O). L’unité d’alcalinité peut être considérée comme le µmol kg–1. Source : Broecker et Peng (1982).

À cette station du gyre subtropical Pacifique de la figure 4-4-9, l’oxygène, fort en surface, passe par un minimum et réaugmente en profondeur. La forte valeur en surface s’explique par la proximité de l’interface air-mer : la couche de mélange est ventilée. Les fortes valeurs au fond proviennent de la ventilation par les eaux profondes formées aux hautes latitudes. Le minimum vers 1 km est dû à la reminéralisation par les bactéries de la matière organique qui tombe de la couche euphotique. Un des sels nutritifs majeurs, le nitrate, a une distribution opposée à celle de l’oxygène : la production primaire a consommé tous les nitrates de la couche euphotique et la reminéralisation le régénère en profondeur. Puisque le CO2 (l’acide) est consommé par la photosynthèse en surface, le pH y est un peu plus élevé qu’en profondeur où le CO2 est restitué par la re-minéralisation. Les deux quantités CT et AC sont faibles en surface et augmentent avec la profondeur. La faiblesse de CT en surface par rapport

421

Une introduction à la dynamique des océans et du climat

aux couches profondes est due à la photosynthèse. Le carbone est ensuite restitué en profondeur lors de la reminéralisation traduisant l’action de la pompe biologique. La solubilité du CO2 plus forte pour les eaux froides enrichit les eaux profondes en carbone. D’après 4-4-15 (a) l’alcalinité faible en surface s’explique essentiellement par l’extraction de l’ion calcium pour fabriquer les tests de carbonate de calcium CaCO3 des organismes. Mais ces tests se dissolvent lorsqu’ils tombent en profondeur, redonnent le calcium et l’alcalinité augmente. Les débris solides des tests descendent plus facilement que les débris organiques, ce qui expliquerait le maximum plus profond pour l’alcalinité que pour le carbone total ou les nitrates. Les variations relatives sur la verticale de CT (15 %) et de l’alcalinité (5 %) sont faibles. Si faibles soient-t-ils, ces gradients verticaux jouent un grand rôle dans l’absorption de CO2 par l’océan.

4.4.5.4

Modélisation du flux air-mer

Tous les éléments sont maintenant réunis pour pouvoir modéliser le forçage du CO2 en surface. Compte tenu des réactions chimiques du système des carbonates et de la biologie marine qui agit en surface, l’échange de CO2 à l’interface air-mer est bien différent de celui d’un gaz inerte comme l’azote. Imaginons un gaz A dans la couche de mélange océanique qui n’échange qu’avec l’atmosphère. En utilisant l’expression du flux de gaz à l’interface air-mer 4-4-7, l’évolution de sa concentration obéit à : HML

∂[ A ] = k w ([ A ]ATM − [ A ]) ∂t

avec HML l’épaisseur de la couche de mélange. Sous une concentration atmosphérique constante, la concentration dans la couche de mélange s’équilibre avec celle de l’atmosphère sur une échelle de temps τA = HML/kw soit 10 jours (pour une épaisseur HML = 50 m et un coefficient d’échange kw = 20 cm/h). Ce sont ces échelles de temps qui contrôlent l’injection d’un gaz neutre de l’atmosphère comme l’azote ou l’oxygène. Comme cette échelle de temps est courte, on s’attend à ce que ces gaz aient de faibles différences de concentration entre l’atmosphère et la couche de mélange. En revanche le CO2 est un gaz réactif chimiquement et lorsque sa concentration change dans la couche de mélange, toutes les autres formes d’ions, carbonate, bicarbonate et H+ vont également changer. Il faut donc considérer simultanément le changement de toutes ces formes de carbone possibles. L’évolution du carbone inorganique total CT dans la couche de mélange s’écrira :

∂[C T ] k w ([CO2 ]ATM − [CO*2 ]) 4-4-20 = HML ∂t

Une équation gouvernant l’évolution du CO2* est obtenue en écrivant : ∂[C T ] ∂C T ∂[CO*2 ] = ∂t ∂[CO*2 ] ∂t De sorte que l’évolution du gaz dissous CO*2 obéit à :

422

∂[CO*2 ] ∂[CO*2 ] k w ([CO2 ]ATM − [CO*2 ]) 4-4-21 = ∂t ∂C T HML

4. Dynamique du climat

Pour connaître l’échelle de temps sur laquelle s’équilibre le CO2*, il faut donc ∂[CO*2 ] maintenant calculer cette dérivée en utilisant la chimie des carbonates. ∂C T L’expression 4-4-18 s’écrit aussi : [CO*2 ] =

2 K 2 (2C T − A C ) K1 ( A C − C T )

expression que l’on dérive par rapport à CT à alcalinité constante (puisqu’elle n’est pas modifiée par les flux air-mer) pour obtenir : ∂[CO*2 ] K 2 (2C T − A C ) (3A C − 2C T ) = K1 ∂C T ( A C − C T )2 En remplaçant CT et AC par leurs expressions approchées 4-4-17, on obtient : ∂[CO*2 ] K 2 HCO3− ⋅ ([HCO3− ] − [CO32 − ) = K1 ∂C T ([CO32 − ])2 Comme la concentration en ion carbonate est faible par rapport à l’ion bicarbonate dans l’océan, on peut simplifier le dernier terme au numérateur : ∂[CO*2 ] K 2 [HCO3− ]2 ≈ ∂C T K1 [CO32 − ]2 Puis en remplaçant les constantes K1 et K2 par leurs expressions 4-4-11 (a) et (b), on obtient finalement :

∂[CO*2 ] [CO*2 ] 1 = ≈ 4-4-22 ∂C T [CO32 − ] 20

Ce rapport des concentrations de l’ordre de 1/20, indique que seule une molécule de CO2 sur 20 entrant dans l’océan reste sous la forme CO*2, les autres participant aux réactions avec les carbonates et bicarbonates. En conséquence l’équation 4-4-21 montre que l’équilibration des concentrations du CO2 de chaque côté de l’interface air-mer prend beaucoup plus de temps, l’échelle de temps d’équilibration du CO2 dans la couche de mélange devenant τCO2 = 20 HML/kw, soit 200 jours. Comme cette échelle de temps est longue par rapport à l’échelle de temps advective L/U des mouvements de l’océan de surface, on s’attend à voir persister de forts contrastes air-mer entre les concentrations de CO2 (ou pCO2). C’est ce qui explique la variabilité géographique du flux de la figure 4-4-6. L’expression 4-4-22 montre que la présence de l’ion carbonate CO32– à la surface est donc le facteur de contrôle d’injection de carbone dans l’océan. La sensibilité de pCO2 à la valeur de CT est évaluée par la quantité B appelée facteur de Revelle : C T ∂pCO2 B= pCO2 ∂C T

423

Une introduction à la dynamique des océans et du climat

En utilisant 4-4-6 et 4-4-18, on trouve que : B=

C T ∂[CO*2 ] CT = ≈ 10 * [CO2 ] ∂C T [CO32 − ]

4-4-23

Les changements relatifs de pCO2 sont 10 fois plus grands en moyenne que les changements relatifs de CT : quand pCO2 augmente de 10 %, CT n’augmente que de 1 %. En utilisant 4-4-14, on peut aussi exprimer B en fonction du pH et des constantes des réactions. Comme CT croît en latitude à la surface des océans alors que CO32– décroît, 4-4-23 montre que B autour de 8 dans les tropiques peut monter jusqu’à 16 aux hautes latitudes avec une moyenne globale autour de 10. La figure 4-4-9 de Sabine et al. (2004) montre la distribution observée de B :

Figure 4-4-9 Le facteur de Revelle B dans la couche de mélange tel que calculé par Sabine et al. (2004) à partir des mesures des programmes JGOFS et WOCE.

On retrouve effectivement des valeurs élevées (basses) de B dans les régions subpolaires (tropicales et subtropicales).

4.4.6

Synthèse

4.4.6.1

Les pompes de carbone

La distribution du pCO2 océanique résulte de l’interaction de processus physiques, chimiques et biologiques résumés ci-après.

424

4. Dynamique du climat

1) La pompe physique dite de solubilité La variation de la solubilité du CO2 avec la température donne un rôle important à la circulation océanique. Dans les régions polaires, les eaux sont froides et la solubilité forte. Ces eaux denses plongent et peuvent injecter de fortes concentrations de CO2 en profondeur pour séquestrer le CO2 atmosphérique. Lors du parcours de la circulation thermohaline vers les tropiques, la reminéralisation de la matière organique enrichit encore ces eaux en CO2. Dans les régions équatoriales, l’upwelling ramène vers le haut des eaux riches en carbone. En surface, l’eau chaude diminue la solubilité, les molécules s’échappent plus facilement de l’océan et le dégazage vers l’atmosphère est observé. L’injection de CO2 dans les régions de formation de masses d’eau résulte de la simple déstabilisation de la colonne d’eau par refroidissement hivernal dans les régions polaires ou subpolaires. Mais l’océan intérieur est stratifié stablement et les processus de mélange vertical nécessaire pour transformer ces eaux froides en eaux plus chaudes sont moins évidents. Les observations du mélange lui-même font l’objet d’efforts de recherches importants. L’évaluation de la contribution nette de l’océan Austral dans une zone hostile pose encore de grosses difficultés. Les flux de carbone de la figure 4-4-7 montrent qu’il est un puits autour de 45 °S et une source autour de 60 °S, une source qui pourrait être la signature de la remontée de l’eau nord-atlantique profonde riche en carbone. 2) La chimie des carbonates Les réactions chimiques des carbonates font qu’au pH actuel de l’océan, la majeure partie du carbone est sous forme de bicarbonate et carbonate, la concentration en gaz dissous CO2* représentant moins de 1 % du carbone total. Mais pourtant cette forme CO2* est la seule qui puisse s’échanger avec l’atmosphère (l’équation 4-4-21). Sans cette chimie des carbonates, les stocks de carbone atmosphériques et océaniques seraient comparables alors que le stock océanique est devenu plus de 50 fois le stock atmosphérique. Le facteur de Revelle donne la variation relative de pCO2 dans l’atmosphère, en moyenne dix fois la variation relative de carbone total dans l’océan : quand pCO2 augmente de 10 %, le carbone total CT lui n’augmente que de 1 %. Mais la varia1 C tion absolue ∆C T = ⋅ T* ⋅ ∆CO*2 ≈ 10 ⋅ ∆CO*2 puisqu’au pH actuel, CO2* ne 10 CO2 représente qu’un pour cent du carbone total. La chimie des carbonates permet à l’océan d’absorber 10 fois plus de dioxyde de carbone atmosphérique que si le carbone se trouvait sous une forme inerte. 3) La pompe biologique La synthèse de la matière organique en surface dans la couche euphotique diminue le carbone total CT. L’alcalinité diminue surtout par utilisation du calcium pour les coquilles des organismes. L’effet net est une diminution de pCO2. On voit sur la figure 4-4-9 que le carbone total CT diminue assez nettement près de la surface. Si on attribue cette diminution d’environ 10 % entièrement à la photosynthèse,

425

Une introduction à la dynamique des océans et du climat

la variation relative de pCO2 en l’absence de photosynthèse deviendrait d’après 4-4-23 : ∆pCO2 ∆C T =B = 10 x 10% = 100% pCO2 CT Dans un océan abiotique la concentration en CO2 de l’atmosphère préindustrielle 280 ppmv serait passée du simple au double soit 560 ppmv, montrant le rôle fondamental de la biologie marine dans la séquestration du CO2 atmosphérique. Notez que la formation du carbonate de calcium, le CaCO3 des coquilles et squelettes (le tissu dur), de certains organismes est une contre-pompe en surface puisque la réaction 4-4-2 montre que cette formation consomme du bicarbonate et génère du CO2. À l’exception de quelques organismes spécifiques, la diminution de pCO2 par la création de carbone organique reste toutefois la situation dominante globalement.

4.4.6.2

Vers un modèle du cycle du carbone

Le schéma de la figure 4-4-10 résume les processus majeurs du cycle du carbone dans l’océan et les sédiments qui ont été rencontrés : CO2

Atmosphère Couche euphotique

Océan profond

CaCO3

CaCO3

Précipitation biologique

Dissolution

CT

CT

Photosynthèse

Carbone organique

Re-minéralisation

Carbone organique

Re-minéralisation

Carbone organique

Diffusion

Sédiments

CaCO3

Dissolution

CT

 Figure 4-4-10  Le cycle du carbone dans l’océan avec ses trois compartiments, les particules de CaCO3 solide, le carbone dissous CT et les particules de carbone organique, fabriquées en surface – et reminéralisées en profondeur. L’échange du gaz CO2 à l’interface air-mer est indiqué par les flux en pointillé. Les doubles flèches représentent les flux verticaux associés à la circulation océanique, avec des courants organisés (vers le haut ou vers le bas), du mélange turbulent causé par un refroidissement en surface, un coup de vent, une instabilité de cisaillement à la base de la couche euphotique. Les flèches verticales grises représentent la pluie de particules (tissus mous ou durs) qui chutent vers le fond. Les flèches noires horizontales représentent les interactions biogéochimiques entre les trois compartiments.

426

4. Dynamique du climat

Le dioxyde de carbone de l’atmosphère se retrouve dans l’océan sous trois formes, le carbonate de calcium solide CaCO3, le carbone total CT (la somme du gaz CO2 dissous, des ions carbonate et du bicarbonate) et finalement la matière organique qui ne représente qu’un faible pourcentage du total. Les flux sont dus à la circulation, à la pluie de particules, et aux processus biogéochimiques. La matière organique est créée par photosynthèse dans la couche euphotique et ensuite se met en route toute la chaîne du vivant vers des organismes de plus en plus complexes. La création des tests solides est causée par la précipitation du CaCO3 dans l’organisme lui-même. Dans l’intérieur de l’océan, ces tests peuvent être re-dissous libérant ions calcium et carbonate. La matière organique morte est aussi reminéralisée dans l’intérieur avec consommation d’oxygène et libération de dioxyde de carbone par l’activité bactérienne. Le carbone inorganique dissous CT et les sels nutritifs évoluent comme un traceur de sorte qu’upwellings et mélange turbulent permettent de les faire remonter dans la couche euphotique. Ce qui reste tombe au fond et s’incorpore dans le sédiment, où exactement les mêmes réactions (oxydation, régénération) peuvent également se produire. Un modèle de cycle du carbone s’intègre dans un modèle de circulation océanique qui fournit les transports. La paramétrisation des flux biogéochimiques reste la partie la plus délicate et s’effectue en s’appuyant sur des processus théoriques, des expériences en laboratoire et des observations in situ (voir l’exemple simplifié du § 4.4.3.2). Le schéma ci-dessus peut se voir tant en moyenne globale qu’à un point de grille particulier du modèle. Le carbone total CT et l’alcalinité AT obéissent aux équations des traceurs passifs (voir équation 2-3-10) auxquelles il faut ajouter les « sources et puits », les processus de dilution-concentration E-P en surface, les sourcespuits liés à la photosynthèse et à la reminéralisation de la matière organique et ceux liés à la dissolution des carbonates. Les représentations quantitatives des sources-puits biogéochimiques restent la difficulté principale. Résumons l’effet de ces processus de sources-puits sur le carbone total et l’alcalinité (définie par 4-4-15) : 1) Les échanges de gaz à l’interface air-mer modifient CT mais ne modifient pas AT. 2) La dissolution (précipitation) d’une mole de CaCO3 augmente (diminue) CT d’une mole et AT de deux moles (car il y a deux charges électriques sur chaque ion). 3) La photosynthèse consomme CT en surface. Elle consomme aussi l’ion nitrate NO3– et la réaction de Redfield 4-4-4 indique que la consommation d’une mole de CO2 demande la consommation de 16/106 mole de nitrate, de sorte que AT augmente d’autant. Lors de la dégradation de la matière organique en profondeur, l’inverse se produit. 4) De la même façon que pour la salinité, une source d’eau douce en surface, précipitation ou apport des rivières, diluera CT et AT (inversement pour l’évaporation). Pour corriger cet effet, les valeurs de CT et AT peuvent être normalisées par la salinité : CTN = CT × 35/S, idem pour AT. Après l’action de ces sources-puits, CT et AT sont connues à un pas de temps du modèle, les quatre équations de la chimie des carbonates permettent alors de déterminer les inconnues restantes, pCO2|eau, CO*2, HCO3–, CO32–, et le pH. Ceci permet alors de calculer le forçage air-mer dans 4-4-18 pour avancer la valeur de CT au pas de temps suivant. Pour calculer pCO2 avec assez de précision, il est important

427

Une introduction à la dynamique des océans et du climat

de considérer l’alcalinité totale et non plus la seule alcalinité des carbonates qui a conduit à la relation 4-4-18. Le calcul suivant est celui de Copin-Montégut (1996). On commence par écrire l’alcalinité totale 4-4-15 (b) avec les équations 4-4-9 et 4-4-16 : A T = AC + ε avec



4-4-24

ε = 1.18810−5S

K KB + W+ − [H+ ] + K B + [H ] [H ]

Si on connaît AC, les relations 4-4-14 permettent d’écrire :  K [H+ ] + 2K1K 2  A C = C T  + 21 +] + K K  [ ] [ H K H +  1 1 2 Ce qui donne une équation du second degré à résoudre pour [H+] : [H+ ]2 + K1 (γ − 1)[H+ ] + K1K 2(2γ − 1) = 0 C avec γ = T AC dont la racine positive donne : [H+ ] =



(

)

1/ 2

 K1(γ − 1)  K1(γ − 1) 2 + + K1K 2(2γ − 1) 4-4-25 2 2  

Quand on connaît AT et CT, la boucle itérative suivante de type matlab permet d’inclure la correction ε de 4-4-24 et de calculer un [H+] corrigé avec progressivement une valeur de plus en plus correcte de AC : AC = AT AC1 = 0

while |(AC− AC1)/AC| > 10–6

AC1 = AC

γ = AC/CT

[H+] = par 4-4-25

ε = par 4-4-24

AC = AT − ε end Toutes les variations des constantes des réactions en fonction de T et S qui sont nécessaires pour ce type de calcul, sont rappelées en Annexe 5 (source CopinMontégut, 1996). Une fois [H+] déterminé avec la précision requise, le pH est connu et on en déduit CO2* avec 4-4-14, HCO3– et CO32– avec 4-4-11 et pCO2 avec la solubilité 4-4-6 (b).

428

4. Dynamique du climat

La figure suivante donne directement dans l’espace AT, CT le changement de pCO2 pour chacun des processus de sources-puits listés ci-dessus.

 Figure 4-4-11  Les contours représentent la valeur de pCO2 en µatm dans l’espace AT, CT en µmole kg–1. Les flèches indiquent la direction du nouvel équilibre de pCO2 pour les processus suivants : 1/ Échange avec l’atmosphère ∆CT = −100 µmole kg−1, ∆AT = 0 (cercle). 2/ Précipitation de CaCO3 : CT = −50 µmole kg−1, ∆AT = −100 µmole kg−1 (carré) 3/ Photosynthèse : ∆CT = −50 µmole kg−1, ∆AT = +50 × 16 / 106 (rapport de Redfield) = 7.54 µmole kg−1(triangle) 4/ Évaporation (concentration) : ∆CT = +50 µmole kg−1, ∆AT = +50 µmole kg−1 (diamant). Note : les amplitudes des variations sont arbitraires et n’ont été choisies que par souci de visibilité.

Pour chaque valeur de AT et CT de la figure 4-4-11, pCO2 a été calculée par la méthode ci-dessus à une température de 20 °C et une salinité de 34,5. La figure montre que pCO2 croît avec CT mais décroît avec l’alcalinité. Puisque pCO2 représente l’acide et l’alcalinité une combinaison des deux bases des carbonates, il est logique que quand l’un augmente, l’autre diminue. Notez aussi que la même valeur de pCO2 peut être réalisée pour des combinaisons très différentes de CT et AT. Une valeur centrale de pCO2 = 400 µatm, obtenue pour CT = 2028,5 µmole kg−1 et AT = 2 296 µmole kg−1 a été choisie sur la figure 4-4-11 puis l’équilibre a été perturbé par l’un des quatres processus indiqués ci-dessus. Les flèches donnent la direction du nouveau point d’équilibre de pCO2 : perte de carbone par les flux air-mer ou par la photosynthèse de carbone organique diminuent pCO2 alors que précipitation des coquilles de CaCO3 et évaporation augmentent pCO2 (très légèrement dans ce dernier cas).

429

Une introduction à la dynamique des océans et du climat

4.4.7

La pénétration du carbone anthropique dans l’océan

Il est assez simple de réaliser ce qui peut se passer dans l’océan lorsque le dioxyde de carbone augmente dans l’atmosphère. pCO2 océan

pCO2 océan

pCO2 atmosphère

pCO2 atmosphère

 Figure 4-4-12  À gauche, la situation à l’équilibre. La courbe grise est le pCO2SW à la surface de l’océan, la ligne noire indiquant la valeur dans l’atmosphère. Le CO2 rentre aux hautes latitudes et ressort dans les régions équatoriales. À droite, la situation perturbée par une augmentation du pCO2 dans l’atmosphère (la ligne en pointillé). D’après Roy-Barman et Jeandel (2016).

La figure 4-4-12 montre à gauche une situation à l’équilibre : le CO2 rentre aux hautes latitudes et ressort en égale quantité à l’équateur. Si maintenant le CO2 augmente dans l’atmosphère, le forçage 4-4-19 indique que le flux d’entrée dans les régions polaires augmente alors que la sortie à l’équateur diminue. L’océan absorbera une quantité nette de CO2 pour retrouver son équilibre. Inversement, si la concentration atmosphérique diminue, l’océan perdra plus dans les tropiques qu’il ne gagnera aux hautes latitudes. Les flux de gaz à l’interface air-mer réduisent l’amplitude des variations du CO2 atmosphérique et agissent donc comme un feedback négatif. Les observations permettent d’estimer la part du carbone absorbé par l’océan. Dans l’océan les mesures des expériences JGOFS et WOCE ont permis depuis de quantifier le stock de CO2 d’origine anthropique sur la période 1800-1994 (voir Sabine et al., 2004 et Sabine et Tanhua, 2009). On verra plus loin une méthode pour calculer cette accumulation. L’injection cumulée du carbone anthropogénique sur les deux derniers siècles s’est faite de façon majoritaire dans l’Atlantique, plus précisément dans la région de formation d’eau profonde de l’Atlantique nord (NADW) et dans les régions de formation d’eau intermédiaire de l’hémisphère sud entre 30 °S et 50 °S. L’évolution du stock de carbone dans l’atmosphère sur cette période industrielle 1800-1994 est donnée par le bilan suivant de Sabine et al. (2004) (les chiffres sont en GtC avec les barres d’erreurs (±) entre parenthèses) : ∆CO2 ATM = SOURCE + ∆ (OCEAN) + ∆ (TERRE) +165 (4) = + 244 (2 20)

430

− 118 (19)

+ 39 (28)

4. Dynamique du climat

Figure 4-4-13 L’inventaire du CO2 d’origine anthropique accumulé dans l’océan sur la période 1800-1994 reconstitué par les programmes JGOFS et WOCE. L’unité est le nombre de moles m–2. Source : Sabine et al. (2004).

La variation du CO2 atmosphérique sur la période est la somme (i) des émissions industrielles estimées indépendamment (SOURCE), (ii) de la moyenne globale de la variation océanique et (iii) du terme biosphère terrestre. La somme des valeurs des flux de la figure 4-4-13 (plus les mers marginales) donne une injection nette dans l’océan de 118 GtC. Ainsi pas loin de 50 % des injections industrielles ont-elles été absorbées par l’océan. L’estimation des trois termes permet par différence d’estimer le dernier, les variations du stock de la biosphère terrestre : l’équation montre que la contribution terrestre aurait été une source nette de 39 Gt, une valeur qui cumule la différence entre photosynthèse et respiration, déforestation et changement dans l’usage des sols. On notera la barre d’erreur importante sur ce dernier chiffre, car le bilan de la biosphère est la somme d’effets opposés. Le changement d’usage des sols, l’effet pionnier de la déforestation, a été certainement une source importante sur la période. On verra que pour les années 2000 la contribution de la biosphère terrestre (hors déforestation) est un puits du même ordre de grandeur que l’océan (voir § 4.6.6.2). L’observation de la pénétration du carbone anthropique dans l’intérieur est évidemment d’un intérêt considérable. On ne peut pas la mesurer directement, mais on peut la déduire de deux façons, soit par des simulations dans un modèle de circulation océanique, soit par reconstruction à partir d’observations. Des méthodes indirectes ont été élaborées ces dernières années pour la recalculer à partir des observations du carbone total CT, de l’alcalinité AT, de la température et de l’oxygène, observations obtenues lors de l’expérience WOCE (World Ocean Circulation Experiment). Le résumé très schématique de la méthode développée par C. Goyet et F. Touratier ne pourra pas remplacer la lecture de leurs articles, Touratier et Goyet (2004) et Touratier et al. (2007). Comme le carbone total CT est impliqué dans la reminéralisation de la matière organique et dans la dissolution du carbonate de calcium

431

Une introduction à la dynamique des océans et du climat

dans la colonne d’eau, il n’est pas conservatif. Mais on peut fabriquer un traceur conservatif en utilisant d’une part les coefficients de la réaction de reminéralisation (les rapports de Redfield de la réaction 4-4-4) pour la partie biologie et d’autre part l’alcalinité pour la dissolution du carbonate de calcium. Un traceur quasi conservatif dit TrOCA (Traceur Oxygène Carbone Alcalinité) est alors défini par :

(

TrOCA = O2 + a ⋅ C T −

1 A 2 T

)

Cette valeur est ensuite comparée à celle due aux concentrations naturelles (hors activités humaines) : 1 TrOCA 0 = O02 + a ⋅ C0T − A 0T 2

)

(

La concentration du carbone anthropique peut alors être obtenue par différence : C ANT =

TrOCA − TrOCA 0 a

Car l’alcalinité et l’oxygène ne sont pas affectés par la croissance du CO2 dans l’atmosphère de sorte que : A T = A 0T et O2 ≈ O02 Toute la difficulté est de trouver cette référence TrOCA0. Les valeurs de TrOCA0 sont d’abord déterminées pour des eaux profondes suffisamment vieilles pour ne pas avoir été contaminées par le carbone anthropique des 200 dernières années. Le traceur étant conservatif, il peut s’exprimer à l’aide d’un autre traceur conservatif et la température potentielle a été choisie. Comme la distribution du traceur est proche d’une fonction exponentielle de la température potentielle θ, les coefficients de cette exponentielle peuvent être déterminés. Le traceur TrOCA0 est alors déterminé sur toute la colonne d’eau via la température potentielle. Une correction est également apportée par l’alcalinité AT qui peut se déduire de la salinité par une relation ajustée localement. Au final TrOCA0 dépend de la température potentielle θ et de AT de la façon suivante : TrOCA 0 = e

b + cθ +

d A 2T

où les constantes sont b, c, d sont déterminées par régression (un ajustement au sens des moindres carrés). On en déduit alors la concentration en carbone anthropique par la formule : C ANT =

(

O2 + a ⋅ C T −

)

d

b + cθ + 2 1 AT AT − e 2 a

L’observation de O2, de CT, de AT (en µmole kg–1) et de θ permet alors de calculer la concentration en carbone anthropique avec les coefficients suivants a = 1,279, b = 7,511, c = –1,087 10–2 et d = –7,81 105 donnés par Touratier et al. 2007. Les erreurs sur le résultat sont de l’ordre de 6 µmoles kg–1 dont la moitié est due aux incertitudes sur le coefficient a.

432

4. Dynamique du climat

 Figure 4-4-14  La concentration de carbone anthropique (couleur) reconstruit sur une section méridienne de l’Atlantique nord par Touratier et Goyet (2004). Le traceur passif chlorofluorocarbone (CFC) est indiqué par les contours blancs.

Le carbone anthropique de la figure 4-4-13 est montré sur une section reconstituée au centre de l’Atlantique nord par Touratier et Goyet (2004). On voit que les valeurs fortes du carbone restent piégées en surface dans les régions subtropicales et que l’invasion intérieure se fait par le transport des eaux profondes (NADW). Cette invasion se compare assez bien en profondeur avec celle des chlorofluorocarbones (les CFC) utilisés comme réfrigérants mais maintenant interdits à cause de leurs effets sur la couche d’ozone. Ces CFC ont envahi l’océan dans les régions de formation de masses d’eau et leur absence de réactivité chimique a été utilisée pour tracer la circulation océanique. Pour conclure, que va-t-il se passer si la concentration de CO2 continue d’augmenter dans l’atmosphère ? Les réactions chimiques 4-4-11 et la figure 4-4-7 indiquent que l’océan va s’acidifier (le pH va diminuer) et que le carbonate de calcium CO32– va diminuer. En conséquence le facteur de Revelle donné par 4-4-21 va augmenter et l’efficacité du nettoyage de l’atmosphère par l’océan va diminuer. La mobilisation du carbonate de calcium des sédiments permettra d’améliorer cette situation, mais sur des échelles de temps beaucoup plus longues.

4.5 Comment estimer la réponse du système

climatique aux gaz à effets de serre ?

4.5.1

Le concept du forçage radiatif

Un des concepts les plus importants en science du climat, le concept de forçage radiatif RF, permet de quantifier et de comparer entre eux les différents forçages de l’atmosphère. Si EIN et EOUT dénotent les énergies entrantes et sortantes aux frontières de la planète, le forçage radiatif est défini comme le changement de EIN – EOUT

433

Une introduction à la dynamique des océans et du climat

en conséquence d’un changement imposé avant le réajustement de la planète à ce changement. RF = ∆(E IN − EOUT ) = ∆E IN − ∆EOUT Illustrons le concept avec le modèle radiatif élémentaire de la Terre du paragraphe 4-2-1. 240

A

240

B

120

240

C

240

Atmosphère

Atmosphère 240

240

120

480

240

 Figure 4-4-15  Illustration du concept de forçage radiatif : l’équilibre radiatif sans atmosphère est illustré en A puis une atmosphère opaque pour l’infrarouge est impulsivement ajoutée en B. L’atmosphère re-émet moitié vers le haut, moitié vers le bas ce qu’elle reçoit du sol. Mais il n’y a plus équilibre des flux ni au sol ni en altitude. Sol et atmosphère se sont réchauffés en C pour rétablir l’équilibre thermique. D’après Dessler (2013).

1) Supposons qu’il n’y ait pas d’atmosphère, la situation A. On introduit l’atmosphère à t = 0 et le flux infrarouge émis par la Terre est alors bloqué par l’atmosphère. L’atmosphère renvoie alors également ce même flux infrarouge vers le haut et vers le bas dans la situation B. Ici EIN n’a pas changé (toujours 240 W m–2) mais EOUT n’est plus que de 120, donc ∆EOUT = 120 – 240 = –120 de sorte que RF = ∆EIN – ∆EOUT = +120. La valeur de RF, la moitié du rayonnement solaire, est énorme. L’atmosphère et la Terre vont se réchauffer pour rééquilibrer les flux d’énergie. C’est le cas dans la situation C après ajustement que l’on a déjà calculé au § 4.2.1. 2) Supposons qu’une éruption volcanique ait eu lieu. L’effet principal de la poussière et des aérosols mis dans l’atmosphère est de réfléchir le rayonnement solaire et donc d’augmenter l’albédo. La variation d’énergie entrante est simplement : ∆E IN = −

S0∆α 4

Une augmentation de seulement 1 % de l’albédo global crée un forçage radiatif RF = ∆EIN = – 2,4 W m–2 et donc un refroidissement. C’est l’ordre de grandeur estimé lors de l’éruption du Pinatubo. Le forçage radiatif de l’éruption du Mont Tambora en Indonésie en 1815 estimé à –3,2 W m–2 paraît un bien petit forçage, pourtant l’année 1816 a été une année sans été en Europe et aux États-Unis avec des conséquences considérables sur les récoltes et les populations.

434

4. Dynamique du climat

Connaissant la variation de la concentration des gaz et autres aérosols entre la période préindustrielle, 1750 et 2005, on sait calculer avec un code radiatif le forçage radiatif qui en résulte pour chacun :  Tableau 4-10  Les forçages radiatifs sont en W m–2. Source : IPCC 2007. Forçage radiatif RF W m–2

Causes CO2

+ 1,66

Autres gaz à effets de serre (CH4, N2O, halocarbone)

+ 0,98

Ozone

+0,3

Aérosols (effets directs)

– 0,5

Aérosols (effet indirect des nuages)

–0,7

Augmentation d’albédo dû aux différences de surfaces forets/cultures

–0,2

Diminution d’albédo dû à la suie sur la neige

+0,1

Changement de la constante solaire

+0,12

Total

1,7

Le dioxyde de carbone a augmenté de 100 ppm sur la période. Un code radiatif indique que EOUT va diminuer de 1,66 W m–2, le forçage radiatif RF est donc de +1,66 W m–2. Le reste des gaz à effets de serre (méthane, halocarbones, ozone) est comparable à l’effet du CO2 avec une contribution de +1,35 W m–2. Si les variations des concentrations sont connues avec suffisamment de précision, ces estimations sont probablement proches de la réalité car la physique de la loi de Planck et du transfert radiatif est solide. Comme les concentrations de ces gaz ne varient pas beaucoup dans l’espace, la moyenne globale est aussi bien déterminée. La difficulté reste le nombre considérable de raies d’absorption à prendre en compte. Ce travail peut être aussi fait en projetant dans le futur des concentrations croissantes de gaz à effets de serre. À titre d’exemple, Myrhe et al. (1998) montrent pour des concentrations variables de CO2 de 300 ppmv à 1 000 ppmv que le RF dépend de la concentration en CO2 de la façon suivante : C RFCO2 = α ln    C0  avec C la concentration future en ppmv, C0 = 300 ppmv et α = 5,35 W m–2. Pour un doublement de CO2, RF = 3,7 W m–2. La combustion des fuels fossiles injecte aussi de la poussière et des produits soufrés dans l’atmosphère. Les aérosols correspondants sont des particules si petites qu’elles peuvent rester plusieurs mois en suspension dans l’air sans tomber. L’effet est le même que celui de l’injection des poussières volcaniques, l’albédo augmente avec un RF estimé a –0,5 W m–2. Ces aérosols ont un deuxième effet indirect sur les

435

Une introduction à la dynamique des océans et du climat

nuages : ils augmentent les noyaux de condensation et changent aussi la taille des gouttes d’eau liquide dans les nuages. Le nuage devient plus brillant et son albédo augmente. L’effet est à l’origine de ces traînées nuageuses qui reproduisent bien les routes de navires qui émettent ces aérosols. Cet effet ajoute –0,7 W m–2 et la contribution totale des aérosols est donc de –1,2 W m–2. Comme la durée de vie de ces aérosols reste malgré tout relativement courte, leur distribution géographique n’est pas du tout uniforme et ceci complique beaucoup l’estimation globale de leur contribution. Évidemment ils s’opposent au réchauffement, mais la pollution associée n’est pas vraiment bonne à respirer. Le total du tableau 4-10 donne une contribution positive RF = + 1,7 W m–2 qui est de l’ordre de grandeur du seul effet radiatif du CO2. Donc la planète va chauffer pour rééquilibrer ces flux entrants et sortants. Les discussions internationales actuelles sur le réchauffement global se font toutes sur un objectif cible de diminution de ce forçage radiatif total. La planète aujourd’hui n’est pas à l’équilibre : le flux EIN excède le flux EOUT. Les mesures océaniques montrent en effet que la Terre a déjà chauffé pendant les derniers 250 ans pour effacer 0,9 W m–2, environ la moitié du forçage radiatif imposé et elle va continuer pour restaurer l’équilibre. On peut écrire une équation très simple pour la perturbation de la température globale du système climatique car le seul forçage externe est alors ce RF et tous les échanges régionaux, dus aux termes de transport par la circulation, la turbulence et les flux air-mer qui sont des échanges intérieurs disparaissent. On écrit : ˆ d∆T = RF − λ∆T C dt ˆ est la capacité thermique totale du système climatique (en J m–2) et le dernier où C terme est un terme de dissipation où λ est une constante appelée sensibilité du climat ˆ (par unité de surface) s’écrit : qui va jouer un grand rôle. La capacité thermique C ˆ = ρC H C p Avec des valeurs océaniques : ρO = 1 030 kg m–3, CpO = 4 000 J kg–1 K–1 et ˆ  = 1,6  1010 J m–2 K–1. HO = 3  800 m (la profondeur moyenne océanique), on trouve C O 3 Avec des valeurs atmosphériques ρA = 1 kg m , Cp = 1 004 J kg–1 K–1 et H = 15 km ˆ = 1,5 107 J m–2 K–1. Comme C ˆ  >> C ˆ , la (la troposphère moyenne), on trouve C A O A capacité thermique est largement dominée par l’océan essentiellement à cause de sa masse volumique mille fois plus grande que celle de l’air. Des expériences numériques avec des modèles de climat permettent d’avoir une idée de la valeur de λ et on peut prendre une valeur médiane autour de 1 W m–2 K–1. Pour un RF constant, la solution de l’équation ci-dessus est : ∆T =

RF (1 − e −λt /C ) λ

RF sur une échelle de temps La température tend vers l’équilibre donné par ∆Tfinal = λ ˆ La capacité thermique du système ne contrôle que le temps d’ajustement τ = C/λ.

436

4. Dynamique du climat

et n’a pas aucun effet sur l’équilibre final. Avec les valeurs ci-dessus, on trouve ˆ /λ de 3 mois mais ∆TFINAL = 1,7 °C. L’atmosphère seule s’ajuste en un temps C A l’océan s’ajustera au bout de 250 ans et imposera donc au climat cette longue transition. L’augmentation de la température de surface moyenne observée entre 1850 et aujourd’hui est ≈ 1,5 °C (figure 4-6-17) et donc la prédiction n’est pas si mauvaise. Finalement toute la difficulté de la prédiction est d’estimer ce paramètre λ de sensibilité du climat. Elle synthétise toute la complexité de la boîte noire du système climatique et c’est d’elle dont dépend au final le réchauffement ultime. Comme on va le voir, sa valeur dépend de l’existence et de la prise en compte de rétroactions ou feedbacks que l’on doit d’abord examiner.

4.5.2

Les rétroactions (feedbacks) climatiques

4.5.2.1

Introduction : feedbacks positifs, négatifs et états d’équilibre

La prédiction du climat nécessite d’introduire le forçage radiatif dans un modèle océan – glace – atmosphère – végétation, de spécifier l’état initial de chaque compartiment puis de faire tourner le modèle jusqu’à l’équilibre. Pour analyser le résultat et essayer de comprendre l’évolution observée dans le modèle, on essaie d’isoler les feedbacks majeurs à l’œuvre pour savoir déjà si le modèle fonctionne correctement et trouver ensuite comment le résultat final dépend de tel ou tel feedback. Ce sont eux qui permettent d’isoler la physique des processus majeurs. Un détour vers la finance permet d’introduire simplement la notion de feedback et de croissance exponentielle. Supposons que N0 = 100 euros soient placés sur un compte bancaire en 2017. Si celui-ci est rémunéré au taux r = 5 % par an (car la banque a prêté de l’argent à quelqu’un), cela veut dire qu’en 2018, on va verser sur le compte un intérêt ∆N = rN0 = (5/100) × 100 = 5. Au terme de la première année, le solde de ce compte sera de : N1 = N0 + rN0 = N0(1 + r) = 105 Si on répète le calcul pour la 2e année : N2 = N1 + rN1 = N1(1 + r) = N0(1 + r)⋅(1 + r) = N0(1 + r)2 = 110,25 Et au bout de l’année k, le compte aura un solde de : Nk = N0(1 + r)k 4-5-1 Cette relation traduite sur la figure ci-dessous montre une augmentation exponentielle du solde de ce compte en fonction du nombre d’années k. Une somme de 100 euros placée à 5 % à votre naissance fournirait près de 13 150 euros à votre centième anniversaire.

437

Une introduction à la dynamique des océans et du climat

 Figure 4-5-1  Le solde de votre compte en fonction du temps est donné par une courbe exponentielle. Les points indiquent les temps de doublement de votre compte.

Une façon concrète de juger de la croissance exponentielle est de se demander quel est le temps nécessaire pour que la somme initiale ait doublé. Si r n’est pas trop grand, on peut utiliser la règle de 72 : le temps de doublement est simplement 72/r avec r en % par an. Ici la somme double après 14,4 ans. Et elle va continuer à doubler tous les 14,4 ans. On peut représenter cela par la relation : N = N0 2n avec n le nombre de doublements. Ce sont les points rouges sur la courbe de la figure 4-5-1. Ceci explique la pente de plus en plus forte de la courbe au fil des années. C’est le dernier doublement au-delà donc de vos 85 ans qui va vous donner le gain le plus grand. On dira ici que le versement d’intérêt est un feedback positif. Ce que l’on vient de dire peut être représenté par une équation différentielle à temps continu (on verse les intérêts non pas au bout de chaque année mais un petit peu en permanence) : dN = λN dt 4-5-2 et N = N0 pour t = 0 équation différentielle dont la solution est N = N0 eλt avec e ≈ 2,718… L’équation différentielle 4-5-2 montre clairement l’origine de l’exponentielle : on force la variation future de N à être proportionnelle à sa valeur présente. C’est exactement ce que l’on a fait pour la variation sur un an du solde du compte qui s’écrit comme ∆N = N1 –N0 = r N0.

438

4. Dynamique du climat

Que se passe-t-il maintenant si r ou λ sont négatifs ? On obtient des exponentielles décroissantes et N tend vers zéro. On parle alors de feedbacks négatifs. L’inflation monétaire (la hausse des prix) est un feedback négatif. Si vous aviez laissé vos économies gelées dans les années 1980, avec une inflation à plus de 10 %, votre pouvoir d’achat aurait été divisé par 2 en 72/10 = 7,2 ans. À t grand vos économies auront disparu et ne vous permettront plus d’acheter quoi que ce soit. Finalement il est important de faire la différence entre un feedback et un forçage. Un forçage est une influence unidirectionnelle d’une cause 1 sur un effet 2 sans que l’effet 2 ne puisse influencer en retour la cause 1. Le forçage est imposé sur le système et ne dépend pas de N. En revanche un feedback influe sur la cause origine. Si le salaire alimentant un compte bancaire est constant, on peut écrire que le solde obéit sans placements financiers à : dN =F dt = et N N= 0 pour t 0 dont la solution est N = N0 + Ft, une croissance linéaire avec le temps. Aux petits temps de la figure 4-5-1, il est difficile de séparer un forçage d’un feedback positif car la courbe exponentielle entre t = 0 et 20 est assez linéaire, l’exponentielle ne prenant toute sa puissance que pour les t grands. Revenons au climat en prenant comme variable la température globale océan - atmosphère et comme forçage le forçage solaire : dT =S C dt = et T T= 0 pour t 0 avec C la capacité calorifique du système. La température augmente sans limite linéairement avec le temps comme T = T0 + (S/C) t. C’est la perte de chaleur par rayonnement infrarouge qui permet de limiter cette croissance. Cette perte n’est pas un forçage mais un feedback qui dépend de la température. Pour de petites perturbations, l’équation radiative du climat est alors qualitativement : ˆ dT = S − γT C dt et T = T0 pour t = 0 avec ici γ > 0 (on a mis explicitement le signe moins dans l’équation pour indiquer que le feedback infrarouge est négatif ). On pourra vérifier que la solution de cette équation différentielle avec sa condition initiale est : S − γ /C t − γ /C t T = T0e ( ) + [1 − e ( ) ] γ Le premier terme à droite est un effet transitoire : c’est juste la condition initiale sur la température qui disparaît grâce au feedback négatif. Le deuxième est l’effet combiné du forçage et du feedback négatif qui ramène la solution gentiment vers l’état

439

Une introduction à la dynamique des océans et du climat

d’équilibre TEQ = S/γ puisque l’exponentielle tend vers zéro. En d’autres termes, si le climat n’est pas à l’équilibre mais a été perturbé (sa température T0 ≠ TEQ), ˆ / γ. Cette échelle de il retourne à l’équilibre sur une échelle de temps donné par C temps est longue car comme on l’a vu elle est contrôlée par la capacité calorifique globale du système climatique dominée par l’océan et les glaces. Mais pourquoi en premier lieu le climat se serait-il écarté de l’équilibre ? À cause de la présence à un moment donné d’un feedback positif qui vient dominer le feedback négatif juste considéré. Avec un feedback positif λ > 0, l’évolution du climat obéit à : ˆ dT = S + λT C dt et T = T0 pour t = 0 La solution précédente est toujours valable, il suffit juste de remplacer –γ par +λ : S + λ /C t + λ /C t T = T0e ( ) + [1 − e ( ) ] γ Examinons le déséquilibre du climat en introduisant la perturbation T′ : T = TEQ + T′. La solution précédente permet de voir que T′ est donné par : + λ/C t T′ = T0′ e ( )

Ainsi une petite perturbation initiale T0′ de l’équilibre climatique à t = 0 est-elle ˆ / λ d’où la conclusion alors amplifiée exponentiellement sur l’échelle de temps C qu’un feedback positif dominant laissé à lui-même déstabilisera le climat. Lorsqu’un feedback est positif (négatif ), l’effet renforce (diminue) la cause. Pour qu’un climat soit stable, il faut nécessairement que l’effet des feedbacks négatifs l’emporte sur celui des feedbacks positifs. Si tel n’est pas le cas, le climat part vers un autre équilibre qui peut s’avérer très différent du précédent. L’histoire racontée par les archives paléo montre une grande diversité des climats terrestres. Quelques exemples de différences entre feedback et forçage : • une anomalie chaude de SST dans une région de l’océan crée un flux de chaleur air-mer qui réchauffe l’atmosphère au détriment de l’océan, c’est donc un feedback négatif ; • le vent force les courants marins de surface, mais les courants marins ont peu d’effet sur le vent : le vent est un forçage pour l’océan, tout au moins en première approximation ; • l’augmentation du CO2 influence la température, mais l’augmentation de température n’influence pas le CO2 : le CO2 est un forçage tout au moins au temps court. On a vu qu’une augmentation de température réduit la solubilité du CO2 dans l’eau de mer, réduisant sa capacité d’absorption par l’océan, et c’est donc maintenant un feedback positif sur les temps longs qui mettent en jeu la circulation océanique, un feedback qui a pu jouer un rôle lors des cycles glaciaires et interglaciaires du Quaternaire.

440

4. Dynamique du climat

L’objet de ce paragraphe est de montrer les principaux feedbacks climatiques qui sont en compétition les uns avec les autres. S’il n’y avait que la constante solaire, l’albédo et la composition chimique de l’atmosphère qui contrôle le rayonnement infrarouge, la prédiction du climat futur en réponse à l’augmentation des gaz à effets de serre serait assez simple et cette prédiction serait correcte si rien ne changeait par ailleurs. Mais ce n’est pas le cas : si la planète se réchauffe, d’autres choses vont changer qui peuvent elles-mêmes impacter le chauffage infrarouge. Au final la représentation, la prise en compte, plus ou moins différente de tous ces feedbacks dans les modèles de climat est aussi la cause de leurs divergences.

4.5.2.2

Le feedback glace – albédo +

Glace

Température

Imaginons une perturbation qui augmente la température de l’atmosphère. La glace répond à cette augmentation et fond. Du coup la surface terrestre occupée par la glace diminue et par là-même la surface réfléchissante. Donc l’albédo diminue et si l’albédo diminue, la proportion du rayonnement solaire augmente et la température va augmenter. Ce feedback positif causé par la glace qui vient amplifier la perturbation initiale est illustré par la grosse flèche noire. La fonte des glaces de l’Arctique et du Groenland est un feedback positif pour le réchauffement actuel. Il est important de noter que la déstabilisation marche aussi dans l’autre sens : si la perturbation initiale de température est négative (le climat se refroidit), il y aura plus de glace, l’albédo augmentera, le rayonnement solaire absorbé diminuera et la planète se refroidira.

4.5.2.3

Le feedback vapeur d’eau et la catastrophe de Vénus +

Vapeur d’eau

Température

La vapeur d’eau est le gaz à effet de serre le plus important dans l’atmosphère, mais sa distribution est très variable dans le temps et dans l’espace. Si la température

441

Une introduction à la dynamique des océans et du climat

augmente, l’humidité de l’atmosphère augmente et sa contribution à l’effet de serre augmente, à nouveau un feedback positif qui augmente la perturbation initiale. Sous l’effet du réchauffement global, ce mécanisme injecte plus de vapeur d’eau dans l’atmosphère et amplifie le cycle hydrologique. Si ce feedback domine, on peut imaginer une catastrophe : la planète chauffe et finit par perdre toute son eau liquide. On pense que c’est ce qui est arrivé sur Vénus. Quand la vapeur d’eau est arrivée dans la haute atmosphère, les rayons UV ont fini par casser la molécule d’eau. Les atomes d’hydrogène légers peuvent alors se libérer de l’attraction gravitationnelle de la planète et l’eau est définitivement perdue. La figure suivante illustre qualitativement cet effet dans l’espace des phases de l’eau sous ses formes solide, liquide et gaz en fonction de la pression partielle de vapeur d’eau et de la température.

 Figure 4-5-2  Illustration de l’évolution possible des trois planètes Mars, Terre et Vénus (en pointillé) sous l’effet du feedback vapeur d’eau dans l’espace des phases de l’eau (les courbes solides).

Le diagramme pression-température de la figure 4-5-2 structure les phases possibles de l’eau en équilibre thermodynamique. Lorsque deux phases coexistent sur l’une des courbes solides, pression et température ne sont plus indépendantes mais liées par une relation p(T), du type 4-1-6 pour les phases liquide-vapeur d’eau. On peut alors imaginer sur ce diagramme une évolution de la répartition des phases de l’eau

442

4. Dynamique du climat

sur les trois planètes Vénus, Terre et Mars dans l’ordre croissant de leurs distances au Soleil. Supposons au départ qu’il n’y ait pas d’eau sur ces planètes, leurs températures sont celles de leurs températures d’émission données par le tableau 4-3. On ajoute maintenant de l’eau de façon instantanée sur ces planètes. Le feedback vapeur d’eau va agir ainsi : la plus froide Mars se réchauffe mais rencontre la courbe de changement de phase avec la glace : l’apparition de glace stoppe la croissance de vapeur d’eau et la présence de glace met en route le feedback glace-albédo pour refroidir la planète. La Terre, initialement un peu plus chaude que Mars, réussit à intersecter la courbe de transition vapeur d’eau-eau liquide et des océans apparaissent. En revanche Vénus, la plus chaude, se réchauffe trop et ne parvient jamais à intersecter la courbe liquide-vapeur : il n’y a plus rien pour stopper le feedback vapeur d’eau et la planète perd toute son eau. Ce scénario désagréable est-il improbable sur la Terre ? Tout dépend si l’air humide atteint ou non la courbe de saturation qui limite la quantité de vapeur d’eau présente dans l’air. Il y a beaucoup de vapeur d’eau dans la troposphère terrestre, mais la haute troposphère très froide crée finalement un couvercle pour la vapeur d’eau grâce à deux effets : (i) la saturation limite la quantité de vapeur d’eau qui peut être extraite des océans et (ii) la stratification très stable à la tropopause empêche les échanges vers la stratosphère. Le seul chemin pour la vapeur d’eau sur la terre est d’aller vers les pôles, de se condenser et de faire pleuvoir. L’idée que les océans si massifs puissent être protégés par ce couvercle d’air si mince ne manque pas de charme.

4.5.2.4

Le feedback du rayonnement infrarouge

Comme le climat de l’Holocène (les derniers 6 000 ans) est visiblement assez stable, les deux feedbacks positifs précédents ne peuvent pas exister seuls. Ils sont forcément équilibrés par d’autres feedbacks négatifs. De fait on a déjà vu le plus important, la loi de Stefan-Boltzmann pour le rayonnement infrarouge.

– rayonnement infrarouge vers l’espace Température

En effet si la température augmente, le rayonnement infrarouge vers l’espace augmente à cause du flux d’énergie en σTE4. Du coup il y a déficit au sommet de l’atmosphère car EIN – EOUT  0) et une boîte polaire de température T2 qui perd une quantité de chaleur Q2 ( 0, la circulation est comme sur la figure. Si ∆T est négatif, V β∆S , V > 0, la circulation est comme sur la figure précédente. Mais si la salinité domine, V  0 (α∆T/β∆S > 1 la température domine) et que la salinité dans les régions polaires diminue sous l’effet de précipitations accrues (dues au réchauffement climatique par exemple, c’est le contexte d’expériences numériques nombreuses dites « hosing experiments »). Alors ∆S augmente, donc V, l’intensité de la circulation, diminue. Si V diminue alors le terme advectif de transport de sel de l’équation 4-5-5 diminue et ∆S augmente encore plus. C’est le feedback positif dit de transport de sel et c’est lui qui est (probablement) responsable de l’affaiblissement de la circulation thermohaline dans beaucoup de simulations de réchauffement climatique. C’est aussi la physique invoquée par Broecker pour expliquer les changements de climat abrupts enregistrés dans les carottes de glace du Groenland (voir § 4-6-5). Notez que le feedback négatif d’advection de chaleur précédent s’oppose au feedback positif du sel car si V diminue, ∆T va être plus grand et la circulation plus forte. Pour que cette instabilité s’exprime, il faut donc que le cycle hydrologique soit assez fort : il y a une valeur critique de ∆H à dépasser pour voir apparaître cette transition vers une circulation inverse (V  T1 = 270 K α = α ice = 0.7 pour TS < T2 = 230 K  α − α free)  α = α free −  ice  (TS − T1) pour T2 ≤ TS ≤ T1  T1 − T2  L’équilibre radiatif entre flux solaire absorbé S et Q = OLR permet de trouver TS via : S0[1 − α(Ts)] = A + BTS 4

450

4. Dynamique du climat

La solution TS de cette équation peut être obtenue graphiquement en traçant les termes de droite et de gauche de cette équation.

 Figure 4-5-3  En haut : flux solaire absorbé S et flux infrarouge Q. Il y a donc trois équilibres (ou points fixes) possibles aux points d’intersection des deux courbes, obtenus pour TS = 202, 252, 290 K.

En bas : le forçage net S-Q est en noir et l’évolution dans le temps d’un état hors d’équilibre est donnée par la vitesse dTS/dt (les flèches noires). Lorsque les flèches convergent (divergent), le point fixe est stable (instable). Le résultat le plus surprenant est l’apparition d’équilibres multiples du climat, un climat #1 très froid (202 K), le climat #2 intermédiaire (252 K) et un climat #3 chaud (290 K). Au vu de la valeur observée du climat actuel TS ≈ 288 K, la Terre correspondrait plutôt à la solution 3 sans glace avec la plus forte température. Mais on voit que d’autres possibilités existent, notamment #1, la température la plus basse qui correspond à la boule de neige (snowball earth) ou encore la solution intermédiaire #2. La question suivante est de savoir si ces équilibres sont stables, c’està-dire de savoir si le système revient à l’équilibre lorsque l’équilibre a été perturbé. L’évolution du système hors équilibre est mesurée par dTs/dt qui est proportionnel à S – Q. On a représenté sur la figure 4-5-3 cette quantité dTs/dt par une flèche qui donne le signe de la vitesse du système lorsqu’il est écarté de l’équilibre. On voit tout de suite que les solutions #1 et #3 sont stables et que #2 est instable. L’équilibre #3 (le climat actuel ?) est donc stable sauf si une perturbation négative suffisamment forte apparaît pour amener TS en dessous de 252 K. L’évolution vers la boule de neige #1 serait alors inéluctable.

451

Une introduction à la dynamique des océans et du climat

4.6 L’observation des climats passés Cette coquille est la caverne de l’infusoire ; cette coquille est l’atelier du foraminifère. Chose presque incompréhensible, cette coquille, plus mince que le frêle verre mousseline est toujours entière… Toute la mer pèse sur cette fragilité… La moindre ride du moindre courant briserait la coquille du foraminifère. Or cette coquille est intacte. Donc pas de courant. La loi du fond de la mer est connue aujourd’hui. C’est la coquille du foraminifère qui l’a dite. Victor Hugo L’histoire du climat de la Terre est enregistrée dans les arbres, les restes des parties dures des organismes vivants de l’époque stockées dans les roches (fossiles) ou au fond des océans et dans les bulles de gaz emprisonnées dans les glaces polaires. Trouver les relations entre ces observations et les variables physiques comme la température de l’air ou des océans, les précipitations, le niveau de la mer est l’objet de la paléoclimatologie. Une observation paléo devient un proxy pour une ou plusieurs variables physiques lorsque les relations entre elles sont suffisamment solides. Les anneaux d’arbres sont un indice climatique important qui offre la meilleure chronologie temporelle sur les deux derniers millénaires. La largeur et la structure de l’anneau donnent des informations sur les conditions climatiques, température et précipitation. On commence par corréler les caractéristiques de l’anneau avec les températures/précipitations observées pour construire une fonction de transfert que l’on applique ensuite pour reconstruire le climat annuel sur des milliers d’années, une discipline appelée dendrochronologie. Si on veut remonter au-delà, l’essentiel de l’information est celle contenue dans les roches pour les climats les plus anciens, dans les sédiments terrestres ou marins, et dans les glaces de l’Antarctique et du Groenland. Ces données paléoclimatiques permettent d’obtenir des séries temporelles qui remontent pour certaines au-delà de quelques millions d’années. La difficulté sera alors de reconstituer et de trouver la cause des changements climatiques passés sur la base de quelques observables seulement. La reconstitution des événements ressemble assez à celle d’une scène de crime. À partir d’indices parfois très minces, on peut toujours raconter une histoire mais cette histoire n’est pas unique, le petit détail oublié pouvant faire basculer tout le scénario. En accumulant toujours plus de preuves, l’histoire la plus probable finit par se dessiner. L’arme du crime est le (ou les) processus physique(s), géologique(s) ou bio-géochimique(s) susceptible(s) d’avoir participé au changement climatique. Au final c’est toujours au jury de faire part de son intime conviction… Les climats des deux derniers millions d’années sont très riches en périodes glaciaires et interglaciaires et montrent tout sauf un régime stationnaire. Comme les données sont très incomplètes, les modèles de climat jouent alors un grand rôle pour reconstruire l’ensemble des variables. Le sujet actuel de prédiction du climat demande des modèles de climat performants, mais souvent la physique de certains processus (comme le mélange turbulent, les nuages) n’est pas suffisamment connue

452

4. Dynamique du climat

et on ajuste des paramètres sur l’observation du climat actuel pour que le modèle ne dérive pas trop. Mais en cas de simulations réussies des climats du passé avec le même modèle que celui utilisé pour le climat actuel, on obtient une validation forte de l’ensemble de la machinerie physique du modèle utilisé pour la prédiction. Une autre difficulté de ces simulations de paléoclimats est de trouver les bonnes conditions aux limites et les forçages correspondants. Ces modèles sont encore imparfaits mais leur grand mérite est de permettre le test d’hypothèses en faisant varier le forçage solaire, la géographie des continents, le niveau de dioxyde de carbone, de méthane, etc. Il n’est pas possible de faire justice au sujet en seulement quelques pages, mais l’important est de tenter de distinguer les observations solides des interprétations pour lesquelles le conditionnel sera utilisé.

4.6.1

Les sédiments océaniques

Les carottes de sédiments marins permettent de remonter le plus loin dans le temps (le million d’années). Le mérite en revient à Kullenberg qui a inventé en 1947 un instrument capable d’extraire par aspiration d’un piston une colonne de sédiments de plus de 20 m par 4 000 m de profondeur sans la casser en mille morceaux. Les sédiments s’empilent au fond des océans au fil du temps et chaque couche contient donc un peu de l’environnement climatique de l’époque. La résolution temporelle dépend de la vitesse de sédimentation au lieu de la carotte et de la bioturbation, le remue-ménage des organismes vivant au fond qui viennent mélanger l’horloge des couches sédimentaires. Comme les vitesses de sédimentation peuvent n’être que de quelques mm par siècle dans certaines régions, on comprend mieux la difficulté. Le sédiment contient les coquilles de petits animaux, les foraminifères qui sont à l’origine de la reconstitution des climats du passé. L’histoire qu’ils ont révélée est assez éloignée de celle imaginée par Victor Hugo… Il faut faire un détour du côté des isotopes de l’oxygène. Le noyau (ou nuclide) d’un élément atomique générique E de la classification périodique est constitué de protons (qui ont la même charge élémentaire que l’électron mais opposée e+ = +1,6 10–19 C) et de neutrons. La masse des neutrons et des protons est à peu près la même (1,674 10–27 kg et 1,672 10–27 kg respectivement), soit 1 840 fois celle de l’électron. Le nom E d’un noyau est déterminé par le nombre de protons Z. Le nombre de masse est le nombre total de nucléons (protons plus neutrons), noté A. Quand on écrit  AZ E, le nombre de protons de l’élément E est Z et le nombre de neutrons A-Z. Ainsi l’oxygène de numéro atomique Z = 8 possède 3 isotopes stables de nombre de masse A = 16, 17 et 18, notés 168 O, 178 O, 188 O . Le 16 est le plus abondant (99,8 %) et le 18 (0,2 %) vient juste après. À l’aide d’un spectromètre de masse, on peut mesurer dans un échantillon de matière le rapport R qui existe entre la concentration de l’isotope 18 et celle de l’isotope 16, mais ce rapport dépend de l’appareil et des conditions de mesures de sorte que l’on préfère le comparer à la mesure d’un même standard utilisé par tous : R − R STANDARD  δ18O =  x 1000  R STANDARD 

453

Une introduction à la dynamique des océans et du climat

δ18O est la valeur de la teneur en isotope 18O couramment exprimée en partie par millier, per mil, o/oo. Pour des valeurs positives (négatives) de δ18O, l’échantillon est plus riche (pauvre) en isotope 18O que le standard. Le point important est que les isotopes d’un élément chimique ont des propriétés physiques qui dépendent du nombre de masse (la masse atomique de l’élément), car l’élément lourd peut être vu comme étant moins mobile que l’élément léger. Ces variations relatives entre isotopes d’un même élément atomique appelées fractionnement peuvent être causées par une réaction chimique, un changement de phase ou encore la diffusion moléculaire. (1) Le fractionnement par changement de phase. Lors de l’évaporation de l’eau, la vapeur d’eau est enrichie en isotope léger 16O au détriment de l’isotope lourd, car moins d’énergie est nécessaire pour fabriquer H216O en phase gazeuse. Le facteur de fractionnement pour ce processus est défini par le rapport : 18 O  18 O  α18 =  16     O GAZ  16 O LIQ

Ce rapport α18 est donc inférieur à 1. Aux basses latitudes, l’évaporation de l’océan fournit donc une vapeur d’eau appauvrie en 18O. La circulation atmosphérique transporte cette humidité vers le haut et vers les pôles et la baisse de température produit la condensation, mais l’eau liquide condensée est alors elle-même enrichie en 18O lors de chaque épisode de précipitation de sorte que la vapeur d’eau qui reste est encore plus pauvre en 18O. On assiste à une véritable distillation fractionnée, la distillation Rayleigh, la vapeur d’eau restante devenant progressivement appauvrie en 18O tout au long de son trajet vers les pôles. Il faut aussi noter le fait que le fractionnement décroît avec la température (α18 se rapproche de 1 quand la température augmente). Les glaces polaires vont donc être appauvries en 18O comparativement à l’eau de mer en conséquence de cette distillation Rayleigh de la vapeur d’eau. Notons que le δ18O de l’eau de mer varie en relation étroite avec la salinité, car les deux sont soumis au même forçage en surface : l’évaporation enrichit l’eau de mer en isotope lourd et augmente la salinité. Ainsi existe-t-il des relations linéaires entre le δ18O et la salinité de surface valable à l’échelle d’un bassin océanique. (2) Le fractionnement par réaction chimique : Emiliani (1955) a ouvert la voie à l’utilisation du δ18O des sédiments carbonatés au fond des océans pour l’étude des changements des climats du Quaternaire. Lorsque des organismes marins fabriquent de la calcite (le carbonate de calcium qui est la composition de leurs coquilles), le δ18O de cette calcite est enrichi par rapport à celui de l’eau environnante et cet enrichissement augmente quand la température diminue. L’estimation des températures du passé devenait possible par la mesure du δ18O des coquilles fossiles et par la relation quantitative de Shackelton (1974) :

454

T * = 16, 9 − 4, 38 (δC − δ W ) + 0,1 (δC − δ W )2 4-6-1

4. Dynamique du climat

avec T* la température en °C, δC et δW les δ18O de la calcite et de l’eau de mer respectivement. La relation 4-6-1 est l’équation des paléo-températures qui montre que la composition isotopique des carbonates biogéniques dépend de la température de l’eau quand les coquilles se sont fabriquées et de la composition isotopique de l’eau de mer δW dont on vient de voir qu’elle varie selon que le climat est chaud ou froid. De façon qualitative, on peut déjà dire qu’une valeur élevée du δC des coquilles est un indice d’âge glaciaire puisqu’elle est associée à des températures faibles et à une augmentation de δW et donc du volume des glaces. Déterminer la part relative de chaque cause a été (et est encore) l’objet de nombreuses études. Des progrès sont venus des conditions d’environnement différentes des foraminifères planctoniques (vivant en surface) et des foraminifères benthiques (vivant au fond). Les espèces planctoniques vivent en effet dans des niches de conditions de température bien déterminées. Elles vivent de l’ordre du mois donnant accès à une température mensuelle (SST) déterminée à cet endroit. Imbrie et Kipp (1971) sont partis de l’hypothèse que les distributions des espèces de foraminifères planctoniques fossiles observées dans une carotte sédimentaire étaient analogues aux distributions des espèces de foraminifères planctoniques de l’océan moderne. L’étude de ces dernières permet alors de remonter dans le passé. Ils ont commencé par documenter les pourcentages d’une trentaine d’espèces présentes dans les sédiments récents et les ont observés sur une soixantaine de sites géographiques différents. Ceci a permis de relier statistiquement ces pourcentages d’abondance d’espèces à 3 variables d’environnement, la SST d’été, la SST d’hiver et la salinité sur chaque site. Cette information actuelle est ensuite utilisée pour retrouver les températures des climats passés à partir des pourcentages observés des espèces choisies à une certaine profondeur dans la carotte choisie. Cette méthode de régression statistique fournit des températures par le seul examen de la distribution de la faune des foraminifères planctoniques dans la carotte. Pour une espèce donnée, on peut ensuite chercher la correspondance qui existe aujourd’hui entre cette température faunistique et la température isotopique T*. La composition de l’eau de mer δW étant celle observée aujourd’hui, la mesure du δC de chaque espèce de foraminifères donne sa température isotopique T* avec la relation 4-6-1. Ainsi peut-on construire pour une espèce identifiée dans la carotte une table de correspondance entre sa température isotopique T* et la température à laquelle elle a vécu dont un exemple est montré sur la figure 4-6-1. Si on considère maintenant une carotte de sédiments couvrant une longue période, on mesure au spectromètre de masse le δC d’une espèce de foraminifères et on estime la SST à partir de la distribution des foraminifères planctoniques (ou d’une autre méthode) que l’on peut convertir en température isotopique T* à l’aide des tables de correspondance ci-dessus. On peut alors utiliser l’équation 4-6-1 pour déterminer le δW de l’eau de mer en fonction du temps. L’erreur principale est l’erreur sur la température (de l’ordre du degré) qui se traduit par une erreur sur δW de l’ordre de 0,3 o/oo.

455

Une introduction à la dynamique des océans et du climat

 Figure 4-6-1  En haut : voilà un exemple de la table de correspondance entre la température isotopique T* et la SST pour l’espèce Globigerina bulloides, source : Cortijo, Labeyrie, Duplessy (2013). En bas : le foraminifère en question, source : http://www.foraminifera.eu.

Revenons au fractionnement isotopique de la vapeur d’eau. Si une calotte glaciaire augmente, elle s’appauvrit en 18O et simultanément le niveau de la mer baisse. Lors du LGM, le niveau de la mer était environ 130 m plus bas (Lambeck et al., 2014) et la composition isotopique moyenne de l’océan δW était de +1,0 ± 0,1 o/oo (Schrag et al., 1996). Appelons cette valeur globale δW/G. Si on fait l’hypothèse que le niveau de la mer est proportionnel à ce δW/G, une diminution de 1 m est associée à une augmentation de δW/G de 1/130 = 7,7 10–3 o/oo. Si on connaît le niveau de la mer par l’examen d’autres proxys du volume des glaces, alors on en déduit la valeur de δW/G. Aujourd’hui la salinité moyenne de l’océan global est 34,7 dans un océan de profondeur moyenne de 3 800 m ; en utilisant le fait que la masse de sel reste constante, on peut en déduire la salinité moyenne du LGM : 34, 7x

3800 = 35, 93 (3800 − 130)

Ainsi la salinité globale a-t-elle augmenté de 1,23 o/oo au LGM. Mais la valeur précise du δW à la position de la carotte va aussi être influencée par le cycle hydrologique du lieu (E – P + R). Connaissant δW/GLACE, on va déterminer à chaque instant une valeur locale corrigée δW/LOCAL = δW–δW/G. Finalement comme il existe aujourd’hui une relation linéaire entre les salinités de surface et ce δW/LOCAL, on se

456

4. Dynamique du climat

sert de cette relation pour remonter aux salinités du passé, mais la précision reste assez faible, de l’ordre de 0,75 o/oo. Les foraminifères benthiques (ceux qui vivent au fond) apportent une information indépendante et complémentaire de celle des espèces planctoniques. La température des eaux de fond varie évidemment beaucoup moins que celle des eaux de surface. Dans certains endroits, comme la mer de Norvège, la température des eaux de fond est actuellement proche de la température de congélation de l’eau de mer –1,9 oC. Elle ne peut pas diminuer plus en période glaciaire et elle reste donc quasi constante au cours des cycles glaciaires-interglaciaires. Dans ces régions, les variations de δC indiquent donc prioritairement la composition isotopique de l’eau de mer δW au fond. Connaissant δW, Labeyrie et al. (1987) ont ensuite utilisé le δC de ces foraminfères benthiques pour montrer (via 4-6-1) que la plage de variation de la température des eaux de fond du Pacifique, de l’Atlantique et de l’Austral était d’environ 2 °C sur les derniers 125 000 ans. La méthode a été encore améliorée par Waelbroeck et al. (2002) qui ont déterminé les relations statistiques liant le δc des foraminfères benthiques et le niveau de la mer obtenu d’autres sources (comme les coraux), ce qui leur a permis ensuite de reconstruire le niveau de la mer sur 450 000 ans (voir § 4.6.4), puis d’en déduire le δW/G de l’eau de mer et finalement de remonter aux températures des eaux de fond qui augmentent de 2 à 4 °C lors des transitions glaciaires-interglaciaires.

4.6.2

Les carottes de glace

L’augmentation du CO2 des années 1960 mis en évidence par Keeling a pu être mise dans une perspective temporelle beaucoup plus large après que Dansgaard (1969) eut montré que la carotte de 1 390 m de long forée dans la glace du Groenland permettait de remonter 100 000 ans en arrière, fournissant une archive des états fossiles de l’atmosphère sur des milliers de siècles (le titre de son article était « One thousand centuries of climate record from Camp Century on the Greenland ice sheet »). Les carottes de glace enregistrent en effet la signature des gaz de l’atmosphère dans des bulles prisonnières de la glace. Les impuretés chimiques, la poussière de l’époque où la neige est tombée sur l’endroit en question sont également rendues disponibles. Dans les années 1980, les concentrations de CO2 de l’époque pré-industrielle ont été mesurées dans les bulles d’air piégées dans la glace antarctique. Ces concentrations (280-290 ppmv) beaucoup plus faibles qu’actuellement n’ont guère bougé sur le dernier millier d’années. Cette première observation a ouvert la voie à bien d’autres forages au Groenland (GISP, GRIP et Dye 3) et en Antarctique (Vostok, Byrd, Dome C). À Vostok, Barnola et al. (1987) ont mis en évidence les variations importantes de 90 ppmv du CO2 lors du dernier cycle glaciaire-interglaciaire. Il a été possible ensuite de reconstruire des séries temporelles du CO2 mais aussi du méthane CH4 et de l’oxyde nitreux N2O sur les derniers 400 000 ans. La neige se transforme progressivement en glace sur une épaisseur de 50 à 100 m et on estime que ce n’est qu’à ces profondeurs que les bulles de gaz sont effectivement

457

Une introduction à la dynamique des océans et du climat

scellées dans la glace. Donc les bulles de gaz sont plus jeunes que la glace qui les entoure. Une accumulation de neige en surface de 50 mm an–1 conduit à une épaisseur de 50 m en 1 000 ans, ce qui donne une idée de l’incertitude sur l’âge des bulles par rapport à la glace. Cette incertitude n’est pas uniforme car le taux d’accumulation de neige est élevé au Groenland et sur les sites côtiers mais faible au centre de l’Antarctique. L’avantage est que cette accumulation est beaucoup plus rapide que celle des sédiments marins et que les sites à forte accumulation permettent de révéler un signal saisonnier permettant alors de compter des couches le long de la carotte (comme pour les anneaux d’arbres) et d’avoir l’âge à une profondeur donnée. Pour l’époque récente, les couches de cendre d’éruptions volcaniques datées fournissent aussi des repères. On a pu aussi mesurer les isotopes suivants, le δ18OGLACE (celui de la molécule d’eau) et le δ18OAIR, la concentration en 18O des bulles d’air cette fois. Le δ18OGLACE, celui de la molécule d’eau, est relié à la différence de température entre la SST à laquelle la vapeur d’eau s’est formée et la température de condensation. Le processus de fractionnement par distillation déjà mentionné appauvrit la vapeur d’eau en 18O, et ce d’autant plus que la SST est basse. La valeur de δ18OGLACE est un index de paléo-température et on estime empiriquement qu’une augmentation de la température de 1 °C se traduit par une augmentation de 0,53 o/oo du δ18OGLACE. On utilise aussi les isotopes de l’hydrogène, deuterium : 21H tritium : 31H et le deutérium est parfois préféré comme marqueur de cette température. Il y a une certaine homogénéité entre les mesures du δ18OGLACE aux différents forages au Groenland d’une part, et en Antarctique, d’autre part. Le refroidissement entre le LGM et aujourd’hui donne un écart de 11 o/oo à Camp Century au Groenland et de 5 à 7 o/oo en Antarctique. L’interprétation du δ18OAIR est complètement différente. On pense qu’elle est un proxy pour le volume des glaces (ou le niveau de la mer) comme les foraminifères benthiques des sédiments marins. L’idée sous-jacente fait intervenir la photosynthèse marine selon l’argument suivant : δ18OMER → photosynthèse → δ18OAIR La variabilité isotopique de l’eau de mer (appelée δW dans le paragraphe précédent) se transmet à l’oxygène de l’air via l’action de la photosynthèse marine qui produit l’oxygène de l’air. Évidemment une variation de l’activité biologique entre les périodes glaciaires et interglaciaires pourrait fragiliser cet argument.

4.6.3

Les climats très anciens : de l’Archéen au Crétacé

Alors que les planètes les plus proches sont soit très froides (Mars) soit très chaudes (Vénus), et même si de grandes variations climatiques ont eu lieu, la Terre a conservé des températures et un cycle de l’eau compatibles avec la vie. On pourra suivre la description suivante très succincte à l’aide de la figure 4-6-2 de Ramstein (2015) mais cette introduction ne saurait remplacer la lecture de son livre.

458

4. Dynamique du climat

Figure 4-6-2 La concentration atmosphérique de l’oxygène (bleu), du méthane (rouge) et du dioxyde de carbone (vert) au cours des 4,5 milliards d’années d’existence de la Terre. Source : Ramstein (2015).

Entre 3,8 et 2,5 milliards d’années (l’Archéen), il n’y a pas de continents, la Terre est une aquaplanète chaude avec un océan de quelques dizaines de degrés plus chauds qu’aujourd’hui. L’atmosphère et l’océan sont anoxiques (dépourvus d’oxygène). Les astrophysiciens indiquent que le flux radiatif du Soleil, similaire à celui d’une étoile, a dû augmenter de 7 % par milliard d’années de sorte qu’il y a 4 milliards d’années, le flux solaire était 30 % plus faible qu’aujourd’hui. Avec cette réduction de la constante solaire et la composition de l’atmosphère actuelle, un régime boule de neige serait inévitable. Comment alors expliquer ce paradoxe d’un climat chaud avec un Soleil jeune moins puissant ? Tout pointe sur la composition de l’atmosphère qui devait être fort différente. Une plus grande concentration de CO2 de l’atmosphère primitive (et un effet de serre accru) est possible grâce au volcanisme plus efficace au début de l’histoire de la Terre et surtout à l’absence de puits de CO2 par le lessivage des roches silicatées sur une Terre dépourvue de continents. Cependant d’autres indices indiquent que la concentration en CO2 ne semblait pas suffisante et le méthane CH4, un autre gaz à effet de serre, a été mis en scène. Celui-ci est apparu en effet au début de la vie avec les premières bactéries, les archées dites méthanogènes, des micro-organismes produisant du méthane.

459

Une introduction à la dynamique des océans et du climat

Une étape majeure dans l’histoire de la Terre est l’apparition de l’oxygène. On parle du grand événement d’oxydation (GEO) apparu autour de 2,5 milliards d’années. En l’absence de vie, l’oxygène ne s’accumule pas. La molécule de vapeur d’eau est cassée par les rayons UV dans la haute atmosphère, libérant hydrogène et oxygène. L’hydrogène léger peut se libérer de l’attraction terrestre, mais l’oxygène ne s’accumule pas pour autant car il est utilisé pour oxyder les roches. L’apparition de la vie est attestée par le rapport isotopique 13C/12C du carbone mesuré dans les roches sédimentaires. En effet la photosynthèse préfère utiliser le 12C que le 13C, un fractionnement qui permet alors de dater l’enfouissement de la matière organique. Et qui dit matière organique enfouie dit production d’oxygène par la photosynthèse. Un deuxième indice concordant est la disparition de la pyrite (FeS2) à la surface de la Terre vers 2,2 milliards d’années car elle est détruite par réaction avec l’oxygène. Ensuite l’explosion de la vie du Cambrien il y a 540 millions d’années va faire encore bondir l’oxygène qui se stabilise à sa valeur actuelle, vers 350 millions d’années. Avec la tectonique des plaques et la montée progressive des continents, le thermostat du lessivage chimique est intervenu en parallèle pour contrebalancer l’effet d’injection du CO2 par les volcans et stabiliser le CO2. Sur des échelles de temps de l’ordre du million d’années, la stabilité du climat terrestre est couramment expliquée par le cycle du carbone. La source du CO2 est toujours le volcanisme et le puits, le lessivage chimique des roches silicatées 4-4-1 de Urey (1952). La réaction 4-4-1 absorbe le CO2 et produit du carbonate de calcium entraîné par les rivières qui sédimente au fond des océans. Si la température de l’atmosphère augmente, le cycle hydrologique est plus puissant, l’évaporation et les précipitations augmentent, et donc le lessivage. Il s’agit bien d’un feedback négatif qui a dû jouer un rôle important pour limiter les températures extrêmes. Certes ce thermostat peut maintenir le CO2 dans l’atmosphère et le climat en équilibre, mais la place des continents sur la terre et la création des chaînes de montagnes peuvent aussi changer la température du thermostat. Comme le ruissellement est plus intense aux basses latitudes, si des continents se trouvent en majorité par là, le lessivage va augmenter. La création des chaînes de montagnes augmente aussi le lessivage en exposant directement les roches nouvellement créées. Mais les plantes ne sont pas en reste. Elles consomment du CO2 et vont le relâcher dans le sol dont la concentration peut largement excéder celle de l’atmosphère. Les plantes en pompant du CO2 dans le sol augmentent son lessivage. La réaction de Urey va se déplacer vers la droite et l’apparition de la végétation a donc pu agir pour contribuer au refroidissement de la planète. Il faut noter aussi que le dégazage de l’intérieur de la Terre est largement du carbone recyclé : les carbonates de calcium du fond des océans subductent et sont ensuite retransformés à haute température par la réaction de Urey inverse. On parle de création de roches métamorphiques. La constante de temps pour l’action de ce thermostat « lessivage » est de quelque 100 000 ans. Ce temps est court devant celui de la tectonique des plaques, du mouvement des continents, de la formation des chaînes de montagnes. Ce sont alors ces processus tectoniques qui gouvernent les changements du climat entre sauna et glacière sur les échelles de temps supérieures à 20 millions d’années.

460

4. Dynamique du climat

Le Phanérozoïque, les 542 derniers millions d’années (Ma), voit la rapide diversification des organismes pluricellulaires et l’apparition des espèces vivantes sur les continents au Dévonien (416-359 Ma). Le climat est influencé par le mouvement des continents (du granite léger) posé sur les plaques tectoniques de basalte plus lourdes qui se déplacent à des vitesses de l’ordre du cm par an. Ils sont initialement réunis en un seul super continent, la Pangée, s’étendant du pôle Sud au pôle Nord, au sein duquel on trouve une mer tropicale semi-fermée, la Thétys. Celle-ci devient une mer circumpolaire il y a 110 Ma. Puis l’océan Atlantique et l’océan Indien commencent à s’ouvrir et les continents commencent à prendre leur forme actuelle il y a 65 Ma. La Thétys se rétrécit pour devenir notre petite Méditerranée. La déformation tectonique conduit à la position des continents proche de ce que l’on connaît, il y a 4 Ma. Bien que ponctué par plusieurs épisodes glaciaires, le climat du Phanérozoïque fut plus chaud que l’actuel. En période chaude, le niveau de la mer était de 100 à 200 m plus haut et peut-être 20 % des continents étaient-ils inondés. Comme les isotopes de l’oxygène dans les sédiments marins indiquent des eaux profondes de 15 °C plus chaudes qu’aujourd’hui, les hautes latitudes étaient probablement aussi beaucoup plus chaudes qu’à présent et les calottes de glace inexistantes. L’augmentation de la température des basses latitudes est plus incertaine et probablement limitée à quelques degrés seulement. Une formation d’eau profonde du type de celle actuellement en place en Méditerranée (une convection de type haline dominée par l’évaporation et la salinité) aurait pu se produire dans la Thétys. Les raisons de ce réchauffement des hautes latitudes et de la suppression du gel en hiver ne sont pas clairement connues. Les résultats de modèles montrent qu’un réchauffement global de 6 °C demande des niveaux de CO2 de 4 à 8 fois supérieurs à ceux d’aujourd’hui. La discussion précédente (§ 4-5-1 et 4-5-3) montre qu’avec une sensibilité du climat de 0,75 K, une augmentation de 6° demande un forçage radiatif de 8 W m–2 soit une concentration de CO2 4,5 fois plus grande qu’aujourd’hui. Ces niveaux élevés seraient dus à une activité tectonique plus intense (volcanisme accru) et une surface des continents plus petite réduisant d’autant le lessivage des roches silicatées, et donc le puits de CO2. L’influence de la distribution géographique océan - continent très différente induisant un transport méridien de chaleur océanique plus intense a également été considérée. Notons aussi qu’avec un cycle hydrologique plus fort, le transport méridien de chaleur latente a dû beaucoup augmenter. Le test de ces modélisations requiert des proxys d’observations plus nombreux sur la période tant sur le CO2 que sur la température de surface de l’océan évidemment difficiles à obtenir au vu de ce passé très éloigné. Le climat chaud des dernières 50 Ma a vu un lent refroidissement jusqu’à aujourd’hui, possiblement causé par un ensemble de plusieurs processus : la diminution de l’activité tectonique et donc du volcanisme, l’émergence de l’Himalaya et du Plateau tibétain et la migration des continents vers les positions qu’on leur connaît aujourd’hui avec l’ouverture des océans Atlantique et Indien. La circulation océanique a pu jouer un rôle en diminuant le transport méridien de chaleur océanique vers l’Austral. En effet l’ouverture du passage de Drake a permis le passage du courant circumpolaire Antarctique isolant le continent Antarctique qui a

461

Une introduction à la dynamique des océans et du climat

pu commencer à se refroidir. Les eaux profondes auraient perdu 10 °C. La calotte de glace Antarctique est apparue il y a 5 Ma et celle de l’hémisphère nord il y a 3 Ma : on entrait dans les glaciations du Quaternaire. À côté de ces changements très lents, il y a eu aussi des catastrophes, des événements datés dans les enregistrements géologiques, comme ceux des extinctions massives d’espèces attestées par la disparition de nombreux fossiles à certaines profondeurs stratigraphiques. La transition entre l’ère primaire et l’ère secondaire est ainsi marquée par une extinction massive datée vers 250 Ma, la frontière Permien-Trias, tandis que l’extinction massive (celle des dinosaures) qui marque le passage de l’ère secondaire à l’ère tertiaire, la frontière Crétacé-Tertiaire, ou encore KT se situe vers 65 Ma. La première est associée à une éruption volcanique majeure, l’origine de la deuxième restant fortement débattue. • Entre 750-620 Ma, il y aurait eu deux épisodes de glaciation globale au cours desquels la Terre est partie dans son régime « boule de neige ». L’existence de calottes de glace au niveau de l’équateur est attestée par des sédiments d’origine glaciaire, les tillites. On pense que si les glaces atteignent 30° de latitude, le feedback positif de l’albédo de glace termine rapidement le travail de couverture. La biosphère a été complètement désorganisée car l’océan isolé de l’atmosphère est alors devenu anoxique. Ceci est attesté par l’absence de bandes de fer oxydé Fe3+ dans les sédiments pendant cet âge de glace. On sait que ce régime n’a pas duré longtemps : la faiblesse des cycles hydrologiques et bio-géochimiques sur une terre englacée empêche le lessivage chimique, et empêche également le stockage du carbone dans les océans et la biosphère terrestre de sorte que le CO2 des émissions volcaniques s’accumule dans l’atmosphère et le réchauffement peut repartir un ou deux millions d’années plus tard. Une boule de neige ne peut pas durer bien longtemps en présence du dégazage de l’intérieur de la Terre. En revanche, les mécanismes d’entrée en glaciation de ces événements restent encore mystérieux. Les indices géologiques prouvant que les calottes de glace s’étendaient jusqu’à l’équateur au Néoprotérozoïque sont revus en détail par Hoffman et Schrag (2002). • Impact de météorite : il y a 65 Ma une couche sédimentaire riche en iridium KT a été détectée par les géologues associée à la signature du choc d’un astéroïde d’une dizaine de km de diamètre (riche en iridium par rapport à la croûte terrestre), formant le cratère Chicxulub dans la péninsule du Yucatan. Des émissions d’oxydes de soufre SO2 auraient rendu les pluies acides, la poussière émise dans l’atmosphère aurait fortement augmenté l’albédo, la photosynthèse aurait été bloquée et donc aussi la production d’oxygène et d’ozone, un refroidissement expliquant la disparition de 75 % des espèces vivantes. • Les traps du Deccan : à peu près à la même époque que la limite KT précédente a eu lieu l’éruption volcanique du Deccan probablement due à l’effet d’un point chaud du manteau terrestre lorsque la plaque indienne a accéléré vers le nord. Le mot trap d’origine suédoise décrit un dépôt de lave en marches d’escalier (ici sur plus de 2 000 m de hauteur et une surface de 1,5 M km2). Les émissions de CO2 et SO2 sont maintenant plus distribuées dans le temps et s’étalent sur une

462

4. Dynamique du climat

fenêtre de peut-être 1 Ma. Impact d’astéroïde ou volcanisme du Deccan pour expliquer l’extinction KT restent des choix largement débattus, les deux effets n’étant d’ailleurs pas nécessairement exclusifs. Le sujet est traité en détail dans le livre de Courtillot (1995). • Le PETM : l’événement le mieux marqué est celui du maximum thermique entre le Paléocène et l’Éocène (Paleocene-Eocene Thermal Maximum-PETM) il y a 55 Ma, reconstruit à partir des isotopes du carbone et de l’oxygène des sédiments marins. Le climat très chaud du PETM a été initié par un relâchement d’une grande quantité de CO2 dans l’atmosphère. Le réchauffement global a atteint +5° puis le climat est retourné à l’équilibre via le lessivage sur quelques centaines de milliers d’années. Le CO2 relâché pendant le PETM a acidifié les océans et dissout les sédiments océaniques laissant une couche repérable dans les carottes sédimentaires. Évidemment l’intérêt de la reconstruction du climat de cette période est de donner des idées sur les conséquences des émissions anthropiques actuelles. La description de ces climats très anciens et les mécanismes possibles les gouvernant sont présentés en détail par Ramstein (2015 et 2017).

4.6.4

Les deux derniers millions d’années ou le temps des paramètres orbitaux

On parle ici de la période du Quaternaire divisée en deux, l’Holocène (les derniers 10 000 ans) et le Pléistocène les derniers 2,6 millions d’années, l’époque témoin des grandes glaciations. Celles-ci ont été inférées au départ sur les continents à partir de la position de blocs rocheux très éloignés de leurs origines et de l’examen des marques sur ces rochers. Agassiz, lors de son discours de Neuchâtel en 1837, proposa que les blocs rocheux du Jura marqués par de fortes cicatrices étaient le témoignage direct de l’existence d’âges glaciaires, une idée qui ne fut acceptée qu’avec réticence un quart de siècle plus tard par les géologues : les glaciers actuels sont ce qui reste des calottes de glace gigantesques qui recouvraient l’Europe et l’Amérique du Nord et avaient charrié ces blocs de rochers. Lorsque la glace a fondu, les rochers sont restés plantés là. En parallèle avec la reconstitution du front des glaciers, les géologues ont aussi trouvé que le niveau des mers avait chuté de plus de 100 m lors de ces glaciations. Les causes des glaciations ont été vivement débattues pendant tout le xixe siècle et on pourra lire l’historique de Bard (2004). Le basculement des idées était écrit au fond des océans et dans ce qui reste des calottes glaciaires au Groenland et dans l’Antarctique. La mise en relation des observations des sédiments marins et carottes de glace et ce que l’on appelle la théorie astronomique du climat racontée par Imbrie et Imbrie (1986) illustrent bien la démarche scientifique faite d’intuition dans les idées, d’erreurs très souvent et de remise en cause permanente des résultats passés.

463

Une introduction à la dynamique des océans et du climat

Commençons par montrer le célèbre enregistrement de la carotte de glace de Vostok de Petit et al. (1999) :

 Figure 4-6-3  Les enregistrements ci-dessus sont le résultat de l’expédition franco-russe du forage de Vostok dans l’Antarctique (78 °S, 106 °E). La profondeur du forage a atteint 3 300 m ou 450 000 ans. Les courbes a et c sont le CO2 atmosphérique et le méthane CH4 respectivement contenus dans les bulles de gaz. La courbe b est la température atmosphérique à l’altitude des précipitations reconstruites à partir du deutérium (un isotope de l’hydrogène). La courbe d est le δ18O atmosphérique qui donne des indications sur le volume des glaces et le cycle hydrologique. Il est fortement corrélé à l’insolation, courbe e ici à 65 °N. Source : Petit et al. (1999).

La figure 4-6-3 montre les valeurs basses prises par les deux gaz à effets de serre importants lors du dernier maximum glaciaire (autour de 20 000 ans avant le présent), le CO2 atteignant 190 ppmv et le CH4 350 ppbv. Particulièrement frappants sont les 4 cycles à 100 ka (1 ka = 1 000 ans), d’amplitude 8 °C, qui ont une allure en dents de scie, avec un réchauffement rapide suivi d’un refroidissement lent. La température (locale) semble bien corrélée aux gaz à effets de serre CO2 et CH4 de sorte que ceux-ci doivent jouer un rôle d’amplificateur des variations du climat. La série temporelle du CO2 montre des variations régulières de 90 ppmv entre période glaciaire et interglaciaire. La figure montre aussi des cycles plus rapides que 100 ka, plus visibles sur le δ18O atmosphérique.

464

4. Dynamique du climat

La question immédiate est bien sûr de rationaliser la cause de l’existence de ces cycles. Les idées avaient en fait germé plus de deux siècles auparavant et ces enregistrements récents sont venus finalement éclairer des discussions théoriques des deux derniers siècles. Le rôle clé joué par le Soleil dans le maintien du climat a été l’intuition première d’Adhémar en 1842 dans son livre au titre évocateur, Révolutions de la Mer, puis poursuivi par Croll (1864), Milankovic (1941), Berger (1977) notamment. L’idée d’Adhémar n’est pas que la constante solaire ait pu varier, mais que le rayonnement solaire reçu par la Terre change à cause du mouvement propre de la Terre autour du Soleil (figure 4-6-4). Le mouvement à deux corps (Terre + Soleil) est une ellipse parfaite parcourue en un an avec le Soleil à un des foyers. De fait l’ellipse reste assez proche d’un cercle avec actuellement une distance minimum au Soleil (périhélie) de 147 106 km le 3 janvier et un maximum (aphélie) de 152 106 km le 4 juillet. Mais les autres planètes du système solaire perturbent cette ellipse et donnent une richesse d’oscillations sur des périodes beaucoup plus longues. L’excentricité de l’ellipse (c’est-à-dire sa forme plus ou moins allongée) varie sur une période de 100 ka (1 ka = 1 000 ans). L’axe de rotation de la Terre avec le plan de l’orbite (l’écliptique) fait aujourd’hui un angle de 23,5° (l’obliquité). L’obliquité elle-même varie entre 21,6° et 24,5° sur une période de 41 ka. Mais l’axe de rotation peut aussi tourner, un mouvement de précession analogue à celui d’une toupie dont l’axe décrit un cône. La dynamique de la précession est complexe bien que son origine soit simple : la Terre n’est pas une sphère car la rotation l’a déformée (voir § 2.1.5) et le moment d’inertie par rapport à l’axe polaire diffère du moment d’inertie autour d’un axe du plan équatorial. En résulte cette précession qui oscille avec des périodes de 19 ka et 23 ka. 23.5o

 Figure 4-6-4  La Terre en gris effectue une ellipse autour du Soleil en noir (un des foyers de l’ellipse) en un an dans le plan de l’écliptique. Mais cette ellipse peut être plus ou moins aplatie (courbe solide ou en pointillé) à cause du mouvement des autres corps du système solaire. Cet aplatissement est mesuré par l’excentricité. L’axe de la rotation de la Terre sur elle-même peut aussi tourner autour de la perpendiculaire au plan de l’orbite (un mouvement appelé précession). Finalement l’angle entre l’axe de rotation de la Terre et le plan de l’orbite (appelé obliquité) peut lui-même varier de quelques degrés.

465

Une introduction à la dynamique des océans et du climat

La figure 4-6-5 montre les variations périodiques de ces paramètres orbitaux de la Terre que Laskar et al. (2004) ont pu calculer jusqu’à quelques millions d’années dans le passé. Il faut connaître très précisément la forme de la Terre, sa rotation, la position des planètes aujourd’hui et intégrer à rebours la deuxième loi de Newton appliquée à chacune des huit planètes du système solaire, les forces de gravitation sur chaque planète étant dues au Soleil et aux sept autres.

 Figure 4-6-5  Les trois causes de variation de l’insolation : un cycle de 100 ka pour l’excentricité, un cycle de 41 ka pour l’obliquité [degré] et deux cycles de 23 ka et 19 ka pour la précession [degré]. L’origine du temps est janvier 2000, le temps s’écoule de gauche à droite, l’unité étant le millier d’années (1 ka). Données de Laskar et al. (2004), disponibles sur http://vo.imcce.fr/insola/ earth/online/earth/online/index.php

Si la position de la Terre et de son axe de rotation sont connues, alors on peut calculer facilement le rayonnement solaire en fonction de la latitude et des saisons comme sur la figure 4-2-2. L’hypothèse majeure de la théorie astronomique du climat est que l’évolution de la température globale de la Terre et du volume des glaces est causée par ces variations de rayonnement solaire induites par les variations des paramètres orbitaux. Le premier calcul des variations du rayonnement solaire dues à ces mouvements de l’orbite terrestre a été l’œuvre de Milankovic. Restait une difficulté de taille, savoir comment de si petites variations du rayonnement reçu par la Terre pouvaient engendrer des effets aussi considérables que les séquences glaciairesinterglaciaires de l’hémisphère nord. Adhémar et Croll ont tout d’abord proposé que le facteur critique était la quantité de rayonnement solaire reçu aux hautes latitudes en hiver, mais le climatologiste Köppen (1924) indiqua à Milankovic qu’à son

466

4. Dynamique du climat

avis l’insolation aux hautes latitudes en été était le facteur décisif, l’idée étant qu’une moindre insolation empêcherait la fonte des glaciers en été et qu’avec un budget de neige positif sur l’année, l’expansion de glace serait inéluctable. C’était la bonne idée. Comme l’expansion de la calotte antarctique est limitée par l’eau encerclant le socle rocheux du continent antarctique, les variations glaciaires-interglaciaires, doivent plutôt venir des variations de l’insolation des continents de l’hémisphère nord : la tradition est donc de prendre comme premier index le flux solaire incident à 65 °N. Connaissant la position de la Terre, Berger et Loutre (1991) ont ainsi pu recalculer l’insolation terrestre à 65 °N au mois de juin. Le résultat sur la même échelle de temps que la figure 4-6-5 est le suivant :

 Figure 4-6-6  L’insolation à 65 °N au mois de juin en W m–2. Notez l’amplitude des variations du signal qui peut atteindre 100 W m–2 soit 20 % de la moyenne. L’unité de temps est en ka. Le présent est en t = 0 et le temps s’écoule de gauche à droite. Origine des données : D. Paillard (2016).

Les signaux de courte période associés à la précession et à l’obliquité dominent l’insolation sur la figure 4-6-6. L’idée la plus simple est de regarder si ces périodes de forçage se retrouvent dans la réponse du système, l’hypothèse d’un climat se comportant comme un système linéaire. Ce sont les observations océaniques qui sont venues jouer ce rôle clé. Hays et al. (1976) ont utilisé une nouvelle méthode de datation des sédiments leur permettant de remonter jusqu’à 450 ka avant le présent (figure 4-6-7).

467

Une introduction à la dynamique des océans et du climat

Figure 4-6-7 Le δ18O de foraminifères planctoniques utilisé ici comme proxy pour le volume global des glaces pour deux carottes RC11-120 et E49-18 utilisées par Hays et al. (1976).

Les deux carottes vers 45 °S sont assez loin de l’Australie et de l’Afrique et les deux enregistrements combinés permettent d’avoir une série longue de 450 ka. L’hypothèse d’un taux de sédimentation constant transforme directement la profondeur des carottes ci-dessus en temps : 15 m de sédiments à raison de 3 cm par tranche de 1 000 ans donne 500 ka. En complément, certains événements de l’enregistrement ont pu être vérifiés par des comparaisons indépendantes avec l’âge des terrasses de corail aux Barbades, Nouvelle-Guinée et Hawaii. Ces terrasses datées correspondent en effet à des épisodes de niveau de la mer haut et donc de faible volume de glace. Waelbroeck et al. (2002) ont d’ailleurs combiné ces données et celles de δ18O de l’eau de mer lues dans les sédiments océaniques pour reconstruire une estimation optimale du niveau de la mer sur plus de 400 ka :

Figure 4-6-8 Le niveau de la mer RSL reconstruit par Waelbroeck et al. (2002) (courbe noire) est comparé aux estimations de Shackelton (2000) (courbe grise). Les croix indiquent les valeurs locales déduites des terrasses de coraux.

468

4. Dynamique du climat

On trouve quatre minima de niveau de la mer qui déclinent encore l’importance du cycle de 100 ka. Le niveau de la mer du dernier maximum glaciaire était 130 m plus bas qu’aujourd’hui. Les figures 4-6-7 et 4-6-8 montrent un aspect important, l’asymétrie du signal en dent de scie : une déglaciation rapide suivie d’une lente glaciation. L’idée initiale de Hays et al. a été de chercher si les fréquences (périodes) présentes dans la courbe d’insolation se retrouvaient dans le signal climatique, ici le δ18O le proxy pour le volume des glaces. Pour trouver ces fréquences dans l’enregistrement de la figure 4-6-7, une transformée de Fourier du signal de la figure 4-6-7 est effectuée qui permet de décomposer le signal en une somme de signaux de différentes périodes puis on trace l’amplitude du signal pour chaque période (voir Annexe 4).

Figure 4-6-9 Le spectre de la série temporelle de δ18O de Hays et al. (1976). Le log10 du carré des coefficients de Fourier est tracé en fonction de la fréquence en cycles par millier d’années. Les pics principaux a, b, c apparaissent aux périodes de 106 ka, 43 ka et 24 ka respectivement.

La figure 4-6-9 montre que le signal des sédiments contient bien les périodes de l’insolation induite par les oscillations de l’orbite terrestre, mais les auteurs montrèrent de plus que le signal sédimentaire suivait l’insolation aux périodes de la précession 19 ka et 23 ka et de l’obliquité 41 ka avec un certain retard temporel pour achever de convaincre de la logique entre cause et effet. Dans leur article intitulé « Variations in the Earth’orbit: Pacemaker of the ice ages », Hays, Imbrie et Shackelton (1976) donnaient raison à Milankovic, un demi-siècle après l’apparition de sa théorie. Trois remarques : (i) Cela peut paraître saugrenu de justifier cette théorie par des mesures sur juste deux carottes de glace de l’océan Indien. Beaucoup d’autres forages ont été faits depuis et les analyses concourent toutes à montrer ces variations aux fréquences orbitales. (ii) L’idée qu’un forçage solaire déterministe et d’amplitude assez modeste puisse induire des phénomènes naturels de si grande ampleur sur de si longues périodes reste une surprise, car l’évolution de l’atmosphère et des océans à nos échelles de

469

Une introduction à la dynamique des océans et du climat

temps est avant tout chaotique et très non linéaire. Très certainement les feedbacks positifs de l’albédo de la glace et des gaz à effets de serre ont dû jouer à plein. Le lien entre les cycles observés et le forçage orbital de Milankovic reste avant tout de nature statistique et il n’y a pas de mécanisme généralement accepté pour expliquer comment le forçage orbital conduit aux cycles glaciaires-interglaciaires (Paillard, 2015). (iii) Il reste aussi la difficulté du signal à 100 ka : le signal est très fort dans les sédiments et dans la glace (figures 4-6-3 et 4-6-7), alors que le forçage solaire associé à la période de variation d’excentricité de l’orbite terrestre n’est que de ~2 Wm–2. Différents auteurs ont depuis developpé des enregistrements composites du δ18O des foraminifères benthiques de carottes sédimentaires de l’océan mondial qui permettent de voir beaucoup plus loin en arrière, jusqu’à 6 millions d’années avant le présent.

 Figure 4-6-10  Série temporelle composite de Lisiecki et Raymo (2005) du δ18O des sédiments marins sur 1,8 million d’années.

L’objectif de Lisiecki et Raymo (2005) sur la figure 4-6-10 était de rassembler toute l’information disponible et de la montrer avec une échelle de temps commune. Les différents sites ont des vitesses de sédimentation différentes et une méthode a été développée pour fournir cette échelle de temps commune. Au final a été obtenue une série pour le δ18OMER un proxy pour le volume des glaces. Sur cette figure, le cycle majeur d’alternance de climats glaciaires et interglaciaires de période 100 ka domine les derniers 600 000 ans, mais les cycles de plus courte période de la précession et de l’obliquité dominent la période antérieure entre 1 million et 1,8 million d’années. L’enregistrement supporte donc les premiers résultats de Hays et al. (1976). L’analyse spectrale de cet enregistrement montre néanmoins aussi un cycle à 29 ka qui n’est pas présent dans l’insolation et aurait donc une autre origine. Reste à discuter l’origine du cycle à 100 ka qui domine les observations alors que le forçage solaire causé à cette période par l’excentricité est vraiment très faible (0,18 % de l’insolation annuelle). La recherche s’est organisée autour de deux idées, l’hypothèse d’oscillations internes et l’hypothèse d’oscillations forcées, ces dernières demandant une sensibilité du climat élevée pour répondre à une anomalie d’insolation si faible. Les possibilités d’oscillations internes sur ces longues périodes ont été étudiées notamment par Källen et al. (1979) et Ghil (1984). Deux variables au moins sont

470

4. Dynamique du climat

nécessaires pour générer des oscillations autonomes (sans forçage explicite) et ces auteurs ont choisi la température globale de la terre Tg gouvernée par un modèle EBM du type de celui présenté au § 4.5.3.2 et l’extension L de la calotte glaciaire en latitude gouvernée par les processus d’accumulation (neige) et d’ablation – on relie le volume de glace V à L par V∝ L3/2. La nouveauté est donc ici de coupler un EBM avec un modèle de dynamique de calotte glaciaire. Il inclut deux feedbacks, le feedback glace-albédo et le feedback température-vapeur d’eau. Selon le choix des paramètres (et il y en a beaucoup compte tenu du petit nombre de processus explicitement inclus), on peut montrer que ce modèle non linéaire montre des régions d’oscillations possibles, un cycle limite qui se déroule de la façon suivante. Supposons à l’instant initial une situation sans glace, avec une température élevée. L’évaporation sera élevée, les précipitations sous forme de neige fortes et les glaciers vont se construire. Le feedback glace-albédo va faire chuter la température, les précipitations diminuent et la glace stoppe son extension. Si la température continue de chuter, l’étendue de la glace va finir par diminuer, l’ablation l’emportant sur l’accumulation. Le feedback glace-albédo fonctionne alors dans l’autre sens et la température réaugmente. L’écoulement par inertie du glacier empêche celui-ci de croître instantanément sous l’effet des précipitations accrues, un retard apparaît et le système revient à sa position initiale. Retournant du côté des oscillations forcées, Calder (1974) a proposé un modèle reliant simplement le volume des glaces V et l’insolation i (du mois de juin à 65 °N) ignorant toute la complexité du climat : dV = −k(i − i0 ) dt Lorsque i est au-dessus (au-dessous) d’un certain seuil i0, le volume de glace décroît (croît). Pour reproduire l’asymétrie du signal, le paramètre de relaxation k change également : k = kM si i > i0 k = kA si i ≤ i0 Le volume de glace forcé par l’insolation de la figure 4-6-6 est facile à calculer, mais il ne suit pas vraiment bien les observations à l’exception d’une assez remarquable prédiction des terminaisons des interglaciaires, une fois que la chronologie des observations a été révisée et le choix des paramètres i0, kA et kM affiné. Paillard (2015) montre que cet accord du modèle de Calder provient du lien qui existe dans le modèle entre maximum glaciaire et minimum de l’excentricité et note que la sensibilité des résultats au choix des paramètres kM et kA est trop forte. Compte tenu de la très longue période et de l’interaction complète océan – atmosphère - surface terrestre - calotte glaciaire à prendre en compte, la modélisation du cycle de 100 ka par les GCM est difficilement praticable sans simplifications importantes. Si Milankovic pensait que le volume des glaces et le climat doivent suivre gentiment l’insolation, cette idée linéaire n’est peut-être pas la bonne pour ces cycles. Le forçage solaire de faible intensité est certes sinusoïdal, mais la réponse à 100 ka ne l’est pas du tout : le refroidissement est graduel alors que le réchauffement

471

Une introduction à la dynamique des océans et du climat

est brutal, ce qui indique la présence de non-linéarités dans le système. Un système dynamique non linéaire a des comportements beaucoup plus riches qu’un système linéaire et peut montrer des réponses très variées sous l’effet de petites variations d’un forçage : les transitions d’un régime (ou comportement) à un autre en réponse aux variations d’un forçage sont appelées des bifurcations. On peut alors passer d’un état d’équilibre à un état oscillant, d’un état oscillant à un état chaotique, ou encore d’un état d’équilibre à un autre, bien loin du premier si des équilibres multiples sont présents. Le modèle d’interactions insolation-albédo de la glace (§ 4-5-3), le modèle de Stommel (1961) pour la circulation thermohaline (§ 3-5-3) sont des exemples de systèmes non linéaires, replacés dans le contexte plus général des systèmes dynamiques par Ghil (2001). Paillard (1998) a exploré cette idée pour le cycle à 100 ka en supposant que le climat pouvait avoir trois états d’équilibre possibles, un état interglaciaire i, un état moyennement glaciaire g et un état pleinement glaciaire G, puis il a imposé des règles logiques de transition pour passer d’un état à l’autre sous l’effet de la variation de l’insolation I à 65 °N qui est connue. Les règles de transitions entre états sont les suivantes : iÆg si i < i0. gÆG si t >Tg, i < i2   et si le maximum de I précédant la transition est inférieur à un certain seuil : max(i) < i3 GÆi si i > i1 Comme toutes les autres transitions sont interdites, elles se succèdent dans le temps dans l’ordre i, g, G, i, g, G, etc. En pratique on enlève la moyenne de l’insolation I et on divise par l’écart type de sorte que les valeurs choisies pour les transitions sont i0 = –0,75, i1 = i2 = 0, i3 = 1. Le temps Tg (= 33 000 ans) est un temps minimum imposé pour construire une couverture de glace dans l’état g.

 Figure 4-6-11  Le modèle de Paillard (1998) : la courbe du haut est l’insolation à 65 °N pour les derniers 900 000 ans. Les seuils sont donnés par les courbes i0 …., i1 et i2 ----, i3 trait plein. En bas : l’état du climat i = 1, g = 0 et G = –1.

472

4. Dynamique du climat

Paillard impose un état glaciaire G à t = 875 000 ans et ensuite les états climatiques sont entièrement déterminés par les règles ci-dessus. Ces règles de comportement très simples font apparaître assez facilement des cycles de 100 ka sur la figure 4-6-11. La règle permettant la persistance de l’état glaciaire intermédiaire g est critique, car elle permet de se débarrasser des plus courtes périodes présentes dans le signal de l’insolation. Paillard note que les interglaciaires dans les observations ne sont pas directement associés avec les maxima d’insolation, mais apparaissent après de petits maxima. Le modèle n’est pas spécialement ajusté et le même comportement persiste quand on varie un peu les seuils : on dit que le modèle est robuste. Si cette idée met sur la piste de trois équilibres multiples, elle ne dit pas quelle est la physique qui se cache derrière. Le feedback glace-albédo et la circulation océanique sont très probablement impliqués puisqu’on a déjà vu que chacun de ces deux ingrédients permet les équilibres multiples. Aujourd’hui, les pistes suivies pour expliquer les signaux à 100 ka ne sont plus exclusivement d’origine astronomique. Les processus géochimiques reviennent au premier plan, car il faut non seulement expliquer le volume des glaces et les variations de température mais aussi la variation observée du CO2. La forte corrélation entre la température et les gaz à effets de serre, CO2 et CH4, vue dans les enregistrements de la carotte de glace de Vostok de Petit et al., (1999) indique le rôle amplificateur que ces gaz ont pu jouer. La concentration en CH4 dépend des surfaces de terres inondables (wetlands) certainement réduites (augmentées) en période glaciaire (interglaciaire). Trouver qui de la température ou du CO2 est en avance sur l’autre au moment d’une transition glaciaire-interglaciaire aiderait à préciser la cause mais l’analyse de Parrenin et al. (2013) indique plutôt un synchronisme entre les deux séries. L’effet radiatif des variations de quelque 90 ppmv du CO2 expliquent à peu près 50 % des variations de température, l’autre moitié étant associée aux variations d’albédo de la glace (mer et calottes continentales). En revanche la cause première de cette baisse de 90 ppmv de CO2, soit 170 GtC soustrait de l’atmosphère, reste encore incertaine et continue d’être cherchée dans le réarrangement glaciaire-interglaciaire du stock de carbone. Plusieurs facteurs sont à considérer : 1) La pompe de solubilité : dans un climat plus froid, la solubilité du CO2 augmente de sorte que le flux de carbone vers l’océan profond augmente. 2) La pompe biologique marine : la production primaire augmente grâce à une disponibilité accrue du fer, l’hypothèse de la fertilisation par le fer de Martin (1990). En dépit de sels nutritifs disponibles, la productivité primaire est aujourd’hui faible dans l’Austral à cause d’un manque de fer. L’augmentation significative de la poussière dans l’atmosphère en période glaciaire a pu permettre l’ensemencement en fer nécessaire pour relancer la productivité primaire. 3) La pompe de la biosphère terrestre : dans un climat plus froid, la dégradation de la matière organique dans le sol est ralentie diminuant d’autant le dégazage du CH4 et du CO2. 4) La salinité forte des eaux de fond au voisinage de l’Antarctique en climat froid qui pourrait créer une stratification plus grande contribuant à isoler le réservoir profond de la surface et diminuer le dégazage (voir Paillard et Parrenin, 2004).

473

Une introduction à la dynamique des océans et du climat

Une étude récente de Ferreira et al. (2018) éclaire d’une autre façon le problème du cycle à 100 ka. Bien sûr les GCM, les modèles couplés (océan-glace-atmosphère) ne peuvent pas être intégrés sur d’aussi longues périodes, mais ces auteurs ont découvert des équilibres multiples qui ressemblent aux états glaciaires-interglaciaires du cycle à 100 ka. Le modèle couplé océan-atmosphère-glace de mer du MIT est configuré dans une géométrie simplifiée, un grand bassin type Pacifique et un petit bassin Atlantique dans l’hémisphère nord et un océan circumpolaire connecté aux deux autres dans l’hémisphère sud. Le modèle néglige les variations de glace terrestre et l’effet radiatif du CO2. Lorsque le modèle est amené à l’équilibre sur quelques milliers d’années, cette configuration déjà assez réaliste montre deux équilibres multiples, un climat chaud et un climat froid obtenus pour le même forçage solaire mais avec des conditions initiales océaniques différentes. Le feedback glace-albédo et le transport méridien de chaleur dans l’océan sont ici les processus centraux permettant l’existence de ces deux solutions stables. L’hémisphère nord du climat chaud est libre de glace et l’overturning est fort dans l’Atlantique nord. Dans l’hémisphère sud du climat froid, la limite de glace de mer remonte vers l’équateur de quelque 15° de latitude et l’overturning de l’Atlantique nord est bien réduit alors que la cellule associée aux eaux de fond générées dans l’hémisphère sud est au contraire intensifiée. Notez que cet état était instable pour le modèle sans océan de la figure 4-5-3, mais la limite de glace vers 45 °N est stabilisée ici par la convergence du transport méridien de chaleur par la circulation océanique. Bien qu’un modèle de carbone complet soit aussi simulé dans l’océan, les rétroactions du CO2 atmosphérique sur le bilan radiatif sont négligées de sorte qu’il n’y a pas d’effet de serre dû aux variations de CO2. Les concentrations atmosphériques de CO2 passent de 268 ppm à 157 ppm du climat chaud au climat froid du modèle, une variation de 111 ppm de l’ordre de grandeur de celle observée pour les cycles de 100 kA. Cette diminution dans le climat froid s’explique par une pompe de solubilité plus intense, par le stockage du CO2 dans les eaux de fond et par l’augmentation de la couverture de glace qui empêche une partie du dégazage des eaux en surface. Bref on peut trouver des équilibres multiples glaciaires-interglaciaires avec un CO2 radiativement passif et un forçage solaire constant ! Reste à trouver les bassins d’attraction de ces états chauds et froids, c’est-à-dire les conditions qui permettent la convergence vers l’un ou l’autre de ces états. De combien peut-on perturber par exemple la limite de la glace de mer d’un état avec une condition de retour sur l’état initial ? Quand le climat s’échappe ailleurs, la limite critique est alors la frontière du bassin d’attraction pour cette variable glace de mer. Les variations du forçage de Milankovic deviennent les perturbations permettant de passer la frontière entre deux bassins d’attraction, exactement dans l’esprit du modèle de Paillard (1998). Évidemment il sera nécessaire de voir si ces états stables persistent lorsque le CO2 redevient actif dans l’atmosphère. Une revue critique des observations et des modèles de transitions glaciairesinterglaciaires depuis l’idée initiale de Milankovic est proposée par Imbrie et al. (1993), Paillard (2001 et 2015).

474

4. Dynamique du climat

4.6.5

Les derniers 100 000 ans ou le temps de la circulation océanique

Il y a 125 000 ans, le volume de glace continentale correspondait à peu près à la situation de l’interglaciaire actuel. Ensuite la glace a augmenté pour atteindre un maximum il y a 21 000 ans, le dernier maximum glaciaire (LGM, Last Glacial Maximum). Une calotte de glace de 3-4 km d’épaisseur, la Laurentide, couvrait l’Amérique du Nord et une autre, la Fenno-Scandie, couvrait l’Eurasie. En 1976, le projet CLIMAP rassemblait les données d’abondances de foramanifères planctoniques des sédiments marins du LGM et permettait d’établir une première carte de la SST de cette période. Depuis les données ont beaucoup augmenté et d’autres proxys sont apparus.

 Figure 4-6-12  Les SST du LGM du projet Margo 2009, exprimées en anomalies de température, soit la différence LGM-WOA98. Été de l’hémisphère nord (juillet-août-septembre, en haut), été de l’hémisphère sud (janvier-févriermars, au milieu), moyenne annuelle (en bas). Source : Margo Project Members, 2009.

475

Une introduction à la dynamique des océans et du climat

Le refroidissement est intense aux hautes latitudes et beaucoup plus limité près des Tropiques. On notera l’anomalie froide au large de l’Europe, précisément à l’endroit où des SST élevées sont apportées aujourd’hui par la dérive nord-atlantique. Ceci est sans doute le signe d’un parcours du Gulf Stream beaucoup plus zonal (le long de ∼ 40 °N) qu’actuellement. En hiver, la banquise devait atteindre 45 °N, la latitude de Bordeaux. Les régions continentales des tropiques et moyennes latitudes étaient beaucoup plus sèches qu’aujourd’hui, essentiellement à cause de températures plus faibles entraînant une réduction de la pression partielle de vapeur d’eau et donc de l’évaporation. On pense que la formation de l’eau profonde de l’Atlantique nord (NADW) et les flux de chaleur associés étaient faibles il y a 20 000 ans puis ont redémarré vers 14 000 ans, à l’époque où le volume de glace diminuait rapidement. Mais entre 13 000 et 11 000 ans, nouvel arrêt, et durant cet intervalle le climat européen est redevenu très froid, événement froid appelé le Younger Dryas du nom d’une plante qui a prospéré alors que la croissance des forêts était stoppée. Les carottes de glace du Groenland montrent cet événement et une des hypothèses est que de l’eau douce libérée par la fusion des glaces de la Laurentide a envahi l’Atlantique nord par le Saint-Laurent. La salinité s’est alors écroulée et la circulation thermohaline avec. L’idée sous-jacente est l’activation du feedback positif entre transport de sel et circulation océanique (§ 4-5-2-6). Broecker (1985) puis Broecker et al. (1990) ont proposé que des événements du type Younger Dryas s’étaient produits à de nombreuses reprises sur les derniers 100 000 ans. Le δ18OGLACE de NorthGRIP au Groenland montre en effet sur la figure suivante une histoire riche en événements climatiques. Le δ18O dans la glace, pris ici comme indicateur de la température de l’air, montre sur la figure 4-6-13 une nouvelle histoire du climat avec des variations beaucoup plus rapides, des périodes de l’ordre du millier d’années. Avec une amplitude de δ18O = 4o/oo, est associée une variation de température ~7,5 °C. Ces oscillations millénaires coïncident avec la dernière période glaciaire. Elles se sont arrêtées il y a 8 000 ans environ et le climat terrestre est stable depuis. Ces événements dits de Dansgaard-Oeschger (DO) de l’hémisphère nord montrent un réchauffement très rapide (quelques dizaines d’années) suivi d’un refroidissement beaucoup plus lent, un événement complet durant en moyenne 1 500 ans. La figure montre aussi des bandes grises, des événements dits de Heinrich (les valeurs très faibles de δ18O sur la figure) marqués par des couches de débris sédimentaires trouvés dans les carottes des sédiments marins dits IRD (Ice Rafted Debris), débris arrachés au continent lors de cassures des calottes de glace de la Laurentide (Canada) ou du Groenland puis transportés par les icebergs dans l’océan avant leur fonte finale. Les mesures de méthane dans les carottes de glace de l’Antarctique co-varient avec le signal δ18OGLACE. Le méthane est un signal plutôt global dans l’atmosphère qui reflète la dégradation de la matière organique dans les zones humides, donc favorisée par un climat chaud. Ainsi une valeur élevée de méthane en phase avec un pic de δ18OGLACE suggère un impact chaud en phase sur le Bassin atlantique.

476

4. Dynamique du climat

 Figure 4-6-13  Enregistrement du δ18O de la glace au Groenland sur les 100 000 dernières années. YD est la dernière période froide, le Younger Dryas et B/A la période chaude Bolling-Allerod. L’enregistrement est ponctué de pics, les événements chauds de Dansgaard-Oeschger (seuls les numéros pairs sont marqués pour ne pas encombrer la figure). Les bandes grisées représentent quelques-uns des événements de Heinrich, ceux qui ont pu être reliés aux débâcles d’icebergs de la baie d’Hudson. L’unité de temps [ka] est le millier d’années avant le présent (pris en 1950). Données North Grip : National Climatic Data Center, NOAA.

1) Événements de Heinrich Les événements de Heinrich pourraient obéir au scénario suivant proposé par Mac Ayeal (1993). L’échelle de temps entre deux événements de Heinrich typiquement 7 000 ans est expliquée ainsi : initialement la calotte de la Laurentide est mince, puis elle augmente par accumulation de neige en surface (aujourd’hui les précipitations au Groenland sont de 0,25 m par an en équivalent glace). Mais il existe un flux géothermique à la base de la calotte (0,05 W m–2 aujourd’hui). L’idée est que cette calotte va grossir tant que la température au contact avec la roche reste inférieure à la température de fusion de la glace, 0 °C. C’est un problème de diffusion de la chaleur dans la glace. Lorsque la température de fusion est atteinte, la base de la calotte est liquide et le frottement réduit. La calotte se met à glisser et les parties basses de la baie d’Hudson se vident dans l’océan. Cette phase de purge est rapide comparée à la croissance de la calotte qui fixe l’échelle de temps long. L’effet d’une addition d’eau douce continentale dans les régions subpolaires de l’Atlantique nord rappelle le cas du Younger Dryas déjà mentionné et l’instabilité de la circulation thermohaline déjà étudiée. Elle réduit la densité des eaux de surface dans les régions subpolaires et la circulation. Moins de sel est transporté vers le nord : la circulation océanique est encore affaiblie et la perturbation négative initiale est amplifiée.

477

Une introduction à la dynamique des océans et du climat

2) Événements de Dansgaard-Oeschger Les événements DO en revanche ne semblent pas associés à des injections de glace continentale (ce sont des non-Heinrich). Leur échelle de temps est typiquement le temps d’ajustement de la circulation thermohaline et une cause possible de ces oscillations vient de la modification de la circulation océanique. En suivant Stommel (1961), l’idée de Broecker a été que la circulation thermohaline devait osciller entre un mode ON (climat chaud) et un mode OFF (climat froid) sous l’effet d’injection d’eau douce (débâcles d’icebergs ou précipitations anormales). Des oscillations autonomes de la circulation océanique (sous forçages constants) ont été proposées pour rendre compte de ces événements DO, mais toute la difficulté n’est pas tant de fabriquer un oscillateur que de savoir pourquoi cet oscillateur fonctionnerait lors des périodes glaciaires et s’arrêterait pendant l’Holocène actuel. L’une des hypothèses sur laquelle notre groupe a travaillé est que la stratification océanique de l’Atlantique nord était plus faible en régime glaciaire. Sur la figure de CLIMAP, la SST a clairement diminué alors que la température des eaux de fond n’a pas dû beaucoup changer (son refroidissement est limité par la température de congélation de l’eau de mer) et donc la stratification thermique a dû diminuer. Diverses expériences numériques dans des modèles variés ont montré que la circulation océanique était effectivement plus instable quand la stratification était affaiblie. L’instabilité prend la forme d’une catastrophe, une grande variation des effets pour une toute petite variation des causes qui se produit à une bifurcation du système pour une valeur critique d’un paramètre (par exemple la précipitation). En dessous de cette précipitation critique, le climat est stable mais juste au-dessus la circulation océanique s’écroule et le climat devient froid. Arzel et al. (2010) utilisent un modèle couplé océan-glace-atmosphère qui représente un secteur sphérique typiquement l’Atlantique nord avec une dynamique géostrophique très bien adaptée aux basses résolutions spatiales et aux simulations très longues de 100 000 ans qui sont requises ici. Le modèle d’atmosphère est un modèle EBM (forçage radiatif et flux diffusifs sur l’horizontal). On peut jouer sur l’absorption aS (≤ 1) de l’atmosphère et sur la surface des calottes polaires pris comme paramètres de contrôle pour placer le climat de ce modèle océan - glace de mer - atmosphère dans un régime chaud (ou froid) en augmentant (ou diminuant) la valeur de aS comme expliqué au § 4-2-2. Une série de simulations a alors été faite pour différentes valeurs du forçage E-P. Lorsque le forçage hydrologique est faible, le modèle converge vers une solution stable indépendante du temps. Pour une valeur critique de E-P, une bifurcation apparaît pour donner naissance aux oscillations millénaires de la figure 4-6-14. Le scénario d’une oscillation est le suivant : le climat est chaud, la circulation (THC) est ON, la différence équateur-pôle de la température est grande, celle de la salinité est très faible et donc le gradient de pression méridien est dominé par la température. On voit que la différence de salinité se construit en s’opposant à la température et la différence de densité diminue entre les basses et les hautes latitudes. La THC diminue, amplifie la différence de salinité (le feedback transport de sel et THC devient dominant) et elle finit par s’écrouler (le mode OFF), le climat devient froid et plus rien ne bouge. Mais maintenant le fond de l’océan n’est plus alimenté par les eaux froides venues du pôle, car il y a une barrière d’eau douce en surface qui le

478

4. Dynamique du climat

protège. Il ne peut donc se réchauffer que par diffusion turbulente de chaleur provenant des basses latitudes. Cela prend beaucoup de temps car le mélange turbulent est faible dans l’océan, mais à un moment les eaux profondes vont être plus chaudes, donc moins denses que les eaux de surface. La convection se déclenche brutalement d’abord au nord libérant toute la chaleur stockée pendant quelques siècles dans l’océan profond. Les eaux profondes se refroidissent, le gradient de pression méridien se reconstruit avec la différence de température et la circulation repart. Avec la forte circulation, les différences de salinité sont gommées. On notera la forme caractéristique du signal carré vu sur la température de surface (a et b) et la circulation méridienne (f ) avec ce réchauffement très rapide (avec overshoot) quand la circulation océanique redémarre, le retour à un état quasi stable avec un refroidissement lent, puis l’écroulement final de la circulation qui se produit comme une instabilité. Le réchauffement rapide et le refroidissement graduel vus aux hautes latitudes sur la figure 4-6-14 (a) sont en assez bon accord avec l’observation du δ18OGLACE en particulier pour les DO no 12, 14 et 20 de la figure 4-6-13.

Figure 4-6-14 Cinq oscillations millénaires d’un modèle de climat glaciaire : a) Température de l’air en surface aux hautes latitudes (80 °N). b) Température de surface moyenne de l’air. c) Température moyenne de l’océan. d) Salinité aux latitudes équatoriales. e) Salinité aux hautes latitudes (80 °N). f) Maximum de transport de la circulation océanique méridienne. Les droites en pointillé indiquent le régime du climat stable tout proche de la bifurcation. Source : Arzel et al. (2010).

479

Une introduction à la dynamique des océans et du climat

La figure 4-6-15 illustre ce que devient le transport méridien de la circulation océanique MOC (Meridional Overturning Circulation) lorsque l’on refroidit lentement le climat du modèle numérique en diminuant l’absorption du rayonnement et en augmentant la surface des calottes polaires sur une période de 100 000 ans :

 Figure 4-6-15  Des oscillations millénaires apparaissent spontanément sur le transport méridien de la circulation océanique lorsque le climat devient suffisamment froid dans un modèle couplé glaces de mer-océan-atmosphère, issu de Arzel et al. (2010).

La figure montre clairement la bifurcation d’une circulation océanique stable vers un régime d’oscillations millénaires lorsque le climat devient assez froid (oscillations millénaires alors du type de celles de la figure 4-6-14). Ces oscillations finissent également par disparaître si le climat est trop froid. Ces oscillations millénaires de la circulation océanique apparaissent dans des modèles dynamiques encore plus simples que celui décrit ci-dessus avec seulement quelques variables température et salinité en interaction. Ce type d’études soutient l’hypothèse que les événements millénaires des derniers 100 000 ans sont dus à la faiblesse de la stratification océanique dans un climat froid et donc à la relative faiblesse du flux de chaleur méridien océanique par rapport à l’époque moderne. Tester si ce mécanisme est compatible avec les observations reste compliqué car les données paléo ne donnent pas les transports d’eau ou de chaleur mais plutôt des indices déduits des propriétés des eaux de surface et de fond. D’autres hypothèses sur les causes des changements abrupts de climat comme le forçage stochastique sont discutées par Kageyama et al. (2013) et Lynch-Stieglitz (2017).

480

4. Dynamique du climat

4.6.6

L’évolution du dernier siècle ou le temps de l’homme

4.6.6.1

Introduction

Le climat à l’échelle d’une vie est constitué d’une variété d’échelles d’espaces et de temps (cycle diurne, variabilité saisonnière, interannuelle à multi-décennale). Un changement du climat implique un changement de la moyenne et de la variabilité persistant pendant assez longtemps. Si on observe une variabilité avec une certaine amplitude sur une période de deux ans (elle existe dans l’atmosphère tropicale), un changement systématique de cette amplitude requiert de l’observer sur peut-être une dizaine de périodes. On voit tout de suite la difficulté de l’entreprise pour les échelles longues du décennal au multi-décennal pour lesquelles l’enregistrement nécessaire n’est juste pas disponible. En pratique on est limité à étudier la période dite instrumentale de 1850 à aujourd’hui. La difficulté de déceler un réchauffement climatique est difficile, car l’on cherche un tout petit signal de l’ordre du degré par siècle au milieu de changements de températures d’un jour à l’autre ou d’une saison à l’autre beaucoup plus grands. S’assurer que l’instrument de mesure ne dérive pas sur des périodes de plus d’un siècle est difficile. Un thermomètre terrestre isolé en 1860 (au début des mesures) peut se retrouver au milieu d’une grande ville un siècle plus tard créant un réchauffement parasite dû à l’urbanisation. Il faut donc éliminer ces observations. On conviendra en revanche que les observations des marégraphes présentées dans la Partie 1 montrent très facilement l’augmentation séculaire du niveau de la mer qu’on ne peut guère expliquer autrement qu’au travers d’une combinaison de réchauffement de l’océan et d’une fonte des glaces. Les glaciers sont aussi de bons indicateurs locaux du réchauffement climatique, car ils intègrent naturellement les changements de température et de précipitations. En Autriche, la longueur des glaciers est documentée depuis près de 400 ans et le recul sur le dernier siècle est significatif (les glaciers de Grindelwald, de Hintereisferner, tout comme le glacier d’Argentières en France). Le rapport de l’IPCC de 2007 (Fourth Assessment Report, AR4) de Le Treut, Somerville et al., et le livre de Houghton (2012), fournissent une synthèse et les références spécialisées importantes de ce que l’on appelle Climate Change Science. Une des questions fondamentales est évidemment de savoir si la variabilité observée du système « océan + atmosphère + glace » est forcée de l’extérieur ou due à des mécanismes internes. L’extérieur comprend ici le Soleil, les éruptions volcaniques et bien sûr les activités humaines. Juste un mot sur le Soleil : le cycle de 11 ans des tâches solaires est connu depuis longtemps, mais ce n’est que depuis une trentaine d’années que des satellites dédiés ont pu mesurer le flux associé aux éruptions solaires associées à ces tâches. L’amplitude du flux solaire du cycle de 11 ans ∆S0 est de l’ordre de ± 1 W m–2. En découle, comme cela a été vu, une variabilité du forçage au sommet de l’atmosphère de ∆S0(1 − α) / 4 ≈ ±1 x 0, 7 / 4 = ± 0,17 W m -2, un forçage radiatif qui apparaît d’un ordre de grandeur plus faible que ceux actuels des gaz à effets de serre et aérosols (Tableau 4-10). Sur le dernier millier d’années,

481

Une introduction à la dynamique des océans et du climat

les variations du forçage solaire et la datation des éruptions volcaniques ne sont pas connues directement et demandent des archives paléo, un champ d’investigation important si on veut étudier l’optimum climatique médiéval ~ 950-1250 ou le petit âge glaciaire ~ 1450-1850 (voir Masson-Delmotte et al., 2013).

4.6.6.2

L’observation du CO2

La courbe du CO2 à Mauna-Loa qui vient étendre celle de Keeling et al. (1976) est présentée sur la figure 4-6-16. Comme la concentration du CO2 est quasi homogène dans l’atmosphère, la courbe offre un caractère global.

 Figure 4-6-16  (a) La moyenne globale de la concentration du CO2 en ppm (fraction air sec) à résolution mensuelle de Scripps Institution of Oceanography (SIO). Les mesures proviennent de Mauna-Loa (Hawaii), de la station du pôle Sud et de NOAA/ESRL/GMD à résolution quasi hebdomadaire. Le cycle saisonnier des données SIO a été enlevé mais les données mensuelles montrent les variations saisonnières. (b) Le taux de croissance instantanée de la moyenne globale du CO2 est calculé avec la dérivée après filtrage du cycle saisonnier (Dlugokencky et al., 1994). Source : figure 2-1 de Hartmann et al. (2013), Observations Atmosphere and Surface in Climate Change 2013, IPCC report.

Les seules variations visibles sont le cycle saisonnier qui reflètent les variations de production biologique selon la saison. Pour estimer la tendance à long terme de l’augmentation du CO2, le cycle saisonnier doit être filtré : une méthode classique est de faire la moyenne de tous les mois de janvier, puis de retrancher cette moyenne de janvier à tous les mois de janvier du signal original – puis de faire cela pour tous les mois de l’année. Une fois ce cycle saisonnier enlevé, il suffit de calculer la dérivée pour trouver de combien augmente le CO2 en un an. La courbe du bas sur la figure 4-6-16 indique que l’augmentation était O(1 ppm/an) dans

482

4. Dynamique du climat

les années 1970 mais a depuis doublé pour les années récentes. On conclut à une accélération de l’augmentation du CO2 dans l’atmosphère. On peut compléter ce signal dans le passé à l’aide des carottes de glace des calottes polaires et à l’aube de la révolution industrielle (1750) le niveau de CO2 était de 280 ppm, soit le niveau des interglaciaires du Quaternaire (voir figure 4-6-2). Il n’a quasiment pas bougé sur tout l’Holocène. Ci-dessous est reproduit le schéma du cycle du carbone rassemblé par l’IPCC en 2013 qui est une version plus détaillée de la figure 4-4-1.

 Figure 4-6-17  Les stocks de carbone (PgC) et flux de carbone (PgC an–1). Les chiffres en noir représentent les valeurs pré-industrielles (autour de 1750). Les chiffres en rouge représentent la moyenne des flux anthropiques sur la période 2000 à 2009. Le symbole ± donne une estimation des erreurs. Pour comparaison avec la figure 4-4-1, notez que 1 PgC = 1 GtC. Les inventaires atmosphériques ont été calculés avec la conversion 2,12 PgC par ppm (Prather et al. 2012). Source : figure 6-1 de Ciais et al. (2013), Carbon and other geochemical cycles in Climate Change (2013), IPCC report.

483

Une introduction à la dynamique des océans et du climat

Il y a beaucoup d’informations sur la figure 4-6-17 que le lecteur pourra consulter en référence au § 4.4, mais on ne va discuter ici que des éléments du bilan global atmosphérique ici moyenné sur la période 2000 à 2009. Notez tout d’abord que les flux nets entre réservoirs apparaissent comme de petites différences entre des flux entrants et sortants beaucoup plus grands résumant la difficulté du sujet. Le flux de carbone ajouté dans l’atmosphère est d’environ 4 GtC an–1, seulement la moitié du flux des émissions anthropiques qui est lui composé de deux fractions, le carbone issu de la consommation des hydrocarbures fossiles et de la production de ciment pour +7,8 GtC an–1 et le carbone issu de la déforestation et du développement agricole estimée à +1,1 GtC an–1, soit un total de 8,9 GtC an–1 en moyenne sur cette période. On a vu que le puits océanique pouvait être mesuré, ici – 2,3 GtC an–1. Le flux X de la biosphère terrestre (autre que le changement d’usage des sols) est difficile à estimer mais peut se retrouver par différence : 4 = 7,8 + 1,1 – 2,3 + X, soit X = – 2,6 GtC an–1 L’océan et la biosphère terrestre apparaissent comme deux puits de carbone d’efficacité comparable pour soustraire 50 % des émissions anthropiques. On voit sur la figure que les erreurs sur le flux océanique atteignent 30 % et les erreurs sur le flux terrestre pas loin de 50 % voire même 100 % pour le changement d’usage des sols (qui cumule la déforestation des forêts tropicales et la recolonisation de surfaces agricoles par la végétation, l’Est des États-Unis par exemple). Même si les erreurs sur ces flux sont grandes, la biosphère terrestre apparaît néanmoins comme un puits net. Quand le CO2 augmente dans l’atmosphère, on a vu que l’océan peut absorber plus de carbone grâce à sa fenêtre de communication aux hautes latitudes dans les régions de formations de masses d’eaux pour le stocker en profondeur, mais ce faisant l’océan devient aussi plus acide en consommant l’ion carbonate avec son effet néfaste sur la dissolution accrue du carbonate de calcium des organismes. Vu son importance, le puits terrestre appelle aussi un commentaire. Alors que la déforestation peut être estimée à partir d’images satellites, les variations du carbone stocké sur Terre qui se retrouve essentiellement dans le sol (plus que dans les arbres – voir figure 4-6-17) sont difficiles à quantifier. La distribution spatiale est de petite échelle de sorte que l’obtention d’une moyenne globale significative demande beaucoup de mesures. Des expériences ponctuelles ont été réalisées pour déterminer le carbone capté par une région en mesurant la différence entre les transports de CO2 par le vent entrant et sortant de ladite région. Faute de déterminations directes en nombre suffisant, ce puits terrestre est ainsi souvent qualifié de puits manquant. Pour autant, les raisons expliquant pourquoi la surface terrestre peut prendre une part importante du carbone ajouté dans l’atmosphère par les émissions industrielles ne manquent pas : 1) la saison de croissance des plantes augmente avec le réchauffement du climat ; 2) l’augmentation du CO2 favorise aussi les plantes à croître plus rapidement, un processus appelé fertilisation du CO2.

484

4. Dynamique du climat

À l’inverse, la dégradation (reminéralisation) de la matière organique est aussi plus rapide avec une température plus élevée (les frigidaires ont été inventés pour cette raison). Ainsi il y a peu de carbone organique dans le sol des régions tropicales et beaucoup plus aux hautes latitudes. Ce processus conduit cependant à une évolution opposée aux deux précédentes : un climat plus chaud affaiblira la capacité du sol à stocker le carbone organique et de puits la surface terrestre deviendra source, en particulier lorsque les 1 700 GtC de pergélisol (permafrost) de la figure 4-6-17 commenceront à se libérer. On trouvera une revue détaillée de l’estimation des différents termes du bilan de carbone dans les articles de Le Quéré et al. (2009 et 2014) et dans le chapitre 6 de Ciais, et al. (2013) du rapport de l’IPCC.

4.6.6.3

La croissance du CO2 est-elle due aux activités humaines ?

Comme le flux de carbone causé par les émissions anthropiques est d’un ordre de grandeur plus petit que les flux de carbone échangés entre l’atmosphère et la biosphère terrestre ou ceux échangés entre l’atmosphère et l’océan, comment peuton attribuer la croissance du dioxyde de carbone de l’atmosphère aux activités humaines ? Trois arguments au moins permettent d’y répondre. 1) Si on regarde sur un demi-siècle, de 1960 à 2010, la croissance du CO2 dans l’atmosphère a augmenté de 1,0 ppm/an en 1960 à [1,5 à 2] ppm/an aujourd’hui. Mais si les produits des émissions humaines se retrouvaient intégralement dans l’atmosphère (et on peut les calculer assez précisément à partir des extractions minières), la croissance du CO2 aurait dû augmenter de 1,2 à 3,5 ppm/an sur la même période. On voit que l’évolution observée suit assez bien les injections humaines, avec une évolution heureusement plus faible d’un facteur 2 à cause des puits déjà évoqués. 2) Un deuxième argument vient de l’analyse des isotopes du carbone dans l’atmosphère. Le carbone 14 (élément 14 12 C) est produit dans l’atmosphère sous l’effet des rayonnements cosmiques. Il est radioactif et se transforme en azote en émet− 14 tant un électron avec un temps de demi-vie de 5 700 ans : 14 12 C → 11 N + e (on l’utilise d’ailleurs aussi comme traceur de la circulation profonde océanique sur la figure 3-5-2). Évidemment des plantes enterrées il y a des millions d’années (et devenues du pétrole) n’ont plus de carbone 14. On peut alors montrer que le carbone ajouté dans l’atmosphère est justement relativement pauvre en carbone 14, alors que si les échanges avec les plantes actuelles ou la couche de mélange océanique dominaient, on s’attendrait à voir apparaître un carbone plus riche en carbone 14 (car juste plus récent). 3) Évidemment l’observation du CO2 atmosphérique des derniers 10 000 ans dans les carottes de glace est très convaincante : le stock atmosphérique est resté quasi constant avec grosso modo le même climat interglaciaire et ce n’est que dans les 200 dernières années que la concentration s’est envolée avec la révolution industrielle.

485

Une introduction à la dynamique des océans et du climat

4.6.6.4

La température de surface de l’air

C’est la variable dont tout le monde parle mais la moyenne annuelle globale de la température de surface est évidemment beaucoup plus difficile à déterminer que celle du CO2 compte tenu de ses variations spatiales et temporelles sur le cycle diurne, saisonnier et le chaos du temps qu’il fait.

 Figure 4-6-18  Moyenne annuelle globale de la température de surface de l’air relative à la moyenne 1961-1990 des dernières versions de 4 ensembles de données (Berkeley, CRUTEM, GHCN, et GISS). Source : figure 2-14 de Hartmann et al. (2013), Observations Atmosphere and Surface in Climate Change (2013), IPCC report.

La figure 4-6-18 montre un réchauffement de la température de surface de la Terre d’environ 1 °C sur cette période. Les estimations satellitaires sont beaucoup plus récentes mais ont l’avantage de pouvoir moyenner spatialement le signal avec plus d’observations. Depuis le début des années 1980, une croissance de 0,5 °C apparaît. Les méthodes différentes utilisées convergent sur des variations à long terme et des tendances assez concordantes. Sur les 150 ans de la période instrumentale, la température moyenne sur les continents a augmenté de 1,5 °C. Sur la période 1901-1950, la tendance était de +0,1 °C par décennie et sur la période 1979-2012, elle est montée à +0,25 °C par décennie. Le défi de mesurer la SST sur les océans est immense, mais la situation a commencé à s’améliorer dans les années 1980. Au départ les données de mesure étaient celles des bateaux et il n’y avait donc pas beaucoup de données en dehors des grandes routes maritimes. De plus les mesures des températures étaient biaisées froides à cause de l’évaporation dans des seaux de toile ou de bois sur le pont des bateaux et des méthodes de correction de ce biais ont dû être apportées. Puis les données de bouées dérivantes dédiées n’ont fait que croître depuis les années 1980. Depuis 2005, un échantillonnage fin est fait par le réseau des flotteurs Argo (le programme

486

4. Dynamique du climat

nominal d’Argo est de faire 3 000 mesures de l’océan mondial tous les 10 jours). La moyenne globale de ces SST est donnée sur la figure ci-dessous.

 Figure 4-6-19  Moyenne annuelle globale de la SST (trait plein) et de la température nocturne de l’air sur l’océan mondial (pointillé) relativement à la moyenne 1961-1990. Climatologies HadSST2 et son successeur HadSST3, données brutes SST de l’archive ICOADS v2.5, températures nocturnes de l’air HadNMAT2 (Kent et al., 2013). Les données de SST de HadSST et HadSST3 proviennent des données ICOADS mais diffèrent dans leur degré de correction du biais. Source : figure 2-16 de Hartmann et al., 2013, Observations Atmosphere and Surface in Climate Change 2013, IPCC report.

Sur le siècle et demi, l’augmentation de la SST est de 0,8 °C avec une tendance de +0,1 °C par décennie sur la période 1901-1950 puis +0,12 °C par décennie sur la période suivante. Si on combine mesures sur terre et sur mer, on observe ainsi un réchauffement global de 0,85 °C sur la période 1880-2012. Au-delà de ces moyennes globales, les tendances régionales au réchauffement ont été également déterminées, une tâche plus complexe puisque moins de données sont disponibles pour faire la moyenne.

4.6.6.5

Le changement dans l’intérieur de l’atmosphère

Les mesures dans l’intérieur de l’atmosphère sont plus récentes. Les enregistrements de radiosondes sur des ballons datent des années 1960 et les premières mesures satellitaires micro-ondes datent de 1978. Ces mesures de radiation (vers le haut) donnent une moyenne en volume de la température atmosphérique, mais des méthodes ont été développées pour séparer la troposphère (les 15 premiers km) de la stratosphère (au-dessus). La température de la stratosphère a diminué avec une tendance de –0,3 °C par décennie sur la période 1958-2012. En revanche elle a

487

Une introduction à la dynamique des océans et du climat

augmenté dans la troposphère avec des tendances plus fortes dans les basses couches +0,15 °C par décennie contre +0,1 °C par décennie plus haut. Cette diminution de la température de la stratosphère est consistante avec un réchauffement global de la planète : le flux solaire incident ne change pas mais le flux infrarouge émis au sommet de l’atmosphère diminue et la Terre se réchauffe finalement en diminuant ses pertes. Si la température augmente dans la troposphère, la vapeur d’eau doit aussi augmenter compte tenu de la forte croissance de la pression partielle de vapeur d’eau avec la température. Mais il est plus difficile d’affirmer des tendances claires pour la précipitation (sur Terre). Le problème provient de la nature intermittente des événements de pluie avec des durées de la dizaine de minutes à la journée sur des structures spatiales de quelques km à quelques centaines de km. Pour obtenir une moyenne fiable, il faut une couverture spatiale fine et l’hémisphère nord qui possède plus de stations météorologiques est le plus favorisé. Aux latitudes supérieures à 30 °N, une augmentation des précipitations est clairement décelée. Globalement sur la Terre, la tendance est positive sur la période 1901-2008, mais négative sur la période 1951-2008 avec de grandes barres d’erreur. Les précipitations sur les océans étaient réduites aux observations sur les routes de navires, mais comme on le verra plus loin, les nombreuses observations de salinité par flotteurs autonomes s’avèrent être un excellent évapo-pluviomètre, intégrateur du changement climatique. Qu’en est-il de la circulation atmosphérique ? On peut dire sans ambages qu’il est beaucoup plus difficile de déceler l’influence du changement climatique pour au moins deux raisons : (i) le vent dépend des gradients de pression et de température et il est forcément plus difficile d’estimer une différence de deux signaux bruités (une dérivée) qu’une somme (une moyenne) ; (ii) l’atmosphère est animée par des modes de variabilité souvent couplés avec l’océan dont les indices varient sur des échelles de temps longues de l’interannuel au multi-décennal, North Atlantic Oscillation (NAO), Multidecadal Atlantic Oscillation (AMO), Pacific Decadal Oscillation (PDO), Pacific North America Atmospheric Teleconnections (PNA), El Nino-Southern Oscillation (ENSO) et les modes annulaires de l’hémisphère nord (NAM) et sud (SAM). Comme l’atmosphère elle-même est un oscillateur rapide (quelques mois au plus pour la plupart des phénomènes), les longues échelles de temps de ces modes impliquent un couplage de l’atmosphère avec l’océan, l’oscillateur lent du système climatique. L’influence du changement climatique sur ces modes couplés est un sujet de recherche émergent. On présentera brièvement la signature de ces modes de variabilité dans la section 4-7.

4.6.6.6

Le changement dans l’océan

(i) Température Au début des années 1970, l’Xbt (Expendable Bathythermograph) a commencé à être utilisé systématiquement pour mesurer les 700 premiers mètres. Une thermistance placée dans un lest profilé est attachée par un fil conducteur très fin au récepteur sur le bateau. La sonde plonge librement et transmet (par le fil) la température en

488

4. Dynamique du climat

fonction de la profondeur au navire en route. Les flotteurs autonomes Argo qui dérivent librement dans l’océan fournissent aujourd’hui une grande quantité de profils de 0 à 2 000 m. La figure 4-6-20 illustre l’évolution sur les cinquante dernières années.

 Figure 4-6-20  a) La tendance de la température moyennée sur la profondeur de 0 à 700 m en °C par décennie sur la période 1971-2010 (contour gris en °C par décennie). b) La même tendance moyennée zonalement en fonction de la latitude et de la profondeur. La température moyenne est indiquée par les contours noirs en °C. c) L’anomalie de température globale en fonction de la profondeur et du temps relative à la moyenne sur la période 1971-2010. d) La différence de la température moyennée globalement entre 0 et 200 m de profondeur (en noir la moyenne annuelle, rouge la moyenne sur 5 ans). Les figures résultent d’une mise à jour de l’analyse annuelle de Levitus et al. (2009). Source : figure 3.1 de Rhein et al. (2013) : Observations : Oceans in Climate Change (2013), IPCC report.

489

Une introduction à la dynamique des océans et du climat

Le réchauffement des couches océaniques est visible partout. Il est particulièrement marqué dans l’hémisphère nord entre 25 °N et 65 °N jusqu’à la profondeur maximale sur la figure b. Cela correspond à un déplacement vers le pôle du champ de température moyen. Une comparaison des données Argo avec l’expédition du Challenger des années 1870 montre que ce réchauffement a démarré encore plus tôt et était aussi plus fort sur l’Atlantique que sur le Pacifique comme sur la période moderne (Roemmich et al. 2012). Finalement la figure d montre que la différence de température entre la surface et 200 m a augmenté de 0,25 °C sur la période, une augmentation nette de la stratification visible partout au nord de 40 °S. Cette observation est assez compréhensible car si on réchauffe un fluide par-dessus, la couche devient plus légère et reste au-dessus (à salinité constante). La chaleur ne va pénétrer en dessous que par diffusion turbulente. Le réchauffement peut aussi s’analyser en termes de contenu de chaleur (Upper Ocean Heat Content) : UOHC = ∫∫∫ ρC p Tdxdydz où l’intégrale verticale est sur la couche 0-700 m et l’intégrale horizontale sur l’océan global. Cp désigne la chaleur spécifique à pression constante = 4 200 J kg–1 °C–1. On peut aussi alors en déduire le flux de chaleur net F par le taux de changement de UOHC sur la période de 40 ans bien échantillonnée de 1971 à 2010  F = ∆ (UOHC) / ∆t . Les estimations de différents auteurs vont de 74 à 137 TW (1 terrawatt = 1012 W). La valeur intermédiaire de Levitus et al. (2012) est de 118 TW. Si on divise cela par la surface océanique, on obtient l’excès du flux de chaleur moyen reçu par l’océan à l’interface air-mer soit 118 1012 / 3,6 1014 ≈ 0,33 W m–2. La contribution de l’océan profond est plus récente (l’expérience WOCE des années 1990 et les flotteurs Argo depuis 2000). Quand on calcule ce flux de chaleur F sur la période 1993-2010 et sur 0-2 000 m, on trouve F = 257 TW (0,7 W m–2) et donc un peu plus du double que la valeur précédente. Le déséquilibre énergétique de la figure 4-2-1 se trouve essentiellement dans ce compartiment du système climatique (les contributions de la glace et de la terre solide sont beaucoup plus petites). Bien que l’on soit incapable de mesurer les flux air-mer en un point avec des erreurs inférieures à 10 ou 20 W m–2, on réussit avec ces observations de l’intérieur de l’océan à estimer la valeur moyenne de ces flux, d’un ordre de grandeur plus petite que l’erreur locale. (ii) Salinité La forte corrélation déjà notée entre la salinité de surface et le forçage E-P est illustrée sur les figures 4-6-21 (a) et (b) pour la période de 1950 à 2000.

490

4. Dynamique du climat

 Figure 4-6-21  a) La salinité moyenne sur la période 1955-2005 (WOA 2009, Antonov et al. 2010), intervalle de contour 0,5. b) L’évaporation moins la précipitation sur la période 1950-2000 (NCEP), intervalle de contour 0,5 m/an. c) Le changement de salinité de surface SSS (2008-moins 1950), cycle saisonnier et les signaux ENSO enlevés, intervalle de contour noir 0,116, Durack-Wijffels (2010). d) La différence de salinité de 30 ans calculée comme la différence entre la moyenne 2003-2007 et la moyenne sur 1960-1989, Hosoda et al. (2009). Les calculs n’ont pas été faits sur les régions blanches. Les changements non significatifs à 99 % sont grisés. Source : figure 3.4 de Rhein et al. (2013) : Observations : Oceans in Climate Change (2013), IPCC report.

On trouve en (c) et (d) deux cartes du changement de salinité sur deux périodes proches (mais pas identiques) issues de deux études indépendantes. On voit des différences de petite échelle entre les deux études, mais les structures de grande échelle sont cohérentes entre elles. Si on compare le changement ∆SSS en (c) avec la moyenne SSS en (a), on s’aperçoit que les deux distributions se ressemblent beaucoup : les zones de forte salinité deviennent plus salées et les zones de faible salinité moins salées. Ainsi l’Atlantique se sale-t-il encore plus par rapport au Pacifique. Compte tenu du lien fort entre cycle hydrologique E-P et salinité, ce résultat indique que sur cette période de 50 ans, le forçage E-P a augmenté en phase. Il est très difficile de déduire ce résultat des mesures de flux eux-mêmes, car les observations sont difficiles et le signal a une structure de petite échelle. En revanche, la salinité est un intégrateur de ces flux E-P et la tendance apparaît directement sur cet évapo-pluviomètre. Si on extrapole ce résultat sur la Terre, on s’attend à ce que la précipitation augmente là où il pleut déjà et que la sécheresse augmente dans les zones déjà arides, ce qui se traduit par « the rich get richer ». Sur cette ligne Durack et al. (2012)

491

Une introduction à la dynamique des océans et du climat

estiment que le cycle hydrologique s’est intensifié de 4 % sur la période de 50 ans. Comme le réchauffement global est de 0,5 °C, ils proposent donc une intensification du cycle hydrologique de 7 % par °C. L’humidité est directement reliée à la pression de vapeur saturante eS et à la température T (sous l’hypothèse d’humidité relative constante) par la relation de Clausius-Clapeyron. Leurs variations sont donc reliées en dérivant l’expression 4-1-6 par rapport à T : dw dw S deS dT = = = 2.354103 ln(10) 2 w wS eS T Pour une augmentation dT = 1 °C de la température moyenne de surface de la Terre T (= 273 + 15°), la relation ci-dessus donne 6,5 %, ce qui est proche de la valeur de Durack et al. (2012). Cette intensification du cycle hydrologique est un résultat majeur issu des observations océaniques. Friedman et al. (2017) font une analyse des salinités rassemblées de 1896 à 2013 sur l’Atlantique nord, une analyse qui montre bien que la salinité des régions subtropicales augmente alors que celle du gyre subpolaire diminue sur la période. Ceci réduit la différence de densité entre les régions subpolaires et subtropicales, donc le gradient de pression donc la circulation méridienne. Mais si la circulation diminue, moins de sel arrive dans les régions subpolaires, etc., l’action du feedback transport de sel discuté au § 4-5-26. La question posée par cette analyse est bien cadrée par l’équation 4-5-5 qui dit que l’augmentation du gradient nord-sud de salinité est consistente avec un forçage E-P hydrologique augmenté en surface et avec un transport de sel réduit sans que l’on puisse décider si l’un d’eux l’emporte. Rappelons que toutes choses égales par ailleurs, l’effet de ce dernier conduit directement à l’écroulement de la circulation thermohaline. En résumé La figure 4-6-22 permet de résumer les changements de température, de salinité et de densité de l’océan mondial entre 1950 et 2000. Cette remarquable figure montre que la salinité et température des 500 premiers mètres de l’Atlantique ont augmenté dans les subtropiques, mais que la densité a diminué (indiquant une dominance de l’effet de la température). La structure de la densité montre une diminution accentuée vers 40 °S et 40 °N. L’effet est similaire dans l’océan Indien sauf au nord où une langue d’eau froide apparaît vers 200-300 m. Comme on l’a déjà vu, le Pacifique s’est réchauffé mais a vu sa salinité diminuer avec comme résultat une diminution de la densité des couches de surface. Les effets dans les couches plus profondes sont évidemment plus faibles mais une tendance au réchauffement et à l’augmentation de salinité est visible en global.

492

4. Dynamique du climat

 Figure 4-6-22  La figure montre en couleur les tendances de 1950 à 2000 des variations des moyennes zonales de salinité (colonne de gauche), densité (au milieu) et température potentielle (à droite) pour les océans Atlantique, Indien, Pacifique et le total de haut en bas. Les contours noirs sont les champs moyens avec les intervalles de contour suivants : salinité contour épais 0,5, fin 0,25, densité neutre contour épais 1 kg m–3, fin 0,25 kg m–3, température potentielle, contour épais 5 oC, fin 2,5 oC. Les tendances sont calculées sur des surfaces isobares, les tendances non significatives à 90 % sont en gris. Source : figure 3.9 de Rhein et al. (2013) : Observations : Oceans in Climate Change (2013), IPCC report.

(iii) L’oxygène L’oxygène rentre dans l’intérieur de l’océan dans les régions de formation de masses d’eaux en contact avec l’atmosphère. La convection hivernale fait plonger ces eaux de surface d’autant plus oxygénées que la solubilité est forte dans les mers froides. Rappelons que l’oxygène n’est pas un traceur conservatif, les termes source moins

493

Une introduction à la dynamique des océans et du climat

puits incluant la photosynthèse en surface et la reminéralisation en profondeur (la situation opposée de celle des sels nutritifs). La section de la figure 1-3 montre des valeurs fortes près de la surface puis un minimum vers 1 000 m causé par cette oxydation de la matière organique puis des valeurs fortes en profondeur qui sont associées au transport des masses d’eau profondes depuis les hautes latitudes. Il existe des mers particulières anoxiques depuis longtemps comme la mer Noire où la précipitation et l’apport des rivières dominent sur l’évaporation. En résulte une stratification stable en densité, une halocline, due aux faibles salinités en surface. À cause des seuils peu profonds, il n’y a pas d’injection directe d’oxygène en profondeur en provenance de la Méditerranée et l’intérieur qui n’est jamais ventilé comporte des concentrations élevées d’hydrogène sulfuré H2S et d’ammonium NH4. La même situation se produit en mer Baltique et dans la fosse de Cariaco au nord du Venezuela. Dans ce dernier cas, la stratification stable est de type thermique mais des seuils empêchent toute oxygénation par l’eau profonde nord-atlantique. Fondamental pour les processus biologiques et bio-géochimiques dans l’océan, il existe quelques causes d’inquiétude concernant la désoxygénation de l’océan mondial d’environ 2 % sur les 50 dernières années.

Figure 4-6-23 A : les régions côtières où la concentration en oxygène est ≤ 61 μmole kg–1 (2 mg l–1). B : le changement en oxygène sur l’océan global exprimé en mol O2 m–2 décennie–1. Source: Breitburg et al. (2018).

La figure 4-6-23 montre ce phénomène tant en plein océan que dans les zones côtières. L’effet en plein océan est directement lié au réchauffement des couches de surface noté ci-dessus. Ceci implique une diminution de la solubilité de O2. Le métabolisme du vivant augmente aussi avec la température, ce qui augmente la consommation d’O2 via la respiration. Mais l’effet le plus important serait l’augmentation de la stratification, créant une barrière plus élevée à franchir pour ventiler l’intérieur depuis la couche de mélange comme dans les régions particulières notées ci-dessus. Des zones de minimum d’oxygène dites OMZ existent dans l’océan lorsque la consommation via la respiration dépasse les apports dus à la ventilation et à la photosynthèse. Le paradoxe est que ces zones comme les upwellings de bord Est sont aussi des zones de pêche très productives, mais évidemment il existe des seuils de concentration à ne pas dépasser. Dans les zones côtières et estuaires, le déclin de l’oxygène est causé par l’apport accru de sels nutritifs et de matières organiques (agriculture, rejets urbains) issus des bassins de drainage qui conduit à une

494

4. Dynamique du climat

augmentation accrue de biomasse et donc de reminéralisation piégeant l’oxygène. L’expansion de ces zones favorise aussi l’apparition d’oxyde nitreux N2O qui est un gaz à effet de serre (tableau 4-2). Les zones complètement anoxiques au fond de la Baltique progressent régulièrement. Le réchauffement, l’acidification et la désoxygénation sont tous liés et forment des stress multiples pour les écosystèmes. La prédiction est que ceux-ci vont se déplacer vers les pôles ou plus en profondeur pour retrouver un environnement plus accommodant (plus froid). La revue récente de Breitburg et al. (2018) fait le tour des conséquences potentielles de ces stress. (iv) Le niveau de la mer Le niveau de la mer est l’une des variables les plus fascinantes de l’océanographie car elle contient la signature d’un très grand nombre de processus qui s’expriment depuis l’échelle de la seconde (les ondes capillaires générées par une cuiller traînée à la surface d’une tasse de thé) à celle de la centaine de milliers d’années (les cycles glaciaires-interglaciaires du dernier million d’années) de la figure 4-6-8, soit un intervalle de plus de 1012 secondes. On a surtout insisté dans la Partie 3 sur les variations spatiales de la hauteur d’eau qui induisent des variations de pression hydrostatique responsables de l’accélération des masses d’eaux. Le paragraphe traite ici des variations temporelles de la moyenne globale du niveau de la mer. Connaître comment le niveau de la mer varie par rapport à une ligne de côte nécessite de préciser quelques notions de géodésie.

z ηD η

Ellipsoïde

g

Géoïde Niveau de la mer

F Plancher océanique

 Figure 4-6-24  Le niveau de la mer η est mesuré par rapport à l’ellipsoïde de référence (tirets) qui sert de référence pour les points terrestres. Le niveau de la mer dynamique ηD est mesuré par rapport au géoïde (pointillé).

À l’aide de la figure 4-6-24, un point terrestre est localisé dans un référentiel terrestre, la position étant définie relativement à un ellipsoïde de référence défini de la façon suivante : son axe de révolution est l’axe de rotation de la Terre, son centre est le centre de masse de la Terre, le grand axe est dans le plan équatorial et le petit axe selon l’axe de rotation (voir figure 2-1-11 du Tome 1 pour les raisons physiques

495

Une introduction à la dynamique des océans et du climat

de ce choix). Pour localiser un point x dans ce référentiel, on trace la normale à l’ellipsoïde en r qui passe par x et la hauteur dite géodésique est (x–r) . n. La latitude géodésique du point x est l’angle entre le plan équatorial et la normale à l’ellipsoïde. Elle diffère de la latitude géocentrique, l’angle entre le plan équatorial et la droite reliant x et le centre de la Terre. Latitude géodésique et latitude géocentrique diffèrent au maximum de 0,2°. La définition de la longitude ne change pas : le plan méridien passe par x et l’axe de rotation coupe le plan équatorial en un point P et la longitude est juste l’angle entre CP et CG, avec C le centre de la Terre et G le point du méridien de Greenwich. Un marégraphe à la côte ou un satellite dans l’espace sont localisés dans ce référentiel terrestre. Le niveau de la mer η est donc la hauteur géodésique mesurée par rapport à cet ellipsoïde. Ses variations sont dues aux vagues, aux marées, à la circulation océanique mais aussi aux mouvements du plancher océanique F. Le niveau de la mer moyen est la moyenne temporelle généralement sur une période de temps T assez longue pour filtrer vagues et marées principales. La profondeur H de la colonne d’eau utilise ce niveau moyen : T

H=

1 η dt − F T ∫0

avec F la hauteur du plancher océanique. Le niveau de la mer global est la moyenne spatiale du niveau de la mer sur le domaine océanique, l’objet de ce paragraphe : η=

1 η dA A∫

avec dA l’élément de surface et A la surface océanique totale. Ce référentiel terrestre est de nature géométrique, mais la dynamique océanique demande une autre surface de référence, le géoïde. Le géoïde est la surface perpendiculaire au vecteur gravité, surface équipotentielle qui est aussi la surface prise par un océan au repos dont la densité ne varierait que sur la verticale. On choisit la surface particulière pour que le volume pris entre le géoïde et le plancher océanique soit égal au volume moyen de l’océan. Parce que la distribution des masses à l’intérieur de la Terre n’est pas homogène, cette surface a des ondulations de l’ordre de la centaine de mètres sur quelques centaines de kilomètres. Ce sont les écarts ηD entre le niveau de la mer et le géoïde G qui définissent le champ de pression susceptible d’accélérer les particules d’eau : ηD = η − G Cette différence est importante pour les observations, mais il faut rappeler que les modèles d’océan utilisent un champ de gravité radial idéalisé et une Terre sphérique de sorte qu’ellipsoïde et géoïde y sont confondus. Revenons aux observations du niveau global qui sont discutées en détail dans la revue de Cazenave et Llovel (2010). La figure 4-6-25 montre une montée générale du niveau de la mer assez significative sur le dernier siècle.

496

4. Dynamique du climat

 Figure 4-6-25  Le niveau de la mer moyen sur tous les marégraphes sur le dernier siècle. Les points sont des moyennes annuelles issues de deux études (Church et al., 2011 et Jevrejeva et al., 2014). Source : W. Llovel.

L’augmentation du niveau de la mer vu par la moyenne sur les marégraphes de tous les ports du monde est très faible jusqu’en 1930 puis elle devient à peu près constante au taux de 1,8 ± 0,3 mm an–1 confirmant l’analyse présentée dans la Partie 1 des ports de Brest et de San Francisco. En prenant en compte les corrections de hauteur du marégraphe lui-même (causées par les mouvements de la croûte terrestre), ces tendances locales reflètent un signal global. Superposées à cette tendance sont aussi visibles des variations sur des échelles de temps plus courtes, interannuelles à multidécennales. Ces dernières ont des signatures régionales fortes, ce sont les variations naturelles de l’océan sur les longues périodes (voir section 4-7). Pour les lecteurs intéressés, en plus du site Web www.psmsl.org déjà mentionné, Wöppelman et al. maintiennent à l’université de La Rochelle un site Web www.sonel.org qui fait partie du Global Sea Level Observing System et permet l’accès direct aux séries marégraphiques et aux données GPS pour les corrections des mouvements terrestres (voir la revue sur le sujet de Wöppelman et Marcos, 2015). Si le niveau monte depuis le siècle dernier, se posent alors plusieurs questions : Depuis quand cela a-t-il commencé ? Le taux de remontée est-il anormal ? Cela va-t-il continuer ? Pourquoi le niveau monte-t-il ?

497

Une introduction à la dynamique des océans et du climat

La première est une question pour la paléoclimatologie et la courbe 4-6-8 indique une stabilité du niveau de la mer pour l’Holocène. Cette figure montre aussi que sur les échelles de 100 000 ans le niveau de la mer (synonyme de volume de glace par l’équation 4-3-6) a pu varier d’une centaine de mètres, soit un taux de variation du niveau de la mer O(1) mm/an. On conclut que les valeurs actuelles sont de l’ordre de ce qui a été observé dans le passé. La troisième est une question pour les modèles de prévision climatique et la dernière, une question de physique, est celle sur laquelle on va s’attarder. Comme il s’agit ici de la hauteur moyenne sur l’horizontale, les causes sont simples : pour faire changer le volume total de l’océan, on peut soit ajouter du liquide dans le bocal « océan » soit changer sa densité ou encore une combinaison des deux. Mais quelle est alors la cause première de ces changements ? La masse ajoutée vient de la variation du bilan hydrologique à l’interface air-mer, évaporation, précipitation et run-off (E-P+R), et de la fonte des glaces continentales (les glaciers de l’Antarctique et du Groenland). L’effet de la fusion de la glace de mer sur le niveau de la mer est faible. En effet lorsqu’un glaçon flotte à la surface d’un verre d’eau, son poids est équilibré par la force d’Archimède (les forces de pression) qui est juste le poids de l’eau déplacée (celle du volume immergé du glaçon). Lorsque la glace fond, son poids se conserve et le niveau ne bouge pas. Cette analogie est toutefois trompeuse car si la glace de mer est essentiellement composée d’eau douce, sa fonte diminue la salinité de l’eau de mer, et donc la densité diminue. Pour changer la densité, il faut que la température et/ou la salinité varient, mais comme il s’agit de moyennes globales, ce sont les quantités de chaleur QNET et du budget hydrologique [E–P+R]NET intégrés sur l’océan global qui interviennent. Un liquide chauffé augmentant son volume (l’expansion thermique), une part de l’augmentation du niveau de la mer dans les ports doit être attribuée au réchauffement global observé par ailleurs. Essayer de relier le niveau de la mer et les forçages juste mentionnés est l’objet de ce paragraphe. Considérons une colonne d’eau de surface unité (les quantités globales seront obtenues en multipliant au final par la surface de l’océan). Le niveau de la mer moyen, par exemple le niveau préindustriel, est défini en z = 0, η est la déviation du niveau de la mer et la colonne d’eau a une profondeur H. Le taux de variation de la masse de cette colonne au cours du temps est : η

d ρdz = F dt −∫H où l’intégrale représente la masse par unité de surface sommée du fond (z = –H) à la surface z = η. F est le forçage en masse en surface en kg m–2 s–1 et les variables η, ρ (et F) dépendent du temps. Pour dériver l’intégrale par rapport au temps, il ne suffit pas de dériver ρ par rapport au temps, il faut faire attention à la borne supérieure η, elle aussi variable (voir formule de Leibniz de l’annexe 1). Le résultat est le suivant : η

dη dρ dz = F ρS + dt −∫H dt

498

4. Dynamique du climat

où ρS est la densité de surface. La variation du niveau de la mer de cette colonne est donc : η



dη dρ F 1 dz + 4-6-1 =− ∫ dt ρS −H dt ρS

Le premier terme à droite dû à la variation de densité est la composante dite stérique de la variation du niveau de la mer, alors que le deuxième est la variation de masse. Pour simplifier la présentation des idées, on va utiliser dans ce qui suit une équation d’état de l’eau de mer linéarisée : ρ = ρ [1 − α(T − T0 ) + β(S − S0 )] avec des valeurs α = 1,7 10–4 °C–1, β = 7,6 10–4, ρ = 1 030 kg m–3, des moyennes représentatives de toute la colonne d’eau (on peut discuter de cette approximation car si β varie peu, il n’en est pas de même de α, voir Annexe 2). En reportant cette relation dans 4-6-1, on obtient :

η η dη ρ  dT dS  F dz − β ∫ dz + 4-6-2 = + α ∫ ρS  −H dt dt dt  ρS −H  

L’équation 4-6-2 permet donc de relier les variations du niveau de la mer aux variations de température, de salinité et au flux de masse ajoutée. C’est assez simple de voir comment un flux de chaleur net à l’interface air-mer influence la température intégrée sur la verticale en intégrant sur la hauteur de la colonne : η

ρC p

dT dz = Q NET dt −H



où QNET est le flux de chaleur au sommet de la colonne d’eau en W m–2 (on a sorti ρ et Cp valeur de l’intégrale au vu de leurs faibles variations sur la verticale et on les a remplacés par leurs valeurs moyennes – on peut prendre Cp ≈ 4,2 103 J kg–1). Il faut maintenant relier les variations de salinité au flux d’eau douce en surface quelle que soit son origine. Ceci a déjà été fait au § 4-3-4, de sorte que l’on peut écrire : η



−H

dS F dz = −S ρ dt

avec S la salinité moyenne de la colonne. On peut alors remplacer ces expressions dans 4-6-2 pour obtenir :

 Q dη F F = + α NET + β S  + 4-6-3 dt ρS  ρS  ρSC p

Le terme entre crochet est l’effet via la densité et le dernier l’effet de la masse ajoutée. L’addition d’un flux d’eau douce F a donc deux effets sur le niveau de la mer, une augmentation via la masse (le dernier terme) et une augmentation due à la

499

Une introduction à la dynamique des océans et du climat

diminution de densité causée par la diminution de salinité (le deuxième). On peut réécrire la relation précédente :

Q dη F 1  4-6-4 = α NET + β S 1 + dt ρSC p ρS  β S 

Le dernier terme 1 / βS ≈ 37 pour une salinité moyenne S = 35 est appelé le multiplicateur de Munk (2003), un terme qui montre directement que l’effet de masse domine largement sur l’effet de densité lors de l’injection d’eau douce. Comme ce sont plutôt les variations de T et de S qui sont observées plutôt que les flux de surface, on peut aussi réécrire 4-6-2 en prenant ρ / ρS ≈ 1: η



η

dη dT dS  1  dz − β ∫ dz 1 + =α∫  4-6-5 dt dt dt S β  −H −H

Avec les relations 4-6-4 ou 4-6-5, on peut discuter quantitativement de l’effet sur le niveau de la mer de la dilation thermique des océans, de l’intensification du cycle hydrologique et de la fonte des calottes polaires. Les observations de la période 1955-2010 analysées par Levitus et al. (2012) montrent un réchauffement de l’océan global : 0,18 °C sur 0-700 m, 0,09 °C sur 0-2 000 m. Le réchauffement est donc fortement intensifié en surface. En dessous de 2 000 m, le signal du réchauffement est plus faible (et les observations moins nombreuses). Le contenu global de chaleur sur la période a augmenté de 24 1022 J. En divisant par le temps et la surface de l’océan mondial, le flux net correspondant de chauffage à l’interface air-mer est de 0,39 W m–2. L’augmentation du niveau de la mer causée par ce réchauffement peut se calculer avec la relation simplifiée 4-6-4, soit 1,7 10–4 °C–1 × 2 000 m × 0,09 °C × 1 000 / 55 ans = 0,55 mm an–1, une valeur proche de celle de Levitus et al. (2012) de 0,54 mm an–1. Sur une période plus courte durant laquelle la température des eaux profondes a été un peu mieux mesurée, 1972-2008, Church et al. (2011) estiment une tendance plus forte de 0,8 mm an–1. Qu’en est-il de la variation globale de la salinité ? On arrive à bien mesurer les tendances de salinité, positives dans les régions d’évaporation, négatives dans les régions de précipitation mais le total pour l’océan global est la différence de deux nombres bruités et donc sujet à caution. Sur la période de 1950 à 2008, Durack et al. (2010) voient une variation de salinité globale de 3 10–3 ‰ avec une erreur de l’ordre de ± 5 10–2 ‰ et on ne peut donc pas dire grand-chose pour l’instant. En revanche, beaucoup d’études se sont penchées sur l’estimation de la perte de glace continentale. Il y a deux méthodes possibles, la méthode du budget de masse (MBM) et la méthode du champ de gravité. La méthode MBM détermine l’accumulation de neige sur la calotte estimée par un modèle atmosphérique régional forcé par une réanalyse issue d’un modèle global. L’ablation (la perte de glace) est obtenue par l’observation des vitesses et des épaisseurs de glace sur le périmètre de la calotte par interférométrie radar satellitaire. L’autre méthode utilise les données gravimétriques du satellite GRACE qui donne directement la masse en fonction du

500

4. Dynamique du climat

temps avec une résolution spatiale de 300 km. Connaissant la masse perdue sur une certaine période, la relation 4-3-6 donne directement la variation du niveau de la mer. La synthèse de Church et al. (2011) donne les contributions suivantes :  Tableau 4-11  L’évolution des glaces sur les 40 dernières années donnée par Church et al. (2011). Tendance en mm an–1 sur 1972-2008

Composante Glaciers

0,67

Calotte du Groenland

0,12

Calotte Antarctique

0,30

Total Glace terrestre

1,09

Les contributions du tableau 4-11 sont donc celles du terme F/ρS des formules 4-6-3 ou 4-6-4. Si on additionne selon Church et al. (2011), l’expansion thermique 0,8 mm an–1 et la fonte des glaces continentales 1,09 mm an–1, on arrive à 1,89 mm an–1, ce qui est en accord avec la tendance des marégraphes. Avec le total de la fonte des glaces terrestres du tableau, on peut alors calculer la variation de salinité qui en résulte :

( )

S dη dS =− dt H dt

FONTE

Ainsi sur 1 an la variation de salinité globale est-elle ∆S = –(35/3 800) × 1,09 10–3 = –1 10–5 ‰. Même sur 100 ans, cela paraît difficile de détecter ce signal global par des mesures de salinité (les instruments ont une précision absolue ~ 5 10–3 ‰). Récemment, Rignot et al. (2011) ont pu comparer avec succès ces deux méthodes d’estimation de pertes de glace continentales (MBM et gravité) et ont pu estimer l’accélération de la perte de glace. En 2006, les calottes du Groenland et de l’Antarctique perdaient de la masse au rythme de –475 ± 158 Gt an–1. Entre 1992 et 2010, Rignot et al. ont pu montrer que ce rythme augmentait, l’accélération étant estimée à –21,9 Gt an–2 au Groenland et –14,5 Gt an–2 en Antarctique pour un total de –36,3 Gt an–2. D’après la relation 4-3-6, c’est l’équivalent d’une accélération de la montée du niveau de la mer +0,1 mm an–2. Entre 2010 et 2050, cela entraîne une augmentation du niveau de la mer de 1/2 × 0,1 × 402 mm ~ 8 cm. Depuis la lancée du satellite Topex-Poseidon en 1992, les mesures altimétriques de la surface de la mer ont permis d’avancer beaucoup plus loin. Le satellite fut lancé par Ariane 4 sur une orbite circulaire (altitude 1 336 km, inclinaison 66o – seules les latitudes inférieures à 66o sont vues par l’instrument). Il y avait deux radars altimétriques, l’un Topex en bande C (5,3 Ghz) et K (13,6 Ghz), l’autre Poséidon seulement en bande K. Les mesures globales du satellite permirent d’échantillonner 95 % de la surface des océans tous les 10 jours jusqu’en 2006.

501

Une introduction à la dynamique des océans et du climat

Les satellites Jason 2 et 3 ont suivi pour offrir une couverture continue depuis lors, permettant l’obtention de la figure 4-6-26.

 Figure 4-6-26  Le niveau de la mer global moyen observé par altimétrie satellitaire de janvier 1993 à décembre 2018 (le cycle saisonnier a été enlevé). Les points sont les données brutes tous les 10 jours et la courbe est une moyenne sur 90 jours. On peut voir des stagnations sur certaines périodes (hiatus). Données AVISO SSALTO/DUACS, source : W. Llovel.

La mesure de niveau est une simple mesure du temps de propagation aller-retour, à la vitesse de la lumière, d’une onde de quelques Ghz de fréquence émise par le satellite et qui se réfléchit sur la surface de la mer. Comme on suit en permanence la position (et donc l’altitude) du satellite par des stations au sol, on connaît la hauteur de la surface de la mer par rapport à l’ellipsoïde de référence. Comme on l’a vu, ce qui est important pour le mouvement n’est pas cette hauteur mais la hauteur par rapport au géoïde. Une façon simple de se débarrasser de la référence au géoïde est de ne considérer que les variations de hauteur altimétriques entre deux instants t1 et t2 ou encore de ne regarder que les anomalies de hauteur par rapport à la moyenne temporelle : η′ALT = ηALT − < ηALT > . Le signal altimétrique qui sert pour la construction de la figure doit également être corrigé de nombreux effets, l’influence de la vapeur d’eau de l’atmosphère sur la vitesse du signal radar, les interactions entre le signal et une surface marine de forme complexe (vagues), le filtrage des marées… Ce n’est qu’après beaucoup d’efforts que la précision de la mesure en un point a réussi à atteindre 1-2 cm, assez faible devant l’amplitude du signal de la circulation océanique. S’il reste des erreurs aléatoires, une moyenne peut les réduire considérablement, ce qui explique que l’on peut extraire une variation globale de

502

4. Dynamique du climat

5 cm sur une quinzaine d’années sur la figure 4-6-26. De fait une vitesse de montée du niveau de la mer de 3,2 mm an–1 est estimée par les mesures satellitaires sur la période 1993-2010 (plusieurs études indépendantes suggèrent une erreur de ± 0,4 mm an–1). Cette valeur plus élevée (par rapport au taux de 1,8 mm an–1 mentionné précédemment) ne semble pas un artefact de l’altimétrie, mais vient plutôt de ce que l’on compare une tendance sur un demi-siècle et une tendance sur une quinzaine d’années. Les marégraphes voient d’ailleurs aussi une accélération sur la période la plus récente. Les variations intrinsèques (naturelles) du climat sur des périodes interannuelles (ENSO) à multidécennales (AMO) contamineront aussi une mesure de tendance faite sur un laps de temps trop court.

4.6.6.7

Le débat sur le réchauffement global

Suffisamment d’éléments ont maintenant été rappelés pour poser un diagnostic sur les causes du réchauffement global. Les observations montrent clairement d’une part une augmentation de ~1,5 °C de la température globale à la surface de la Terre sur la période 1850 à 2010 (figure 4-6-18) à laquelle on peut ajouter l’augmentation du niveau de la mer de ~ 20 cm sur la période 1880 à 2010 échantillonnée par les marégraphes (figure 4-6-25) et d’autre part une augmentation de 388 – 315 = 73 ppm de la concentration en dioxyde de carbone des mois d’août de 1960 à 2010 (figure 4-6-16). Il y a trente ans beaucoup de chercheurs en océanographie s’intéressaient encore assez peu au changement global. Ce sont ces observations qui ont changé les priorités. Tout le débat actuel sur le réchauffement climatique tourne autour de l’interprétation de ces deux observations : peut-on oui ou non attribuer la cause du réchauffement global observé à la croissance observée du dioxyde de carbone dans l’atmosphère ? Le seul regard croisé sur la courbe de température d’une part et celle du CO2 d’autre part permet-il de conclure ? Certes les corrélations entre ces deux variables sont positives mais un climato-sceptique opposera deux arguments : 1) La corrélation peut être due à un choix de la période d’observations et donc le fruit du hasard. Vous pouvez monter un argument probabiliste pour lui dire que vous êtes sûr à 90 % de votre interprétation mais il se précipitera logiquement pour se ranger du côté des 10 % défavorables à votre hypothèse. D’ailleurs il existe bien des périodes de refroidissement, des hiatus, causées par des variations internes sur lesquelles son scepticisme va s’appuyer (on en voit sur la figure 4-6-26 du niveau de la mer). 2) Il y a plein de signaux corrélés entre eux qui échappent à toute causalité. L’augmentation du niveau de la mer et du nombre de téléphones portables vendus par an sont peut-être corrélées positivement, pour autant la causalité ne va pas de soi, encore que. En tous cas une corrélation statistique entre deux variables n’implique pas nécessairement de relation de cause à effet entre ces deux variables. Le débat qui oppose les climato-sceptiques d’un côté et les experts, porte-parole d’un consensus scientifique de l’autre, fait naître un paradoxe. Doute et scepticisme sont en effet des qualités inhérentes à toute démarche scientifique et on ne peut

503

Une introduction à la dynamique des océans et du climat

donc pas reprocher une attitude critique au premier groupe. Le deuxième groupe exprime la position d’une majorité que le réchauffement global est dû aux activités humaines. Ce qui est gênant dans la deuxième attitude est le mot majorité. La science ne fonctionne pas avec des règles démocratiques. Même si 99 scientifiques sur 100 sont d’accord, l’histoire des sciences montre encore et encore que le désaccord d’un seul suffit à tout faire basculer de l’autre côté. Pour sortir de ce paradoxe, le recours à Feynman (1980) s’avère intéressant : « Si quelqu’un vous dit : la Science nous apprend que, il n’emploie pas le mot Science comme il faut. La science ne nous apprend rien : c’est l’expérience qui nous apprend quelque chose. » Malheureusement en sciences du climat, l’idée d’une expérience contrôlée, reproductible afin de mettre tout le monde d’accord sur la part du réchauffement due au CO2 est impossible. L’océan, l’atmosphère, les glaces sont le laboratoire et une expérience climatique est en train de s’y dérouler. Pour construire une argumentation, il faut se recentrer sur l’observation et y ajouter la physique de l’interaction matièrerayonnement, la racine des codes radiatifs présents dans les modèles de climat. Avant de poursuivre, une interrogation fréquente concerne les rôles relatifs de la vapeur d’eau et du CO2 dans l’intensité de l’effet de serre G (la différence entre le flux infrarouge émis par la surface terrestre et celui émis au sommet de l’atmosphère, l’OLR) qui demande de s’arrêter un instant. Lacis et al. (2010) ont calculé G pour une atmosphère standard de température imposée (l’année 1980) en ajoutant successivement l’effet de la vapeur d’eau, des nuages et de chaque gaz à effet de serre (CO2, méthane, etc.) dans le modèle atmosphérique du Goddard Institute. Ils déterminent ainsi après un an de simulation la contribution individuelle au G total faite par chaque constituant (avec sa distribution pour l’année 1980). La vapeur d’eau contribue ainsi pour 50 % du total de l’effet de serre, les nuages pour 25 %, le CO2 pour 20 % et le reste des gaz mineurs et aérosols pour 5 %. Si l’effet de la vapeur d’eau et des nuages domine si clairement dans ce calcul de G à l’équilibre, pourquoi tant se préoccuper de la croissance du CO2 ? Lacis et al. (2010) montrent très simplement son importance en annulant l’effet radiatif des gaz à effets de serre autres que vapeur d’eau dans le modèle atmosphérique. En 1 an, la température globale de surface chute de 4,6 °C pour se stabiliser autour de –20 °C après 10 ans. La vapeur d’eau n’est maintenant plus que 10 % de sa valeur de départ et la Terre est devenue une quasi boule de neige. Sous l’effet d’un petit refroidissement initial, la vapeur d’eau a diminué, son effet de serre a donc diminué, amplifiant le refroidissement initial. Ce feedback positif de la vapeur d’eau est rapide et le premier responsable de ce refroidissement brutal (la surface de la glace de mer augmente et donc le feedback glace-albédo intervient aussi). Alors que les gaz à effets de serre comme le CO2, le méthane, l’oxyde nitreux… agissent comme des forçages radiatifs, la vapeur d’eau est vraiment très spéciale avec son feedback positif qui vient amplifier très rapidement la cause initiale. Ainsi le CO2 agit-il comme le bouton de commande de l’intensité de l’effet de serre en contrôlant vapeur d’eau et nuages. La connaissance de la position de ce bouton de commande devient alors cruciale pour savoir ce qui peut se passer.

504

4. Dynamique du climat

Les codes radiatifs basés sur la loi de Planck et l’identification des bandes d’absorption du CO2 prédisent une augmentation du flux de chaleur global de RFCO2 ≈ 4 W m–2 en réponse à un doublement de la concentration en CO2 (de 280 ppm la période préindustrielle à 560 ppm). Les équations du transfert radiatif et la loi de Planck sont certes des théories, mais des théories très solides car largement validées dans de nombreux contextes, notamment dans celui des observations satellitaires dans l’infrarouge (voir la figure 4-2-9). De combien la température de surface va-t-elle bien pouvoir augmenter sous ce forçage ? Cette question est beaucoup plus difficile que la précédente. Pour y répondre, on soumet le modèle de climat à ce forçage radiatif, les feedbacks importants (comme la vapeur d’eau) se mettent en action et la réponse est fournie par l’état à l’équilibre du modèle qui vient tester de façon critique la représentation de tous les processus dans ledit modèle. La sensibilité du climat est contenue dans une fourchette λ = ∆T2x /RFCO2 ≈ [0,5 1,1] °C par W m–2 fourchette qui traduit la variabilité entre les modèles qui donc peut varier d’un facteur deux. La sensibilité des modèles de climat est importante et provient des feedbacks positifs à l’œuvre dans le modèle, le feedback vapeur d’eau, le feedback glace-albédo pour les principaux (voir § 4.5.2). Cette sensibilité du climat conduit à une fourchette d’augmentation de la température de surface globale ∆T2x = λ • RFCO2 ≈ [2 4,4] °C sous un doublement de CO2. Sous une hypothèse linéaire, l’augmentation observée du CO2 de 73 ppm entre 1960 et 2010, conduit à une augmentation de la température de surface globale ∆TS = ∆T2x • 73/280 soit une fourchette ∆TS ≈ [0,5 1,1] °C, une prédiction qui est en bon accord avec l’observation de la courbe de température de la figure 4-6-18. On conclut qu’une causalité existe bel et bien entre le réchauffement global et la croissance anthropique du CO2. Cette causalité repose sur la bonne compréhension physique de l’interaction matière-rayonnement dans l’atmosphère et les modèles de climat qui utilisent ces codes radiatifs fournissent un ordre de grandeur du réchauffement global entre 1960 et 2010 essentiellement correct. Le rapport de l’IPCC concluait en 2007 : Most of the observed increase in global averaged temperature since the mid 20th century is very likely due to the observed increase in anthropogenic greenhouse gas concentrations.  soit : La plupart de l’augmentation observée de la température en moyenne globale depuis le milieu du xxe siècle est très probablement due à l’augmentation observée de la concentration des gaz à effets de serre d’origine anthropique. L’IPCC formule sa recommandation de façon très intelligente car les résultats en sciences du climat ne peuvent s’exprimer que de facon probabiliste et on ne peut donc pas exclure la possibilité que le réchauffement global observé depuis 1950 ne soit qu’une partie du cycle d’une oscillation interne du climat, une variabilité naturelle, sans aucun lien avec la croissance du CO2. Mais avec l’augmentation continue des observations du climat actuel, la probabilité de cette hypothèse chute régulièrement.

505

Une introduction à la dynamique des océans et du climat

Deux autres paléo-observations permettent une mise en perspective du signal actuel du réchauffement global. Bien que les températures ne soient pas directement observées mais reconstruites à partir de proxys (indices), ces deux exemples soulignent les co-variations qui existent entre température globale et teneur en CO2. 1) Les observations des carottes de glace de l’Holocène récent (les 5 000 dernières années) montrent une teneur en CO2 constante. En parallèle, Mann et de nombreux collaborateurs (2003, 2008) ont reconstruit des séries de la température globale de l’hémisphère nord à partir d’anneaux d’arbres, de sédiments et de carottes de glace :

Figure 4-6-27 La température de l’hémisphère nord sur les derniers deux mille ans. La période instrumentale récente qui démarre vers 1800 montre un réchauffement très net. Les différentes courbes qui remontent jusqu’à 200 ans après J.C. traduisent différentes hypothèses statistiques et la zone jaune est l’intervalle de confiance à 95 %. Les températures sont des anomalies par rapport à la moyenne de la période 1961-1990. Source : Mann et al., 2003.

La courbe de température de la figure 4-6-27 montre l’optimum médiéval des années 800-1400 et le petit âge glaciaire relié traditionnellement au minimum de Maunder, un nombre minimum de taches solaires observées entre 1650 et 1700 mais aussi à des éruptions volcaniques (les hivers les plus froids au centre de l’Angleterre ont été 1683-1684). Lorsque l’on met l’époque moderne des 150 dernières années sur cette échelle millénaire, le réchauffement et la croissance du CO2 actuels sortent du bruit des variations naturelles et paraissent clairement anormaux. 2) Les cycles de 100 000 ans des deux derniers millions d’années du § 4.6.4 sont des transitions fortes entre climats chauds et froids où température globale et teneur en CO2 co-varient. L’explication de ces cycles et de la cause des variations associées du CO2 de 90 ppm (entre creux et pics) restent cependant encore un défi pour les modèles dynamiques et bio-géochimiques. En 1970, Keeling (le chercheur derrière la courbe de croissance du CO2 à Mauna Loa de la figure 1-19) écrivait : If the human race survives into the twenty first century with the vast population increase that now seems inevitable, the people living then, along with their other troubles, may also face the threat of climatic change brought about by an uncontrolled increase in atmospheric CO2 from fossil fuels.

506

4. Dynamique du climat

Soit : Si la race humaine survit au xxie siècle avec la vaste augmentation de population qui semble maintenant inévitable, les gens de cette époque, en plus de leurs autres difficultés, peuvent aussi avoir à faire face à la menace du changement climatique amenée par une augmentation incontrolée du CO2 atmosphérique provenant des émissions de fuels fossiles. On y est.

4.7 La variabilité naturelle du climat aujourd’hui :

de quelques mois à quelques dizaines d’années

Sur les cartes de pression atmosphérique du temps observé quotidiennement aux moyennes latitudes (voir Annexe 3), les dépressions et les anticyclones de l’atmosphère montrent des structures spatiales très variées, parfois seulement quelques lobes de dépressions autour de la Terre parfois beaucoup plus. Par contraste, lorsqu’on moyenne sur un mois (ou sur une saison d’hiver ou d’été) les structures obtenues ne montrent plus qu’un nombre limité de configurations spatiales préférées, configurations qui sont beaucoup mieux marquées en hiver dans l’hémisphère nord. Elles correspondent à des variations du vent zonal en position et intensité. Lorsque le vent zonal des moyennes latitudes est déplacé vers le pôle, il est aussi un peu plus fort que quand il est déplacé vers l’équateur, des variations qui se prolongent sur toute la troposphère. À cause de cette simplification des régimes moyens sur une saison, des efforts considérables sont faits pour connaître leur origine afin de savoir si on pourrait les prédire. Dans les Tropiques le couplage océan-atmosphère fait naître une variabilité interannuelle originale, beaucoup plus facile à observer et à interpréter que celle des moyennes latitudes. Le lien entre les alternances de sécheresses et d’inondations sur chaque bord du Pacifique et les alternances de SST chaude et froide sur le Pacifique central et est est aujourd’hui bien connu. Sous le nom d’ENSO (El Niño-Southern Oscillation), cette instabilité climatique à l’échelle du Pacifique se construit par interaction entre océan et atmosphère. La prévision saisonnière tant dans les tropiques qu’aux moyennes latitudes est l’objet d’un grand effort de recherche puisque la structure de la SST dessine le futur auquel on peut s’attendre avec son lot de catastrophes naturelles et d’impacts forts sur les récoltes, les ressources en eau, les demandes en énergie, le bilan des pêches pour n’en citer que quelques-uns. Ces impacts sont parfois localisés loin des zones de génération des anomalies de SST au travers de ce qui est appelé « téléconnexions », des propagations d’anomalies climatiques par les ondes planétaires atmosphériques. Les illustrations de cette section sont le résultat d’application de méthodes statistiques, corrélation, régression, analyse harmonique, qui sont introduites brièvement dans l’Annexe 4.

507

4. Dynamique du climat

Soit : Si la race humaine survit au xxie siècle avec la vaste augmentation de population qui semble maintenant inévitable, les gens de cette époque, en plus de leurs autres difficultés, peuvent aussi avoir à faire face à la menace du changement climatique amenée par une augmentation incontrolée du CO2 atmosphérique provenant des émissions de fuels fossiles. On y est.

4.7 La variabilité naturelle du climat aujourd’hui :

de quelques mois à quelques dizaines d’années

Sur les cartes de pression atmosphérique du temps observé quotidiennement aux moyennes latitudes (voir Annexe 3), les dépressions et les anticyclones de l’atmosphère montrent des structures spatiales très variées, parfois seulement quelques lobes de dépressions autour de la Terre parfois beaucoup plus. Par contraste, lorsqu’on moyenne sur un mois (ou sur une saison d’hiver ou d’été) les structures obtenues ne montrent plus qu’un nombre limité de configurations spatiales préférées, configurations qui sont beaucoup mieux marquées en hiver dans l’hémisphère nord. Elles correspondent à des variations du vent zonal en position et intensité. Lorsque le vent zonal des moyennes latitudes est déplacé vers le pôle, il est aussi un peu plus fort que quand il est déplacé vers l’équateur, des variations qui se prolongent sur toute la troposphère. À cause de cette simplification des régimes moyens sur une saison, des efforts considérables sont faits pour connaître leur origine afin de savoir si on pourrait les prédire. Dans les Tropiques le couplage océan-atmosphère fait naître une variabilité interannuelle originale, beaucoup plus facile à observer et à interpréter que celle des moyennes latitudes. Le lien entre les alternances de sécheresses et d’inondations sur chaque bord du Pacifique et les alternances de SST chaude et froide sur le Pacifique central et est est aujourd’hui bien connu. Sous le nom d’ENSO (El Niño-Southern Oscillation), cette instabilité climatique à l’échelle du Pacifique se construit par interaction entre océan et atmosphère. La prévision saisonnière tant dans les tropiques qu’aux moyennes latitudes est l’objet d’un grand effort de recherche puisque la structure de la SST dessine le futur auquel on peut s’attendre avec son lot de catastrophes naturelles et d’impacts forts sur les récoltes, les ressources en eau, les demandes en énergie, le bilan des pêches pour n’en citer que quelques-uns. Ces impacts sont parfois localisés loin des zones de génération des anomalies de SST au travers de ce qui est appelé « téléconnexions », des propagations d’anomalies climatiques par les ondes planétaires atmosphériques. Les illustrations de cette section sont le résultat d’application de méthodes statistiques, corrélation, régression, analyse harmonique, qui sont introduites brièvement dans l’Annexe 4.

507

Une introduction à la dynamique des océans et du climat

4.7.1

L’oscillation nord-atlantique (North Atlantic Oscillation, NAO)

Le mode privilégié de variation du champ de pression atmosphérique de l’hémisphère nord est connu sous le nom d’oscillation nord-atlantique (NAO, pour North Atlantic Oscillation) ou encore oscillation arctique (AO, pour Arctic Oscillation) ou encore mode annulaire de l’hémisphère nord (NAM pour North Annular Mode). Ces définitions correspondent à des méthodes statistiques différentes mais dont les résultats sont proches. Le vortex polaire est la zone de basse pression autour de laquelle circulent les vents d’ouest qui est principalement axisymétrique. Les oscillations dont il est question ici concernent une réduction-extension du vortex polaire, d’où le nom de mode annulaire. Mais la signature de ce mode est particulièrement marquée en hiver dans le secteur Atlantique avec des anomalies de signe opposé de la pression atmosphérique au niveau de la mer entre l’Arctique et la région Atlantique central - Méditerranée, et donc la dénomination NAO. Il existe plusieurs façons d’extraire la NAO des observations, par exemple construire la carte des corrélations de pression atmosphérique d’un point quelconque avec la pression d’un point bien choisi (ici 65 °N, 35 °O) ou encore calculer les EOFs (Empirical Orthogonal Functions), une technique qui sort toutefois du cadre de cette introduction.

 Figure 4-7-1  La structure de la NAO de la pression atmosphérique (SLP) est reconstruite sur la période 1899-2016 avec SLP > 0, contours solides, SLP =− ∂t ∂y Avec les crochets représentant ici une moyenne zonale et verticale, la convergence des flux de quantité de mouvement est en effet la seule force qui peut agir sur le vent d’ouest . Essentiellement, le problème est alors celui de l’équilibre statistique entre vent zonal et turbulence géostrophique dans l’atmosphère (voir Feldstein, 2003 ; Thompson et al. 2003, NAO AGU monograph). Mais la réponse de l’océan à la NAO est-elle purement passive ? Bjerknes a été le premier à rechercher cette influence de la variabilité de la circulation océanique sur les SST et sur l’atmosphère dans les années 1960. Czaja et Frankignoul (2002) ont montré à partir des observations une corrélation significative entre la SST et la NAO lorsque la SST est en avance de six mois sur la NAO du début d’hiver. Lorsque le tripôle de SST de la figure 4-7-3 précède la phase positive de la NAO, on peut voir par la relation 4-1-7 que le taux de croissance de l’instabilité barocline dans la région de cyclogenèse au nord du Gulf Stream va augmenter en réponse à l’augmentation des gradients de SST observés sur la figure 4-7-3 qui sont aussi de nature à augmenter le gradient méridien de température de la troposphère et donc le cisaillement vertical de vent, un feedback positif entre la SST et la NAO. Par ailleurs, en forçant un modèle purement atmosphérique avec la série temporelle des SST observées, Rodwell et al. (1999) ont pu montrer que l’indice NAO ainsi simulé se comparait assez bien avec le vrai indice de la figure 4-7-2. Mais comme la figure 4-7-5 montre que l’inertie thermique de l’océan fabrique des SST variant sur de basses fréquences, ces auteurs ont pu montrer qu’une certaine prévisibilité de

513

Une introduction à la dynamique des océans et du climat

la NAO pouvait être déduite des observations de SST, un résultat en accord avec les observations de Czaja et Frankignoul. Finalement la SST n’est pas seulement gouvernée par les flux air-mer et sur de plus longues échelles de temps, décennales à multidécennales, la dynamique océanique intervient à son tour pour rétroagir sur l’atmosphère (Saravanan-McWilliams, 1998 ; de Coëtlogon et Frankignoul, 2003). On peut juste compléter la famille NAO par l’oscillation Pacific/North American Pattern ou PNA. Ce mode PNA est le mode d’hiver sur le Pacifique nord et les États-Unis. Wallace et Guzler (1981) l’ont reconstitué en cherchant les téléconnexions suivantes : ils choisissent un centre d’action, par exemple 45 °N, 165 °O (Pacifique central), et corrèlent à une altitude donnée la pression (en moyenne mensuelle) de ce centre d’action avec la pression de tous les points autour. Cette carte du coefficient de corrélation fournit l’état statistiquement privilégié en hiver. La figure suivante présente le résultat sous la forme d’une régression du géopotentiel Z en un endroit donné sur l’indice PNA défini par 1/4.[Z(20N,160O) –Z(45N,165O) + Z(55N,115O) – Z(30N,85O)] (voir Annexe 4).

 Figure 4-7-6  La structure spatiale de la PNA vue par une régression du géopotentiel à 500 hPa sur l’indice PNA des trois mois d’hiver. La variance de la PNA représente 50 % de la variance interanuelle des hivers de la période 19482010. Les contours rouge, bleu et gris correspondent aux valeurs positives, négatives et zéro de l’anomalie de géopotentiel. Source : Joint Institute for the Study of the Atmosphere and Ocean, University of Washington, voir https://research.jisao.wasington.edu/data_sets/pna

Sur la figure 4-7-6, le mode PNA a la forme d’un tripôle mieux marqué au milieu de la troposphère (500 hPa). Sa structure ressemble dans les grandes lignes à la moyenne de la pression sur les mois d’hiver (DJF). On s’aperçoit que quand la pression est basse au centre du Pacifique, une dorsale de haute pression apparaît sur l’ouest des États-Unis et une zone de basse pression sur l’est des États-Unis et le Gulf Stream. La circulation oscille alors entre cette situation de blocage qui peut persister plus d’un mois et une circulation beaucoup plus zonale. Cette structure explique les hivers de l’Amérique du Nord : quand les pressions sont basses sur le Pacifique nord,

514

4. Dynamique du climat

les températures sur les États-Unis sont douces et les précipitations sont fortes sur l’Alaska et le golfe du Mexique et faibles entre les deux sur les plaines américaines. Comme la NAO, la PNA serait une oscillation générée par la variabilité interne de l’atmosphère à haute fréquence (le temps). Ce mode apparaît déjà dans des modèles atmosphériques non couplés avec l’océan avec des conditions aux limites fixées à l’interface air-mer. Ces modèles idéalisés et les expériences de laboratoire comme celles de Hide et Mason montrent effectivement que des vacillations peuvent apparaître de façon sporadique, les produits d’instabilité venant affaiblir les causes qui leur donnent naissance, à savoir le gradient méridien moyen de température. Il est difficile d’exclure tout effet retour des conditions aux limites (la SST océanique) surtout pour les plus longues périodes de ces modes, l’objet du paragraphe suivant.

4.7.2

L’oscillation multidécennale atlantique (Atlantic Multidecadal Oscillation, AMO)

Les SST de l’Atlantique nord varient aussi sur des échelles de temps très longues, une soixantaine d’années, un phénomène appelé AMO (Atlantic Multidecadal Oscillation ; voir Kushnir, 1994, Schlesinger et Ramankutty, 1994, Enfield et al., 2001). L’indice de l’AMO se définit comme l’anomalie de la SST sur l’Atlantique nord entre 0° et 70 °N où l’on on a aussi retranché la tendance linéaire. L’analyse remonte jusqu’à 1870, les SSTs étaient alors uniquement observées sur les routes des navires marchands. Il faut bien reconnaître que les observations in situ dédiées n’ont réellement augmenté que depuis les années 1960. Les observations satellitaires offrent depuis une trentaine d’années une couverture spatiale bien plus riche.

 Figure 4-7-8  Les moyennes annuelles des SST de la ré-analyse Hadley-SST (1870-2018) sont tout d’abord calculées puis la tendance linéaire, le réchauffement global, est enlevée. L’indice AMO calculé ici est la moyenne spatiale de ces SST sur une boîte 0°-70 °N dans l’Atlantiqu nord. La courbe grise résulte de l’application d’un filtre passe-bas à 11 ans. Source des données : HadISST, Hadlley Center Sea Ice and Sea Surface Temperature.

515

Une introduction à la dynamique des océans et du climat

L’indice AMO de la figure 4-7-8 montre une forte variabilité interannuelle. Mais avec un filtre passe-bas qui supprime les courtes périodes inférieures à 11 ans apparaît également un cycle de période 60 ans d’amplitude comparable au signal interannuel. Ce cycle définit l’AMO. La période calculée sur les deux minima (~1916 et ~1978) est donc autour de 60 ans. Comme les données vont de 1870 à 2018, on ne voit guère plus d’un cycle et demi sur la figure, mais le signal semble là. L’indice AMO montre une phase chaude des années 1930 à 1960, une phase froide du début des années 1970 au milieu des années 1990, et une phase chaude depuis. Il y a eu débat pour savoir si la phase chaude récente était un signe du réchauffement global, mais le fait de retrancher de l’indice la tendance linéaire est justement fait pour se prémunir de cette interprétation. La deuxième étape est de connaître la structure spatiale de la SST qui est associée avec cette oscillation. Pour cela on fait une régression de la SST sur l’indice filtré de l’AMO en chaque point de l’océan mondial (voir Annexe A4.3).

 Figure 4-7-9  La carte de la SST de l’AMO calculée comme la régression sur l’indice AMO. L’amplitude a été multipliée par un écart type de l’indice filtré AMO, soit 0,18 °C. Source des données : HadISST, Hadlley Center Sea Ice and Sea Surface Temperature.

Quand on multiplie cette régression de la SST par un écart type de l’indice AMO, on obtient l’ordre de grandeur de l’amplitude de l’oscillation observable sur la figure 4-7-9. La structure spatiale de l’AMO est une anomalie d’amplitude 0,5 °C centrée autour de 50 °N, 44 °O au nord de l’extension du Gulf Stream. Elle reste bien visible dans le gyre subpolaire, les mers du Labrador et mers d’Irminger au sud du cap Farewell mais aussi dans la partie est de l’Atlantique subtropical. Lorsque les mêmes régressions sont faites avec des variables atmosphériques, l’AMO est associée avec des anomalies de précipitation sur le Sahel, sur le mid-west des États-Unis et sur le Brésil. Des anomalies de débit du Mississippi ont été aussi notées par Enfield et al. (2001). Le signal AMO apparaît donc comme une oscillation intrinsèque du système climatique. Mais son origine réside-t-elle dans l’océan, dans l’atmosphère, dans le couplage des deux ou résulte-t-elle encore de forçages externes (volcans,

516

4. Dynamique du climat

aérosols) ? Au vu de la longue période, on se borne à présenter ici quelques arguments en faveur d’un rôle important joué par l’océan. Gulev et al. (2013) ont restreint l’analyse de l’AMO sur la région 35 °N-50 °N, la zone d’extension du Gulf Stream, où les données sont en assez grand nombre pour calculer aussi les flux air-mer, flux de chaleur latente et flux de chaleur sensible sur des régions assez grandes de 5° × 5°. Le flux QOA est ici positif quand l’atmosphère est chauffée par ce flux. Sur le Gulf Stream de 35° à 45 °N et de 70° ouest à 30° ouest, ce flux moyen est effectivement positif (de 100 à 200 W m–2 sur la figure 4-3-2). Mais le plus intéressant est les écarts autour de cette moyenne. Les auteurs filtrent les hautes fréquences des flux de chaleur et des SST pour ne garder que les périodes supérieures à 11 ans. Le reste, la différence entre le signal original et le signal filtré passe-bas, est donc le signal haute fréquence (les périodes inférieures à 11 ans). Ensuite la corrélation entre les flux et les SST est calculée pour la partie basse fréquence et la partie haute fréquence du signal respectivement et les résultats sont très différents : pour la partie haute fréquence, les corrélations sont négatives et significatives dans la zone du fort signal AMO alors que c’est exactement l’opposé pour le signal basse fréquence (figure 4-7-10).

 Figure 4-7-10  L’anomalie de SST sur la région 35°-50 °N (en rose) pour les basses (trait épais) et hautes (trait fin) fréquences. Les anomalies des flux de chaleur (sensible plus latent) sont calculées dans les régions correspondantes de l’insert. Notez l’opposition de phase pour les hautes fréquences entre SST et QOA et la co-variation des deux séries pour les basses fréquences. Source : Gulev et al. (2013).

Avec la définition choisie du flux, l’équation 4-7-1 se réécrit en chaque point de la région : ρCPH

dSST = −Q OA + A dt

517

Une introduction à la dynamique des océans et du climat

où ici on parle en anomalies de SST et de flux. Le terme ajouté A représente le terme de transport par la circulation océanique. Multiplions cette équation par la SST et appliquons une moyenne temporelle notée par  : ρCPH

1 d < SST 2 > = − < SST Q OA > + < A SST > 2 dt

En équilibre statistique, la variance de la SST ne bouge plus et le terme de gauche est nul. Si la corrélation est positive, les flux air-mer ont tendance à amortir la SST et on peut alors dire que le terme moteur est le dernier terme à droite qui doit être positif. Aux basses fréquences, les flux air-mer amortissent statistiquement les SST, car quand la SST est positive (négative), QOA est positif (négatif ). Pour se maintenir, celles-ci doivent donc être forcées par la circulation océanique (le terme A). Aux hautes fréquences, le signe de la corrélation est maintenant négatif, un terme source de variance et on peut dire que l’atmosphère force maintenant l’océan par les flux air-mer QOA en opposition de phase avec les SST : quand la SST est positive (négative), QOA est négatif (positif ) et vient toujours renforcer l’anomalie de SST ; on en a déjà parlé à propos de la NAO qui se retrouve ici pour les hautes fréquences. L’énergie nécessaire vient alors de l’atmosphère, au travers de l’instabilité barocline responsable des transitoires. Mais d’où vient alors l’énergie océanique pour les basses fréquences ? Vu la proximité du Gulf Stream, on peut faire l’hypothèse que ses fluctuations naturelles sont une origine possible. Quand il est un peu plus fort que d’habitude, des anomalies positives de SST se retrouvent advectées en aval et viennent réchauffer l’atmosphère et s’il est un peu plus faible, des anomalies négatives se créent et viennent la refroidir, reste à comprendre l’origine de l’oscillation. Il a été observé sur une vaste hiérarchie de modèles d’océans (d’idéalisé à réaliste) que de la variabilité inter-décennale (sur une échelle temps de 20-30 ans) est systématiquement générée dans le gyre subpolaire dès lors que la condition aux limites à l’interface air-mer est une condition de flux imposé et non plus de température et/ ou salinité imposée. En effet compte tenu de l’inertie thermique de l’atmosphère négligeable par rapport à l’océan, forcer l’océan par une température atmosphérique imposée n’a guère de sens. Le sens que l’on peut donner à cette pratique courante de rappeler les variables océaniques à une climatologie de surface est de garantir que le modèle océanique reste proche de l’état actuel dans ses variations de température ou salinité. En effet le modèle ne pourra jamais fabriquer de valeurs de température ou de salinité sortant de la gamme imposée en surface. Le comportement d’un modèle forcé en flux (en surface) est beaucoup plus riche. Un flux de chaleur est le produit d’une vitesse par une température et on peut imaginer pour un même flux une réponse avec des vitesses fortes et des variations de température faibles ou une circulation faible avec des variations de température fortes. Une procédure opérationnelle pour avoir une circulation et des températures/salinités proches de la réalité est de commencer par amener l’océan à l’équilibre en rappelant température et salinité à la climatologie en surface. Ensuite on diagnostique les flux air-mer vus par le modèle et on continue la simulation avec ces flux de surface maintenus constants. De cette

518

4. Dynamique du climat

façon, le modèle est effectivement forcé en flux avec une circulation assez proche des observations. La simulation de Arzel et al. (2018), réalisée selon cette procédure dans une géométrie réaliste, montre une oscillation sur le transport méridien dans l’Atlantique, dite AMOC (Atlantic Meridional Overturning Circulation) :

 Figure 4-7-11  Une oscillation interdécennale régulière se développe au bout d’un millier d’années d’amplitude 1 Sv et de période 22 ans dans un modèle océanique forcé en flux. Source : Arzel et al. (2018).

Cette transition (ici assez lente) est une bifurcation de Hopf générique : un état d’équilibre stationnaire bifurque vers un état oscillant appelé cycle limite dans la terminologie des systèmes dynamiques. Le forçage en surface étant constant dans le temps, l’oscillation provient d’une ré-organisation interne de l’océan sous ces conditions de flux. Si la circulation varie, la SST doit aussi varier.

 Figure 4-7-12  La distribution de la SST dans le gyre subpolaire de l’Atlantique au cours de l’oscillation de 22 ans. Source : Arzel et al. (2018).

519

Une introduction à la dynamique des océans et du climat

Le scénario de la variabilité sur la figure 4-7-12 est le suivant. Depuis t = 1 an, une anomalie froide au sud du Groenland s’atténue en se propageant vers l’ouest. Au bout de 10 ans, elle est remplacée par une anomalie chaude qui évolue de la même manière. Il faut noter par ailleurs le décalage qui existe entre la circulation (l’AMOC) et la SST, car l’anomalie la plus froide (chaude) est associée avec le transport vers le nord le plus fort (faible). Ce décalage est en accord avec la relation du vent thermique quand on visualise sur la figure 4-7-12 les courants de la dérive nordatlantique qui circulent en gardant les eaux froides (chaudes) à gauche (à droite). Visiblement le cœur de l’action se situe dans la même région que les observations de l’AMO de la figure 4-7-8. Pour mieux appréhender la propagation des anomalies de température, celles-ci sont illustrées à une latitude donnée en fonction de la longitude et du temps sur la figure suivante (des diagrammes x,t de Hovmuller).

 Figure 4-7-13  La distribution de la SST dans un diagramme (longitude-temps) au cours de l’oscillation de 22 ans, du modèle de Arzel et al. (2018).

La propagation vers l’ouest des anomalies de SST chaudes et froides apparaît clairement entre 50 °O et 40 °O, une propagation qui fait justement penser aux ondes de Rossby, sauf que ces ondes sont plus complexes puisqu’elles interagissent avec la circulation moyenne. D’où tirent-elles leur énergie ? Essentiellement par le même mécanisme d’instabilité barocline qui explique la présence des tourbillons océaniques aux échelles de 100 km (voir section 3-6-2). L’océan est également instable sur ces échelles spatiales plus grandes, le millier de kilomètre sur la figure. La croissance de ces ondes de grande taille est aussi plus lente, mais il s’agit toujours d’une conversion d’énergie potentielle de la circulation moyenne vers les ondes. Ces oscillations de grande échelle sont robustes, car on les retrouve aussi dans les modèles d’océan qui résolvent les tourbillons, ou encore dans des modèles couplés océanatmosphère. L’hypothèse est que ces ondes océaniques instables sont celles qui pourraient expliquer l’existence de l’AMO aux moyennes latitudes. Le lecteur intéressé pourra consulter l’histoire de cette idée dans Greatbatch et al. (1995), Chen & Ghil

520

4. Dynamique du climat

(1995), Colin de Verdière & Huck (1999), Te Raa & Dijkstra (2002) et Huck et al. (2015). Ce n’est bien sûr pas la seule. La variabilité océanique associée à la séparation du Gulf Stream dans des modèles à 2,5 couches permettant l’affleurement en surface (outcropping) d’interfaces de densité a été développée par Sirven et al., (2015) (et les références sur ce sujet dans cette publication). En réponse à un vent saisonnier, la dynamique océanique est capable de fabriquer de la variabilité interdécennale intensifiée sur l’extension du Gulf Stream. À l’autre extrémité du spectre, Clement et al. (2015) proposent que les changements de la circulation océanique ne jouent aucun rôle dans l’existence de l’AMO. Ils montrent qu’une structure spatiale de SST de type AMO apparaît quand un modèle atmosphérique force stochastiquement un modèle d’océan constitué d’une seule couche de mélange (slab ocean), le cycle annuel de la circulation océanique (obtenu de simulations couplées) étant alors invariable. La dynamique de l’AMO de Clement et al. est alors du même type que celle déjà rencontrée pour la NAO du paragraphe précédent et la structure spatiale de leur réponse est d’ailleurs similaire à celle de la NAO de la figure 4-7-3. Avec une circulation océanique gelée, les simulations de Clement et al. ne peuvent pas rendre compte de la période d’oscillation de l’AMO de la figure 4-7-8 et un océan interactif semble donc nécessaire pour l’expliquer. L’importance de la circulation océanique reste loin d’être partagée par tous : Booth et al. (2012) ont utilisé des simulations de modèles de climat qui incorporent de nouvelles interactions entre nuages et aérosols pour affirmer que sur les cinquante dernières années, l’AMO était forcée par le forçage radiatif des émissions industrielles des aérosols et des volcans, des forçages externes n’ayant plus rien à voir avec des variations de la circulation en Atlantique nord. Le débat sur la nature des causes qui sous-tendent l’AMO n’est évidemment pas clos.

4.7.3

El Niño Southern Oscillation (ENSO)

Bien que la côte du Pérou (~10 °S) soit désertique, la mer adjacente est une bénédiction pour les pêcheurs depuis des siècles. La plupart du temps, les eaux côtières sont froides avec un courant vers le nord. Autour de Noël, le courant s’écoule vers le sud et les eaux deviennent chaudes, un courant donc appelé localement El Niño. Ce phénomène peut durer quelques mois et être particulièrement fort : en 1891, le désert adjacent fut soumis à de fortes pluies et se couvrit rapidement de végétation, un premier lien avéré entre courant et climat régional avec ces fortes pluies côtières. En 1877, les côtes du Pérou fleurirent, et il n’y eut pas de mousson indienne avec les conséquences de sécheresse et de famine. Sécheresses dévastatrices en Indonésie, sur le nord de l’Australie et perturbations de la mousson indienne en 2002 et 2004 affectent les récoltes de sorte qu’El Niño a un impact majeur sur l’économie des pays tropicaux. On sait maintenant que ces événements climatiques séparés par la largeur du Pacifique sont liés. Les changements de température de l’océan (la SST) sont associés à des changements de vent le long de l’équateur, eux-mêmes associés à des changements de pression atmosphérique (la SLP). Lorsque la pression est basse

521

Une introduction à la dynamique des océans et du climat

sur l’Australie et l’Inde, elle est haute sur le Pacifique est, la situation normale des alizés qui soufflent vers l’ouest, essentiellement des hautes vers les basses pressions, car la force de Coriolis est faible à l’équateur. Mais tous les 3 à 7 ans, la pression sur l’ouest du Pacifique devient haute et des vents d’ouest apparaissent. Walker (1924) fut le premier à calculer des corrélations entre des données de stations météorologiques très éloignées géographiquement et il réalisa que ces variations de pression et de régimes de précipitation étaient organisées en une oscillation cohérente de grande échelle, qu’il baptisa Southern Oscillation (SO), dont une des branches est cette variation de pression et de précipitations entre l’est et l’ouest du Pacifique. Les corrélations de Walker montrèrent pour la première fois que la mise en évidence de la SO permettait de faire des prédictions statistiques non pas du temps qu’il fera tel jour mais du temps moyen sur quelques mois. Les observations sur les îles du Pacifique (autour de la ligne de changement de date) apportèrent une contribution intéressante : des périodes sèches et humides étaient corrélées sur de longues distances, les périodes sèches étant associées avec les alizés (vent d’est), les périodes humides avec des convergences de vent, des alternances de vents d’est et d’ouest le long de l’équateur, une zone reconnue aujourd’hui comme la zone de génération des El Niño. Le lien causal entre le courant chaud El Niño persistant, les SST anormales sur le Pacifique et les oscillations de la SO vues au travers des SLP, fut mis en évidence par Bjerknes en 1969 (voir figure 4-7-17). L’eau du Pacifique équatorial est froide à l’est et chaude à l’ouest. En conséquence, l’air chaud et humide monte à l’ouest et l’air froid et sec descend à l’est. Ces deux zones sont reliées par les alizés en surface et un retour (vers l’est) en altitude, une circulation atmosphérique dans la direction zonale que Bjerknes nomma circulation de Walker. Ce premier élément montre que la circulation atmosphérique dépend de la SST. Mais on sait que la SST dépend aussi du vent. Comme le transport d’Ekman est vers le nord au nord de l’équateur et vers le sud au sud, une divergence du courant apparaît à l’équateur et donc des eaux plus froides remontent en surface et cet upwelling dépend par nature de l’intensité du vent. Le feedback positif identifié par Bjerknes pour faire varier cette circulation de Walker est alors le suivant. Imaginons que la circulation de Walker augmente, alors l’upwelling équatorial augmente et la SST décroît à l’est. Comme le gradient zonal de SST augmente, la circulation de Walker augmente. L’argument marche aussi dans l’autre sens : si la circulation de Walker faiblit, l’upwelling est plus faible et la SST augmente à l’est, le gradient zonal de SST chute et la circulation de Walker avec. Cet argument surprend car on ne parle que des variations de SST à l’est. Mais ce sont effectivement elles qui varient le plus car la thermocline (la transition entre les eaux chaudes et froides) est plus près de la surface à l’est qu’à l’ouest (figure 3-4-15) de sorte que l’upwelling à l’ouest n’amène en surface que des eaux chaudes et ne crée pas de variation importante de SST. En une phrase, « des SST plus froides à l’est amènent des vents d’est (alizés) plus forts qui créent des SST plus froides » et alternativement « des SST plus chaudes à l’est amènent des anomalies de vents d’ouest qui créent des SST plus chaudes ». Ce feedback positif de Bjerknes identifie bien l’instabilité du système couplé océanatmosphère sur le Pacifique avec ces deux états possibles, une circulation de Walker

522

4. Dynamique du climat

forte et des eaux froides sur le Pacifique est, une circulation de Walker anormalement faible avec des eaux chaudes sur le Pacifique central et est. Mais Bjerknes reconnut que l’explication physique pour la transition, le passage d’un état à l’autre n’était pas tout à fait clair – not yet quite clear. S’agit-il d’ailleurs d’une oscillation (comme celle d’un pendule) ou de transitions entre deux états possibles forcées par des événements aléatoires ? En 1969, les réponses des régions équatoriales de l’océan au vent et de l’atmosphère au chauffage à sa base avaient été encore peu étudiées. Depuis les années 1970, le vide s’est comblé et la recherche sur ENSO continue de fleurir depuis compte tenu des impacts climatiques majeurs, sécheresses et inondations qui y sont associées.

4.7.3.1

Les observations

La carte de la moyenne temporelle de la SST a été montrée sur la figure 4-1-2. Pour documenter la variabilité, il faut utiliser l’écart type (la racine carrée de la variance). La série temporelle HadISST est une série mensuelle de données in situ puis satellitaires allant de 1870 à 2018. Pour se concentrer sur la variabilité non saisonnière, il faut d’abord calculer en chaque point un cycle saisonnier, la moyenne temporelle de tous les mois de janvier, de tous les mois de février, etc. de la série temporelle. On retranche ensuite ce cycle saisonnier J, F, M,... de la série originale. Pour l’année n, l’anomalie de SST devient Jn − J, Fn − F, Mn − M,... L’écart type est maintenant calculé sur cette série temporelle d’anomalies.

 Figure 4-7-14  Carte globale de l’écart type de la SST [oC] dont le cycle saisonnier a été enlevé au préalable. L’intervalle de contour est de 0,1 °C. Source des données : HadISST, Hadlley Center Sea Ice and Sea Surface Temperature.

523

Une introduction à la dynamique des océans et du climat

L’écart type sur la figure 4-7-14 montre les régions où la SST varie le plus sur la période de 148 ans. On retrouve sans surprise aux moyennes latitudes, les régions des courants de bord Ouest (Gulf Stream et Kuro-Shio), la rétroflexion au sud de l’Afrique, la région de confluence dans l’Atlantique sud-ouest et le lecteur pourra comparer cette mesure de la variabilité avec l’énergie cinétique turbulente déduite de l’altimétrie satellitaire de la figure 1-9 (Tome 1). La carte 4-7-14 montre quelque chose de nouveau, une langue zonale dans le Pacifique équatorial qui part du Pérou et s’étend vers l’ouest de long de l’équateur. Cette forte variabilité apparaît là où la SST moyenne est elle-même basse (voir la langue d’eau froide sur la figure 4-1-2). Ces SST variables du Pacifique équatorial central et est sont la signature océanique d’ENSO.

 Figure 4-7-15  La série temporelle des anomalies mensuelles de SST dans la région Niño 3.4, un des indices pour caractériser ENSO [5 °N-5 °S, 170 °O-120 °O]. Le cycle saisonnier et la tendance linéaire ont été enlevés. Les événements chauds sont associés aux El Niño. Les événements anormalement froids sont appelés La Niña. Source des données : HadISST, Hadley Center Sea Ice and Sea Surface Temperature.

La variabilité de la SST de la région Niño 3.4 sur la figure 4-7-15 montre des événements chauds et froids qui durent environ 1 an à 1 an et demi et reviennent tous les 3 à 7 ans. On peut noter les événements majeurs de 1982-1983, 1997-1998 et 2015-2016 avec des amplitudes de l’ordre de 2 °C. Les deux premiers apparaissent sur le niveau de la mer des marégraphes de la Partie 1 sur la figure 1-15. La figure montre aussi des anomalies négatives qui correspondent à un état normal amplifié baptisé La Niña. Les événements chauds sont liés au cycle saisonnier de la façon suivante : l’anomalie de SST apparaît au printemps, augmente nettement à partir de juin pour atteindre un maximum en janvier et se terminer au printemps de l’année suivante. Tous les événements ENSO sont différents en amplitude et en durée, mais cela reste intéressant d’essayer de trouver la structure spatiale d’un ENSO typique. Pour cela on crée un composite. Deser et al. (2010) sélectionnent les événements chauds qui sont au-dessus d’un écart type sur la série 1950-2008 et le composite est la moyenne d’ensemble de ces événements anormaux pour les variables SST,

524

4. Dynamique du climat

pression atmosphérique (SLP) ou autres. Un événement typique se développe alors de la façon suivante :

Figure 4-7-16 Une carte composite d’un ENSO typique à cheval sur l’année 0 (à gauche) et l’année 1 (à droite). Les anomalies de SST sont en gris (intervalle de contour 1 °C et les contours noirs sont la SLP intervalle de contour 2 hPa. Les contours continus (pointillés) sont des anomalies positives (négatives) pour chaque champ. Source : C. Deser NCAR.

En MAM (0), une anomalie positive de SST apparaît près du Pérou et croît en amplitude pour atteindre un pic en DJF (1). En MAM (1) l’événement chaud décline et un événement froid commence à se montrer en JJA (1). Avec l’événement chaud à l’équateur, il faut noter les deux anomalies froides qui apparaissent dans le Pacifique nord-ouest et sud-ouest qui dessinent un fer à cheval. On peut noter les anomalies de SLP positives à l’ouest et négatives à l’est visibles en DJF (1) au pic de l’événement chaud qui affaiblissent la circulation de Walker.

525

Une introduction à la dynamique des océans et du climat

Le lien entre circulation atmosphérique et SST est décrit sur la figure suivante.

 Figure 4-7-17  En haut, le Southern Oscillation Index (SOI). Les anomalies de pression atmosphérique sont d’abord normalisées par l’écart type avant de faire la différence. Puis le résultat obtenu est encore divisé par son écart type. En bas, l’anomalie de SST en oC sur la région Nino 3.4 par rapport au cycle annuel moyen. Cette figure démontre le couplage océan-atmosphère du Pacifique tropical. Les données sont accessibles sur https://www.ncdc. noaa.gov/teleconnections/enso/

L’indice d’oscillation d’ENSO est défini par la différence de pression entre Tahiti et Darwin : SOI = SLP(Tahiti) – SLP(Darwin). Lorsque le SOI est négatif, la pression normalisée à Darwin est supérieure à celle de Tahiti. La circulation de Walker est alors affaiblie sur l’ouest du Pacifique. La SST sur la région Nino 3.4 est alors anormalement positive (2 °C de plus). Notez la corrélation négative entre les deux séries de la figure 4-7-17, car c’est bien rare d’en voir d’aussi belles sur des séries de données océan-atmosphère. Les deux gros événements sont les El Niño de 1983 et de 1998 (avec deux autres plus faibles en 1987 et 1992) et les deux gros La Niña sont ceux de 1989 et 1999. La structure des champs lors d’un événement La Niña est similaire à celle de l’état normal du Pacifique, mais les amplitudes sont intensifiées (les alizés sont plus forts et les SST sur le Pacifique est encore plus froides). Les deux schémas suivants résument la signature de ENSO.

526

4. Dynamique du climat

Figure 4-7-18 L’état normal du Pacifique. La convection tropicale est sur l’ouest du Pacifique, la warm pool. Les alizés s’étendent sur tout le Pacifique, la pente de la thermocline dans l’océan est forte de sorte que des SST froides se retrouvent à l’est. Source : E. Guilyardi.

Dans l’état normal, la circulation de Walker est une cellule directe avec des alizés (trade winds) bien établis. Le chauffage de l’atmosphère (la zone de convergence et de convection) est bien marqué sur la « Pacifique Warm Pool » à l’ouest. Dans l’océan la SST est froide à l’est, chaude à l’ouest avec une pente de la thermocline bien marquée. L’upwelling est présent à l’est et les courants océaniques sont grosso modo vers l’ouest. L’état dit La Niña est essentiellement cet état normal en plus intense.

Figure 4-7-19 L’état du Pacifique dans son mode perturbé El Niño. Les eaux chaudes ont migré vers le centre du Pacifique et donc aussi la cellule de convection dans l’atmosphère. Les vents ont changé de direction sur tout le Pacifique central. Source : E. Guilyardi.

527

Une introduction à la dynamique des océans et du climat

Dans l’état dit El Niño, le chauffage de l’atmosphère (la zone de convergence des vents) a maintenant migré au milieu du Pacifique. On voit des vents d’ouest à l’ouest de cette source chaude et des alizés (plus faibles) à l’est de cette source. L’anomalie de SST est positive sur le centre du Pacifique et à l’est, la thermocline s’est aplatie par rapport à l’état normal et l’upwelling d’eau froide est plus faible. Les courants participent au transport d’eau chaude dans le Pacifique central. Dans l’est, l’upwelling équatorial continue de contrôler la SST.

4.7.3.2

Mécanismes théoriques

L’état normal et l’instabilité de Bjerknes Commençons par expliquer un peu plus le scénario d’ENSO en rationalisant d’abord l’état normal A. Dans l’atmosphère le moteur est la convection sur la «  Pacific Warm Pool ». Lorsque les SST dépassent 28 °C, les cumulo-nimbus se forment et peuvent atteindre la tropopause. La chaleur latente extraite de l’océan est transmise à l’atmosphère au moment de la condensation en altitude. La position de ce chauffage est révélée par la radiation infrarouge (OLR) nécessairement plus faible au sommet des nuages très élevés. En conséquence de ce chauffage, la SLP chute au niveau du sol (la densité et donc la masse de la colonne d’air diminuent). Les vents chauds et humides convergent vers cette zone de basse pression. On peut dire que toute la branche basse de la cellule de Walker (les alizés) est tirée par cette convection. Du côté est, l’air froid et sec descend sur l’océan froid. Dans l’océan, la tension de vent des alizés est équilibrée par la pente de la surface de la mer. L’ouest du Pacifique est en effet 40 cm plus haut que le Pacifique est. La thermocline sépare les eaux chaudes à 28 °C en surface d’eaux à 20 °C situées vers 200 m de profondeur à l’ouest et proche de la surface à l’est : la thermocline remonte vers l’est. Ces deux pentes qui s’opposent conspirent pour annuler en grande partie le gradient de pression sous la thermocline : Vent O

E

hE hO

On peut comparer la pression en profondeur aux extrémités du Pacifique, les points Ouest et Est. La variation de hauteur de la thermocline ∆h = hO – hE entre O et E crée une variation de pression g ∆h (ρ2 - ρ1) à comparer avec la variation de pression due à la surface libre g ρ ∆η. Ainsi faut-il comparer ∆η et ∆ρ/ρ ∆h. Avec ∆ρ/ρ = 2 10–3 et ∆η ≈ 40 cm, une remontée de la thermocline de ∆h = 200 m sur

528

4. Dynamique du climat

la largeur du Pacifique est suffisante pour annuler la pression en profondeur de sorte qu’à une bonne approximation :

∆η = ∆h .

∆ρ 4-7-1 ρ

Les modèles d’ENSO idéalisés comme le fameux Zebiak et Cane (1987) font cette hypothèse d’un modèle à une couche active au-dessus d’un océan au repos. Une thermocline profonde (peu profonde) signifie un contenu de chaleur important (faible), mais reste à voir comment déterminer la température de surface. On peut commencer par associer simplement la SST et la profondeur h de la thermocline et l’anomalie de flux de chaleur Q à l’interface air-mer sera forte là où l’anomalie de profondeur est forte. On peut alors en déduire qualitativement le fonctionnement de l’instabilité de Bjerknes d’une perturbation de l’état A. Atmosphère

Océan

Une perturbation chaude est introduite dans l’océan, et donc il y a une dépression de la thermocline en gris. Ce chauffage déclenche une convection thermique dans l’atmosphère : les flèches verticales indiquent les mouvements turbulents dans les cumulus. Une basse pression se crée au sol et les vents horizontaux en noir convergent vers elle. Ces vents créent des courants également convergents dans l’océan (les flèches grises), une convergence qui approfondit la thermocline (la courbe pointillée) : la perturbation est amplifiée. On pense que la région d’instabilité initiale se trouve au milieu du Pacifique là où l’atmosphère répond le plus facilement à des petites anomalies de SST dans l’ouest.

L’onde de Kelvin équatoriale L’anomalie chaude ci-dessus n’est pas en équilibre dans l’océan et l’onde de Kelvin équatoriale va la propager vers l’est. La dynamique de l’onde de Kelvin est contenue dans les trois équations suivantes pour la quantité de mouvement et la continuité valable pour une couche de surface active d’épaisseur h au-dessus d’une couche profonde au repos : ∂u ∂h (a ) = −g′ ∂t ∂x ∂h (b) 4-7-2 βyu = −g′ ∂y ∂u ∂h +H = 0 (c) ∂t ∂x 529

Une introduction à la dynamique des océans et du climat

où H est la profondeur moyenne de la thermocline supposée constante et g′ la gravité réduite g∆ρ/ρ. La dynamique particulière apparaît dans le choix géostrophique pour l’équation 4-7-2 (b). La géométrie est celle du β plan équatorial avec f = βy. Comme pour l’onde de Kelvin des marées du § 3-2-4-1, cherchons une solution sous la forme h = h0(y) cos (kx-ωt). En l’injectant dans 4-7-2 (a), on trouve : u=

k ′ g h cos(kx − ωt) ω 0

En introduisant ensuite u et h dans l’équation de continuité 4-7-1 (c), celle-ci n’est satisfaite que si la relation de dispersion suivante est satisfaite : ω2 ω = g′H ou encore : = ± g′H k k2 La vitesse de phase de propagation est donc à ce niveau celle d’une onde de gravité interne c  = ± g′H . Reste à satisfaire l’équation de quantité de mouvement 4-7-1 (b) dans la direction méridienne. En injectant les solutions de u et h dans cette équation, on obtient : dh0 k + βyh 0 = 0 dy ω Voilà l’équation qui détermine h0(y). Pour que la solution reste bornée pour les grandes valeurs de |y|, on voit tout de suite qu’il faut choisir la solution k/ω positif et donc c = + g′H, la solution pour h devenant alors : h(x, y, t) = H0 e



β 2 y 2c

cos(kx − ωt)

où H0 est juste une constante. L’onde de Kelvin se propage donc vers l’est et est 1/ 2 c . Avec des valeurs piégée à l’équateur sur une distance qui varie comme REQ= β typiques du Pacifique équatorial ∆ρ/ρ = 2 10–3, H = 200 m, et β = 2,3 10–11 m–1 s–1, on trouve une vitesse de propagation c = 2 m s–1 et une distance de piégeage dans la direction nord-sud REQ ~ 300 km. Cette quantité est le rayon de déformation équatorial, l’échelle spatiale fondamentale qui vient remplacer le rayon de déformation de Rossby c/f des moyennes latitudes. Elle explique le confinement équatorial des perturbations de SST associées à ENSO sur quelques degrés de latitude. La forme gaussienne de la solution en exp(–y2) montre que l’équateur se comporte comme un véritable guide d’onde (voir le jet de Yoshida du § 3.4.4.2). On s’attend donc à ce que la perturbation instable ci-dessus soit transmise vers l’Est sur ce guide d’onde à une vitesse de 2 m s–1. Cela prend à peu près un mois pour traverser la moitié du Pacifique (5 000 km) donc autant dire que l’apparition d’un El Niño au Pérou se fait très peu de temps après l’apparition de l’instabilité au milieu du Pacifique. L’onde de Kelvin contribue au réchauffement de l’est du Pacifique de deux façons, en enfonçant la thermocline à l’est et en contribuant à l’advection d’eau chaude par les courants associés au bord Est de la warm pool.

()

530

4. Dynamique du climat

L’oscillateur retardé de Suarez et Schopf Mode instable comme décrit ci-dessus, excité dans la nature par un forçage aléatoire (c’est-à-dire tous les événements sporadiques de plus courte période), ou oscillation (plus ou moins régulière) sont deux idées qui ont structuré la recherche des trente dernières années sur ENSO. Si on voit ENSO plutôt comme une oscillation, il faut comprendre pourquoi les eaux chaudes de la phase El Niño ne restent pas en l’état et comment la Pacific Warm Pool à l’ouest se recharge. La première raison est qu’El Niño se développe en phase avec le cycle saisonnier. La deuxième est que les autres ondes équatoriales océaniques (les ondes de Rossby) jouent un rôle critique pour retransmettre l’information et l’énergie vers l’ouest. Un modèle qui a fait florès, est le concept de l’oscillateur retardé, un système dynamique où la seule variable est la SST (disons celle de la région Niño 3.4) qui est gouvernée par l’équation à retard : dT = c T − a T(t − δ) dt Le premier terme est clairement l’instabilité de Bjerknes puisque si c > 0, T varie comme ect. Le deuxième représente l’information qui est transmise vers l’ouest par les ondes de Rossby, qui se réfléchissent à la frontière Ouest puis reviennent via l’onde de Kelvin dans la région instable après un certain délai δ égal au temps de transit de l’information. Il faut voir que la forme du 2e terme à droite possède en lui-même l’oscillation recherchée puisque les fonctions sin (ou cos) satisfont précisément une équation à retard : d sin(t) = sin(t − π / 2) dt

L’oscillateur rechargé de Jin Alors que la cause de l’oscillation ENSO dans l’oscillateur retardé semble assez artificielle, le modèle conceptuel de Jin (1997) permet de mieux cerner la réalité océanique et le couplage océan-atmosphère. Le modèle ne met pas l’accent sur les ondes équatoriales mais sur le processus de recharge-décharge de l’eau chaude sur le Pacitifique ouest. La variable clé qui est ajoutée est la profondeur de la thermocline (typiquement celle de l’isotherme 20 °C), une mesure du contenu de chaleur. En 1985, Wyrtki a utilisé les marégraphes des îles du Pacifique pour fournir une carte des anomalies de niveau de la mer et la relation 4-7-1 lui a alors permis d’estimer les volumes d’eaux chaudes échangés sur le Pacifique équatorial lors de l’ENSO 82-83. En période normale, les alizés accumulent l’eau chaude à l’ouest, l’océan est rechargé. Mais lorsqu’il est trop rechargé, cette situation est instable et sous l’effet de perturbations atmosphériques, la phase El Niño se déclenche, avec un déficit de niveau de la mer ~20 cm à l’ouest de 150 °O et un surplus de ~30 cm à l’est de cette longitude atteint en décembre 1982. La relation ci-dessus permet d’estimer que la circulation océanique a déplacé plus de 6 1014 m3 d’eau chaude de l’ouest à l’est du Pacifique de juin à décembre, soit un transport d’environ ~ 40 Sv sur ces six mois. À cet instant, les vents se sont renversés sur le Pacifique ouest et la zone des alizés s’est rétrécie sur le Pacifique est. Wyrtki note qu’ensuite le volume d’eau 531

Une introduction à la dynamique des océans et du climat

chaude diminue rapidement, la phase de décharge, l’eau chaude étant exportée vers des latitudes plus élevées. La divergence du transport méridien de Sverdrup associé avec le vent anormal et les ondes de Kelvin côtières sont des mécanismes plausibles de cet export. La SST retrouvant une situation normale, les alizés reviennent et le contenu de chaleur du Pacifique ouest peut se recharger. Jin modélise ce cycle de perturbations d’un état climatologique moyen sur des échelles de temps longues (supérieures au temps de propagation de l’onde de Kelvin) et toutes les variables qui suivent sont des anomalies par rapport à une climatologie moyenne. En l’absence de forces de Coriolis, sa 1re équation traduit le set-up, l’équilibre entre le gradient de pression zonal de pression et la tension de vent :

h E = hO + τˆ 4-7-3

où hE et hO sont la profondeur de la thermocline à l’est et à l’ouest du bassin et τˆ est l’intégrale zonale de la tension de vent zonale sur l’extension du Pacifique, ici avec une dimension de hauteur : E

τˆ =

1 τ dx g′ρH O∫ x

Cette relation à l’équilibre 4-7-3 reste approximativement correcte lorsque le vent varie suffisamment lentement. La deuxième équation décrit l’évolution de hO, la thermocline à l’ouest :

dhO = −r hO − α τˆ 4-7-4 dt

Le premier terme à droite est un terme d’amortissement qui représente l’effet du mélange et de la perte d’énergie de la circulation par interaction avec les frontières. Le deuxième, proportionnel au vent, représente le processus de décharge/recharge de l’eau chaude de la thermocline par la circulation océanique. Le signe – garantit la décharge par vent d’ouest et la recharge par des alizés renforcés. Reste à spécifier la SST et la réponse du vent à cette SST. Les variations importantes de la SST apparaissent surtout dans la partie centrale et est du Pacifique et l’anomalie TE correspondante obéit à l’équation suivante :

dTE = −cTE + γh E 4-7-5 dt

Le premier terme à droite représente l’amortissement par les flux air-mer tandis que le deuxième est l’effet de l’upwelling équatorial (dû aux alizés) qui remonte les eaux froides présentes sous la thermocline en surface. Avec cette paramétrisation, TE augmente (diminue) selon que la thermocline à l’est est profonde (proche de la surface). La fermeture du système demande finalement de relier le vent et la SST :

τˆ = bTE 4-7-6

Cette dernière relation n’est autre que le modèle atmosphérique, l’anomalie de vent intégré zonalement répondant immédiatement à la SST sur le Pacifique central et est : l’intensité du couplage océan-atmosphère est donc directement contrôlée par le

532

4. Dynamique du climat

paramètre b. Gill (1980) a étudié la réponse d’une atmosphère tropicale à un chauffage au sol localisé à l’équateur à l’aide d’un modèle très simple, le modèle en eau peu profonde pour une couche atmosphérique (les équations 2-4-2). La réponse est gouvernée par des alizés que l’on trouve à l’est du chauffage sur une grande échelle spatiale contrôlée par l’onde de Kelvin atmosphérique cette fois (vitesse de phase de 60 m s–1), alors qu’à l’ouest du chauffage on trouve des vents d’ouest sur une région plus petite. La convergence de ces vents alimente les vitesses verticales vers le haut sur la zone de chauffage. La solution analytique de Gill propose une dynamique convaincante de la circulation de Walker et la relation 4-7-6 en est la traduction directe pour la partie située à l’ouest du chauffage. En éliminant hE et τˆ entre les équations 4-7-3 à 4-7-6, Jin obtient le système différentiel linéaire à deux variables hO et TE : dhO = −rhO − αbTE dt 4-7-7 dTE = RTE + γhO dt Quand il est positif, le paramètre R = γb − c traduit l’instabilité de Bjerknes. Les termes croisés qui couplent ces deux équations sont de signes opposés, une condition nécessaire pour permettre une oscillation. Le système étant linéaire, on cherche une solution sous forme d’exponentielles : hO = x 0e st TE = y 0e st Les quantités x0, y0 sont les amplitudes et l’objectif est de déterminer l’exposant s. En injectant cette solution dans 4-7-7, on obtient le système linéaire : (s + r)x 0 + αby 0 = 0 γx 0 + (R − s)y 0 = 0 Comme ce système de deux équations à deux inconnues est homogène, des solutions non nulles ne sont possibles que si seulement le discriminant des coefficients est nul (il suffit d’éliminer l’une ou l’autre des variables pour le voir), une relation qui s’écrit : s2 + s (r − R ) + αbγ − rR = 0 un polynôme du second degré en s dont les racines sont :

1 (R + r)2 (s′, s′′) = (R − r) ± − αbγ 4-7-8 2 4

Si le terme sous la racine est négatif, les racines sont complexes et il y a alors oscillation avec la fréquence : ω = ± αbγ −

(R + r)2 4

533

Une introduction à la dynamique des océans et du climat

Quand R > r, le premier terme à droite de 4-7-8 donne alors le taux de croissance de l’instabilité : 1 1 sR = (R − r) = (γb − c − r) 2 2 qui dépend donc essentiellement de γb. Les paramètres ont les valeurs suivantes c = 2 mois–1, r = 8 mois–1, α = 0,5 r, γ = 0,02 °C mois–1 m–1. Le plus intéressant est de regarder la sensibilité de la solution au couplage océan-atmosphère et donc à la valeur de b. L’oscillation existe pour b compris dans l’intervalle [8,47 41,53] m °C–1. Le taux de croissance s’annule pour bcrit = 31,25. Pour b  bcrit. La solution neutre de taux de croissance nul est illustrée sur la figure 4-7-20 pour b = bcrit.

 Figure 4-7-20  La profondeur de la thermocline hO sur le Pacifique ouest (pointillés) et la SST TE sur le Pacifique est (courbe continue) pour b = 31,25 m °C–1. Les valeurs de h ont été divisées par 10 pour mettre les 2 courbes sur le même graphique. Les conditions initiales à t = 0 imposent hO = 0 et TE = 1 °C. D’après Jin (1997).

L’oscillateur de Jin prédit une période d’ENSO de ~ 3,5 ans qui tombe dans l’intervalle de récurrence observé entre 3 et 7 ans. Lorsque la SST est maximum dans l’est, hO passe par une valeur négative maximale cinq mois plus tard dans le Pacifique ouest, ce qui correspond à la situation déchargée. Il faut ensuite une demi-période pour recharger en eau chaude le Pacifique ouest, temps durant lequel les températures décroissent à l’est pour devenir une situation La Niña puis se remettent à augmenter. La figure 4-7-21 résume la situation tous les quarts de période en partant d’un état El Niño. On utilise la figure 4-7-20 et la relation 4-7-6 pour reconstruire les anomalies de vent et la charge/décharge du contenu de chaleur.

534

4. Dynamique du climat

a

b τ

SST +

c

τ~0

SST ~ 0

d τ

SST −

τ~0

SST ~ 0

 Figure 4-7-21  Le rail équatorial est représenté de a) à d) tous les quarts de période. On pourra suivre en référence à la figure 4-7-20. Le vent est indiqué par les flèches noires et la charge-recharge du contenu de chaleur de l’océan est indiquée par les flèches grises. a) La situation El Niño : les SST sont fortes à l’est et l’océan se décharge puisque hO diminue. b) La SST est nulle et donc aussi l’anomalie de vent, l’océan se recharge puisque hO augmente. c) La situation La Niña : le Pacifique est est froid et les alizés vigoureux. L’océan continue de se recharger. d) Les anomalies de SST et de vent sont à nouveau nulles, mais l’océan commence à se décharger puisque hO diminue. Un quart de période plus tard le système revient en a). D’après Jin (1997).

On remarquera pour finir que la force du couplage océan-atmosphère tient beaucoup à la faiblesse des forces de Coriolis proches de l’équateur : c’est cette faiblesse qui permet la convergence et la divergence des circulations à grande échelle tant dans l’atmosphère que dans l’océan. La seule indication que l’on soit encore sur une sphère en rotation est juste donnée par le piégeage des anomalies sur l’échelle REQ et c’est ce piégeage qui donne son sens de propagation unique (vers l’est) à l’onde de Kelvin avec les conséquences que l’on a vues pour le développement d’El Niño. Le livre de Philander (2000), les travaux de Suarez et Schopf (1988), Battisti et Hirst (1989) et les deux papiers de Jin (1997), la synthèse de Wang et Picaut (2004) permettront de poursuivre la discussion entamée ici de façon beaucoup plus complète. Les efforts théoriques essaient bien sûr d’unifier, mais Capotondi et al. (2015) montrent la diversité des événements : anomalie positive de SST centrée sur le Pacifique est pour l’El Niño de 1997-1998, mais sur le Pacifique central pour celui de 2004-2005 avec

535

Une introduction à la dynamique des océans et du climat

des impacts climatiques plus importants. La compréhension de la grande diversité de ces cycles de vie est l’objet des recherches actuelles. L’atmosphère répond mieux aux SST dans la Warm Pool où la convection est profonde que sur la langue d’eau froide du Pacifique est, de sorte qu’une meilleure prise en compte de ces rétroactions permettrait de rendre compte des asymétries des transitions entre les états El Niño - La Niña. La simulation d’El Niño par les modèles de circulation générale est revue par Guilyardi et al. (2009). La lecture de McPhaden et al. (2006) permettra de voir les nouvelles avancées scientifiques, de découvrir les conséquences d’ENSO sur l’environnement, de constater la difficulté des prévisions.

4.8 Le futur du climat It is hard to make predictions specially about the future. Niels Bohr Ce dernier paragraphe est juste une mise en perspective du sujet de ce livre avec les problèmes sociaux-économiques qui façonnent le futur du climat. Les principaux facteurs physiques et chimiques qui contrôlent le climat de la Terre, la composition de l’atmosphère en gaz à effets de serre, la constante solaire, l’albédo de la planète, les échanges avec l’océan, les sédiments, la biosphère marine et terrestre, etc. ont été décrits. La variabilité naturelle du climat a également été illustrée sur des échelles de temps interannuelles à multidécennales. En ces temps d’incertitude sur le choix des sources d’énergie, le climat futur en réponse aux émissions des gaz à effets de serre devient une question centrale pour tous les habitants de cette planète. Mais si le calcul de ce futur est une question de physique, le forçage fondamental dépend des choix d’énergie d’une population en augmentation constante qui contrôlent les scénarios d’émission des gaz à effets de serre. Cet écart entre les scénarios possibles engendre de grandes variations sur le climat futur, des variations beaucoup plus importantes que les variations de la sensibilité du climat entre les modèles ! Le futur est calculé par des modèles de climat couplant atmosphère, océan, glace, biosphère marine et terrestre. L’état initial (le présent) est connu, mais il faut connaître le forçage du modèle sur disons le siècle prochain. Si le forçage solaire peut être pris constant, le forçage radiatif infrarouge dépend lui de la composition des gaz à effets de serre de l’atmosphère qui dépend des émissions de carbone liées aux activités humaines. La prédiction du temps est un problème de valeurs initiales : si on connaît les conditions initiales à t = 0, on calcule le temps à t = ∆t. Si on ne peut pas prédire le temps au-delà de ∆t = 2-3 jours à cause du chaos de la turbulence, pourquoi espérer prédire le climat ? On l’a vu le climat est une notion statistique. On calcule des moyennes et des déviations standards de température, de précipitation, de vent observées sur un certain laps de temps. On peut faire la même chose (des moyennes) sur des sorties de modèles climatiques que l’on fait tourner dans le futur avec des forçages estimés du futur, en particulier la concentration en fonction du temps des gaz à effet de serre liés aux émissions anthropiques :

536

Une introduction à la dynamique des océans et du climat

des impacts climatiques plus importants. La compréhension de la grande diversité de ces cycles de vie est l’objet des recherches actuelles. L’atmosphère répond mieux aux SST dans la Warm Pool où la convection est profonde que sur la langue d’eau froide du Pacifique est, de sorte qu’une meilleure prise en compte de ces rétroactions permettrait de rendre compte des asymétries des transitions entre les états El Niño - La Niña. La simulation d’El Niño par les modèles de circulation générale est revue par Guilyardi et al. (2009). La lecture de McPhaden et al. (2006) permettra de voir les nouvelles avancées scientifiques, de découvrir les conséquences d’ENSO sur l’environnement, de constater la difficulté des prévisions.

4.8 Le futur du climat It is hard to make predictions specially about the future. Niels Bohr Ce dernier paragraphe est juste une mise en perspective du sujet de ce livre avec les problèmes sociaux-économiques qui façonnent le futur du climat. Les principaux facteurs physiques et chimiques qui contrôlent le climat de la Terre, la composition de l’atmosphère en gaz à effets de serre, la constante solaire, l’albédo de la planète, les échanges avec l’océan, les sédiments, la biosphère marine et terrestre, etc. ont été décrits. La variabilité naturelle du climat a également été illustrée sur des échelles de temps interannuelles à multidécennales. En ces temps d’incertitude sur le choix des sources d’énergie, le climat futur en réponse aux émissions des gaz à effets de serre devient une question centrale pour tous les habitants de cette planète. Mais si le calcul de ce futur est une question de physique, le forçage fondamental dépend des choix d’énergie d’une population en augmentation constante qui contrôlent les scénarios d’émission des gaz à effets de serre. Cet écart entre les scénarios possibles engendre de grandes variations sur le climat futur, des variations beaucoup plus importantes que les variations de la sensibilité du climat entre les modèles ! Le futur est calculé par des modèles de climat couplant atmosphère, océan, glace, biosphère marine et terrestre. L’état initial (le présent) est connu, mais il faut connaître le forçage du modèle sur disons le siècle prochain. Si le forçage solaire peut être pris constant, le forçage radiatif infrarouge dépend lui de la composition des gaz à effets de serre de l’atmosphère qui dépend des émissions de carbone liées aux activités humaines. La prédiction du temps est un problème de valeurs initiales : si on connaît les conditions initiales à t = 0, on calcule le temps à t = ∆t. Si on ne peut pas prédire le temps au-delà de ∆t = 2-3 jours à cause du chaos de la turbulence, pourquoi espérer prédire le climat ? On l’a vu le climat est une notion statistique. On calcule des moyennes et des déviations standards de température, de précipitation, de vent observées sur un certain laps de temps. On peut faire la même chose (des moyennes) sur des sorties de modèles climatiques que l’on fait tourner dans le futur avec des forçages estimés du futur, en particulier la concentration en fonction du temps des gaz à effet de serre liés aux émissions anthropiques :

536

4. Dynamique du climat

c’est alors un problème à valeurs aux frontières de nature mathématique différente que le problème de valeurs initiales de prédiction du temps. Pour avoir la réponse climatique (statistique) du modèle, on moyenne ses sorties pour obtenir le climat perturbé par le forçage prescrit. Le problème paraît bien posé. La difficulté est que la variabilité naturelle (hors forçage imposé) du système océan-atmosphère n’est pas cantonnée à la fenêtre turbulente du temps (1 semaine dans l’atmosphère, 1 mois dans l’océan). On a vu qu’il existe des fluctuations naturelles allant de quelques mois à quelques dizaines d’années et la difficulté revient alors à séparer le signal moyenné forcé par les scénarios d’émission de la variabilité intrinsèque simulée par le modèle. De nombreux ouvrages traitent de ce sujet que le lecteur pourra approfondir dans Berger (2000), Houghton (2012) et Dessler (2013).

4.8.1

Les 100 prochaines années

L’estimation des émissions futures de carbone va influer de façon majeure sur la prédiction du climat, mais ces émissions dépendent en premier lieu de l’évolution de la consommation de la société. Regardons tout d’abord l’évolution de la population mondiale sur les 12 000 dernières années.

 Figure 4-8-1  L’évolution de la population estimée de –10 000 ans à aujourd’hui. La quantité sur l’axe des ordonnées est le log10 de la population mondiale. On voit apparaître deux régimes de croissance, les 10 000 années passées et les 100 dernières années.

Sur le diagramme de la figure 4-8-1, la croissance de la population montre deux régimes : un régime lent sur les 10 000 ans avant J.-C. avec une croissance annuelle

537

Une introduction à la dynamique des océans et du climat

de 0,045 % (la population double tous les 1 600 ans) et un régime rapide sur les 100 dernières années avec un taux de croissance de 1,8 % (la population double tous les 40 ans). L’énergie de la révolution industrielle est venue de l’exploitation du charbon, des hydrocarbures (les huiles) et du gaz naturel. Le charbon tire son origine des plantes terrestres enterrées dans les marais. Les hydrocarbures (huiles et gaz) viennent de la photosynthèse océanique lorsque des sédiments riches en matières organiques ont été ensuite pris par la tectonique et chauffés à plus de 500 °C à une dizaine de kilomètres de profondeur dans l’intérieur de la Terre. La figure ci-dessous montre les émissions de CO2 à partir des réserves de charbon et hydrocarbures consommées chaque année depuis 1750 et exprimées en millions de tonnes de carbone par an.

 Figure 4-8-2  Les émissions de CO2 depuis 1750, unité 106 TC/an. L’échelle des ordonnées est logarithmique. Source des données : Boden et al. (2010), Carbon Dioxyde Information Analysis Center (CDIAC), US Department of Energy.

La croissance des émissions sur la période 1850-1900 (la droite pointillée) s’est faite au rythme de 4,8 % par an, soit un doublement tous les 15 ans. Croissance de la population mondiale et croissance des émissions des énergies fossiles sont liées puisque la consommation d’énergie dépend directement du nombre d’habitants, mais cette consommation est très hétérogène, un habitant d’Amérique du Nord consommant de 10 à 20 fois plus d’énergie qu’un habitant d’Afrique ou d’Asie. La fabrication d’un produit (une voiture, une peinture artistique, une chanson ou un verre de vin) et la réalisation d’un service (une hospitalisation, la tonte d’une pelouse ou une collecte d’impôts) demandent de l’énergie et comme une partie importante de celle-ci vient du pétrole, la concentration des gaz à effet de serre suit directement l’activité humaine telle que mesurée par le produit national brut (PNB). Les deux

538

4. Dynamique du climat

facteurs les plus influents sur la consommation de pétrole sont donc l’augmentation de la population et la richesse des nations. Pour constituer un scénario d’émission de gaz à effet de serre pour un modèle de climat, on écrira pour chaque pays :

I = P × A × T

4-8-1

où I l’émission cherchée est le produit de P la population, A la richesse par habitant (c’est-à-dire le PNB divisé par P) et T la quantité de dioxyde de carbone émis pour chaque euro de consommation. Le produit I a alors une unité de dioxyde de carbone émis. On découpe ensuite T de la façon suivante :

T = EI × CI

4-8-2

où EI est l’intensité de l’énergie, c’est-à-dire le nombre de joules consommés pour fabriquer un euro de produit et CI l’intensité de carbone, soit la quantité de gaz à effet de serre émise par joule d’énergie consommée. Cette dernière variable mesure la variété de technologies mises en œuvre par un pays pour produire son énergie. La France qui utilise beaucoup l’énergie nucléaire pour produire son électricité a un CI beaucoup plus petit que l’Allemagne, les États-Unis ou la Chine qui dépendent encore beaucoup du charbon. Regardons comment ces quantités évoluent sur les quelques dernières dizaines d’années (1970-2005). La population mondiale P a augmenté de 80 % sur la période (elle augmente actuellement au rythme de 1 % par an, un peu plus faible que le taux estimé sur les cent dernières années de la figure 4-8-1). La richesse par habitant A a aussi augmenté d’environ 80 %. Avec l’amélioration continue des technologies, l’intensité de l’énergie EI a décru d’environ 30 % sur cette même période. En revanche, l’intensité de carbone CI a décru aussi, mais de façon bien plus modeste. Quand on fait le produit dans la relation 4-8-1, on s’aperçoit que les émissions I ont augmenté de 75 % sur la période, une hausse due essentiellement à la croissance de la population P et à l’augmentation de la richesse par habitant A qui ont largement dépassé la petite baisse du facteur T (rapport IPCC, 2007). L’IPCC a défini un certain nombre de scénarios d’évolution des émissions I sur les 100 prochaines années selon des hypothèses variées de croissance de la population, de croissance économique des nations, d’améliorations technologiques et de convergence entre nations riches et pauvres. Ce dernier facteur est important, car un taux de naissances élevé est directement corrélé avec le niveau de pauvreté d’un pays. Le scénario le plus pessimiste donne une croissance annuelle de trois fois la valeur actuelle, soit 30 GtC par an en 2100 et le plus optimiste la réduit de moitié (5 GtC par an). La deuxième étape est de calculer la composition de l’atmosphère en gaz à effet de serre à partir de ces scénarios d’émission. Un modèle de cycle du carbone paramétrise les échanges entre atmosphère, océan et terre selon les processus déjà présentés. En partant d’une concentration de CO2 de 390 ppm, les scénarios de l’IPCC prévoient une fourchette comprise entre 550 et 900 ppm pour 2100. Il y a bien sûr d’autres forçages climatiques à considérer comme le méthane et les aérosols qui requièrent des études parallèles. Au final le forçage radiatif total à la fin du xxie siècle serait

539

Une introduction à la dynamique des océans et du climat

de 4 à 8 W m–2 au-dessus du niveau pré-industriel et 80 % de ce forçage seraient dus au CO2. Ce forçage est ainsi comparable à celui des plus fortes variations des 500 derniers millions d’années – entre état sans glace et état boule de neige. La dernière étape consiste à forcer un modèle de climat avec ces compositions atmosphériques et de calculer les variations de température globales et régionales qui s’établissent. En fait, les 2e et 3e étapes sont de moins en moins séparées, les modèles physiques devenant couplés aux modèles biogéochimiques d’évolution du carbone, le terme d’usine à gaz n’étant d’ailleurs peut-être plus exclusivement réservé aux processus de raffinage du pétrole fossile ! Ces modèles montrent un réchauffement global qui croît à peu près linéairement avec l’émission cumulée de carbone depuis le niveau préindustriel. L’augmentation de la température globale varierait entre 1,8 °C et 3,6 °C sur la prochaine centaine d’années selon ces scénarios d’émission. Si la composition de l’atmosphère restait comme aujourd’hui, ces modèles prédisent une augmentation supplémentaire de seulement 0,4 °C sur le siècle prochain. Notez que ces modèles de climat fournissent des prédictions différentes entre eux, car les processus physiques et biogéochimiques ne sont pas représentés exactement de la même façon, leurs méthodes numériques sont différentes et chaque modèle a aussi sa propre variabilité interne (selon l’état plus ou moins dissipatif de la représentation numérique des équations primitives). Les variations de températures prédites changent à peu près d’un facteur deux entre les modèles les plus extrêmes, ce qui donne une mesure de l’incertitude de la modélisation en physique du climat.

4.8.2

Et après ?

Aujourd’hui, environ 50 % du carbone émis dans l’atmosphère est éliminé en un an environ par absorption de la couche de mélange océanique et de la biosphère terrestre. Si on arrête l’injection de carbone aujourd’hui, l’équilibre du carbone dans l’océan se fera sur l’échelle de temps de la circulation océanique, soit le millier d’années. La chimie des carbonates permet de prédire que 80 % du carbone émis dans l’atmosphère depuis la période pré-industrielle finira dans l’océan. Mais l’efficacité du processus chimique de transformation du CO2 deviendra progressivement moins efficace avec la diminution de la base, l’ion carbonate CO32– neutralisé par l’acide H2CO3* (le pCO2|ATM qui augmente). L’océan absorbe du CO2 réduisant le réchauffement radiatif associé mais son pH décroît et 4-4-21 montre alors que la contribution relative de CO32– au carbone total CT diminue, augmentant le facteur de Revelle B. L’augmentation de B réduit l’efficacité avec laquelle l’océan peut absorber le CO2 et une fraction plus grande restera dans l’atmosphère. La diminution des carbonates et du pH aura des conséquences négatives pour la synthèse du carbonate de calcium des coraux et des organismes, ce que l’on appelle l’acidification de l’océan. L’estimation de ces 80 % de carbone captés par l’océan en équilibre avec l’atmosphère à B constant s’explique de la façon suivante. Supposons que l’on injecte δNCO2 moles de CO2 dans l’atmosphère. Si la variation du rapport de mélange

540

4. Dynamique du climat

volumique du CO2 est δY et NATM le nombre total de moles de l’air, la relation 4-1-3 implique : ATM = δYN δNCO 2 ATM

À l’équilibre entre océan et atmosphère : δpCO2 OC = δpCO2 ATM = δY p ATM La quantité de carbone injectée dans l’océan est : δNOC C = δC T . m OC Ainsi le rapport des stocks océaniques et atmosphériques est : r=

ATM δNCO δp N ATM 2 = CO2 OC δC T p ATM.mOC δNC

Mais pour de petites variations, on écrira : δpCO2 ∂pCO2 p ≈ = B CO2 δC T ∂C T CT De sorte que r devient : r=

pCO2 N ATM B C T p ATM.mOC

Avec les valeurs de 1995 pCO2 = 365 ppmv, CT = 2 256 µmole kg–1, mOC = 1,35 1021 kg, NATM = 1,8 1020 moles d’air, B = 10 et pATM = 1, on trouve r = 0,216 et la fraction prise par l’océan est alors : f=

δNOC 1 C = = 82% ATM r + 1 + δNCO 2

δNOC C

Pour aller plus loin, Archer et al. (1997) ont estimé l’action conjointe des différents processus qui nettoient l’atmosphère, la dissolution dans l’océan (ci-dessus), mais aussi la dissolution des carbonates des sédiments marins, et le lessivage des roches en fonction de la quantité de CO2 relâchée (de 1 000 à 4 500 GtC). La dissolution du CO2 dans l’océan diminue effectivement un peu (de 80 à 70 %) sur quelques centaines d’années. Le relais est ensuite pris par l’immense réservoir de carbonate de calcium au fond des mers dont la dissolution va permettre de contrer la diminution des carbonates dans l’océan juste mentionnée. Archer et al. (1997) estiment que 10 à 15 % de carbone supplémentaire pourraient être captés par la réaction avec le carbonate de calcium des sédiments océaniques sur quelques milliers d’années (et de 3 à 8 % par la réaction avec le carbonate de calcium terrestre). Et sur des échelles de temps encore plus grandes, les 100 milliers d’années, le lessivage chimique sur Terre des roches silicatées intervient et comme ce réservoir est encore beaucoup plus grand que toutes les réserves connues de pétrole fossile, tout le CO2 émis disparaîtra de l’atmosphère.

541

Une introduction à la dynamique des océans et du climat

L’impact sur la température de la Terre sur le millier d’années a été simulé par Solomon et al. (2009) dans un modèle de climat en imposant le scénario suivant : les émissions de CO2 augmentent dans l’atmosphère de 2 % par an avant de stopper net lorsque la concentration a atteint respectivement des valeurs cibles de 450 ppm … 850 ppm ou encore 1 200 ppm.

Figure 4-8-3 La concentration de CO2 calculée dans l’atmosphère en fonction du temps en haut, la température globale de surface en bas. Source : Solomon et al. (2009).

Après la fin des émissions, on observe sur la figure 4-8-3 que la concentration de CO2 prédite dans l’atmosphère chute assez lentement sur une échelle de temps de 200-300 ans. En revanche, l’anomalie chaude de température terrestre créée pendant la phase d’émission reste pratiquement constante sur le millier d’années. Au moins deux facteurs expliquent cette différence : (i) la grande inertie thermique de l’océan dont le contenu de chaleur évolue sur l’échelle de temps de la circulation océanique (le millier d’années). Le contenu de chaleur océanique continue de chauffer l’atmosphère alors que le forçage radiatif lié au CO2 diminue. (ii) La perte des surfaces de glaces pendant la phase de réchauffement ne se reconstitue pas spontanément et l’albédo réduit s’oppose à la tendance au refroidissement.

542

4. Dynamique du climat

Combien de temps les émissions de CO2 peuvent-elles continuer ? L’estimation des réserves du sous-sol va de 1 500 GtC à plus de 5 000 GtC bien au-dessus des 300 GtC qui ont déjà été émises sur les deux derniers siècles. Ces résultats montrent que les anomalies de température occasionnées par la consommation totale de ces réserves persisteraient sur des échelles de temps allant du siècle à quelques milliers d’années. Évidemment le réchauffement mesuré par la température globale n’est qu’une toute petite partie du problème du changement climatique. La question centrale est de savoir comment les climats régionaux vont changer et cette question est autrement plus complexe puisqu’elle demande de trouver aux moyennes latitudes par exemple comment la turbulence géostrophique va évoluer. Cette question a été abordée il y a déjà plus de vingt ans par Hall, Hoskins et Valdes (1994) qui forcèrent un modèle d’atmosphère pendant une quinzaine d’années sous les conditions actuelles, une simulation de contrôle, puis en effectuant la même simulation perturbée par un doublement de CO2. Les deux simulations permettent de comparer les statistiques de chacune, l’état moyen mesuré par la température moyenne en chaque point et le storm track, la variance de température ou l’énergie cinétique. Le gradient nord-sud de température moyenne |dT/dy| est un indicateur climatique précieux appelé baroclinicité. La relation du vent thermique A3-3 lie directement la baroclinicité et le cisaillement vertical du vent zonal moyen. Par ailleurs, la discussion du § 4.1.4.12 a montré le lien dynamique entre le cisaillement vertical moyen et les ondes générées par instabilité barocline, le taux de croissance de Eady 4-1-7 fournissant un cadre conceptuel pour associer les modifications de l’état moyen et de la turbulence. Le doublement de CO2 mène aux conclusions suivantes : – Une amplification polaire du réchauffement est observée (+5,7 °C en hiver) sous l’action du feedback positif albédo-glace-neige, mais pas seulement. En effet, les pertes infrarouges augmentent plus aux basses latitudes qu’aux hautes compte tenu de la forme de la loi de Stefan-Boltzmann en T4. Cette amplification polaire induit une diminution de la baroclinicité au niveau des basses couches, essentiellement. – Les latitudes tropicales se réchauffent en altitude cette fois (+5,4 °C à 300 hPa) induisant une augmentation de la baroclinicité sous l’action du feedback positif de la vapeur d’eau. – Le contenu en vapeur d’eau augmente globalement dû à l’augmentation de la pression de vapeur saturante d’une atmosphère plus chaude (en revanche l’humidité relative reste à peu près constante). – En réaction à ce changement d’état moyen, l’énergie cinétique de la turbulence du storm track augmente de 10 %. On a vu précédemment que les zones de génération des dépressions se situent sur le Gulf Stream et le Kuro-Shio respectivement. Sous doublement de CO2, le changement le plus spectaculaire est que le maximum du storm track s’étend maintenant beaucoup plus loin en aval sur l’Atlantique nord-est et l’Europe de l’Ouest. Compte tenu des retombées pratiques de la question posée, des simulations numériques toujours de plus haute résolution et toujours plus complètes au niveau des

543

Une introduction à la dynamique des océans et du climat

processus représentés continuent de s’y attaquer. Yin et al. (2005) ont ainsi comparé les sorties de quinze simulations de modèles couplés océan-atmosphère réalisées dans le cadre du Program for Climate model Diagnosis and Intercomparison, une situation de contrôle pré-industrielle et une situation perturbée où le CO2 atteint 720 ppm en 2100. Même si une certaine variabilité apparaît entre les différents modèles, l’énergie cinétique de la turbulence des transitoires entre 2 et 8 jours montre une intensification, un déplacement vers les pôles et un déplacement en altitude des storm tracks de la situation perturbée. L’article confirme le lien entre ces variations et celles du taux de croissance de Eady. Les structures des précipitations et de la tension de vent sur l’océan migrent également vers les pôles.

4.8.3

Les solutions

Il n’y a guère de doute sur les prédictions des anomalies de la température globale de la planète selon les divers scénarios d’émission de l’IPCC, la physique qui est derrière est juste trop solide. Les incertitudes sur cette prédiction relèvent davantage du taux de croissance des activités humaines et du développement démographique. En revanche tout ou presque reste encore à faire pour préciser l’impact régional du changement climatique comme la modification des rails de tempêtes (storm tracks) et les précipitations. Comme ces éléments régionaux relèvent du régime de la turbulence et des interactions océan-atmosphère, ils sont beaucoup plus difficiles à prévoir. En revanche, on peut déjà essayer de les observer le mieux possible. L’évolution de la circulation océanique, la route de la dérive nord-atlantique, la production d’eau profonde sont gérées par des bifurcations au sens de la théorie des catastrophes et encore une fois l’enregistrement des variations de température-salinité pour déceler des précurseurs reste un pré-requis. Bien que ce ne soit pas l’objectif du livre, il n’est pas inapproprié de compléter au moins brièvement le problème de la régulation des sources des gaz à effets de serre et donc des énergies alternatives. L’éclairage porté récemment sur l’attention aux générations futures a introduit la notion de développement durable (sustainable development). L’exigence est certes de satisfaire les besoins actuels de l’humanité, mais cela ne saurait être au prix du sacrifice des générations futures. La démographie est arrivée à un point tel que des matières premières importantes comme les énergies fossiles peuvent disparaître en seulement quelques siècles. Nul ne doute que l’exploitation de l’environnement ne soit vitale pour la survie humaine, mais sa conservation l’est tout autant pour les habitants des millénaires suivants. Pour qui s’intéresse au climat global de la Terre, les solutions doivent s’attacher à réduire les sources, les émissions des énergies carbonées, et augmenter les puits. Le problème de toutes ces solutions est les « effets à côté », ce que les économistes appellent les externalités qui sont discutées au chapitre 5 du livre de Levitt et Dubner (2009). Dans un système non linéaire comme l’est le système Terreatmosphère-océan-biosphère, il n’est guère possible de savoir si le côté positif de ces externalités l’emportera sur le côté négatif.

544

4. Dynamique du climat

4.8.3.1

Diminuer les sources

Ce paragraphe suit d’assez près la présentation lucide de Dessler (2013). Les facteurs qui contrôlent la source sont la démographie P, la richesse par habitant A et la technologie T dans la relation 4-8-1. Mais tous ces facteurs ne sont pas indépendants. On sait par exemple que les pays les plus industrialisés ont des taux de natalité plus faibles et l’intérêt climatique demanderait donc de réduire les inégalités entre pays riches et pauvres de façon à réduire la croissance de la population globale. Diminuer la population P ou la richesse des nations est difficile à décréter dans les démocraties occidentales et ne peut donc relever que d’une décision individuelle. Ne reste plus que les facteurs EI (le nombre de joules consommés pour fabriquer un euro de produit) et CI (la quantité de gaz à effet de serre émise par joule d’énergie consommée) dans la relation 4-8-2. Toutes les productions d’énergie alternatives qu’elles soient d’origine nucléaire, solaire, géothermique, éolienne ou hydrolienne vont contribuer à diminuer le CI. 1) Parmi toutes les technologies pour produire de l’énergie, celle qui présente le moins d’effets à côté est l’énergie solaire. La figure 4-2-6 indique que le flux solaire moyen arrivant sur la surface terrestre est de ~160 W m–2. En multipliant par la surface de la sphère 4πrT2 (rT = 6 370 km), le flux solaire incident sur la Terre atteint ~ 8,104 TW (1 TW, térawatt = 1012 W). Notez sur la figure 4-2-6 que près de la moitié de cette énergie solaire est utilisée pour évaporer l’eau des océans dont une partie retombe en précipitations sur la terre solide. Le flux solaire incident représente plus de 5 000 fois la consommation d’énergie mondiale qui se situe autour de 15 TW. Prenant en compte l’intermittence jour-nuit, les nuages, le solaire peut fournir 10 à 20 W m–2. Couvrir 1 million de km2 permettrait de satisfaire la consommation mondiale. Cela paraît beaucoup mais ce n’est finalement que 0,2 % de la surface terrestre. 2) L’énergie du vent a été utilisée par les Hollandais depuis des centaines d’années. Une éolienne est capable de fournir 6 MW, mais l’intermittence du vent réduit cette valeur au tiers, soit 2 MW. On estime alors qu’un parc d’éoliennes peut générer 2 W m–2. On parle alors de quelques millions d’éoliennes qui couvrent 1,5 % de la surface terrestre pour satisfaire la consommation mondiale. 3) L’énergie des courants marins opère sur le même principe que l’éolien avec des pales placées dans des veines de courants puissantes. Ces hydroliennes en développement sont plutôt vues comme des solutions locales pour assurer les besoins énergétiques d’une île par exemple. L’environnement marin pose en effet des problèmes considérables, biofouling, corrosion, états de mer. Par ailleurs les usines marée-motrices comme celle de la Rance créent des modifications trop importantes de l’environnement des estuaires pour être généralisées. Aujourd’hui solaire, éolien et courants marins couvrent 5 % de la production d’électricité. 4) L’énergie de la biomasse consiste à faire pousser des plantes et à les brûler pour produire de l’énergie. Photosynthèse et combustion étant des réactions chimiques inverses, le bilan de carbone est nul. En revanche la photosynthèse n’est pas très

545

Une introduction à la dynamique des océans et du climat

efficace et limite la puissance du procédé à 0,6 W m–2. Assurer les besoins énergétiques mondiaux nécessiterait de doubler la surface cultivée actuelle et pour faire de la place, il faudra couper encore plus de forêts, a priori pas une très bonne idée pour satisfaire les besoins globaux. 5) L’énergie hydroélectrique (les barrages) génère 16 % de l’électricité mondiale, mais cela paraît difficile de l’augmenter significativement. 6) L’intérieur de la Terre est le siège de réactions nucléaires et la géothermie utilise cette chaleur du manteau terrestre (apparente lors d’éruptions volcaniques et autres geysers). La Terre perd de l’ordre de 40 TW par conduction à sa surface, ce qui donne un flux géothermique assez diffus de ~ 0,08 W m–2, 2 000 fois plus faible que le flux solaire incident. La température augmente de ~3 °C par 100 m de profondeur dans la lithosphère loin des frontières entre plaques tectoniques, mais peut atteindre 100 °C par 100 m dans les régions volcaniques. Au fond du puits le plus profond de 12 km foré en Russie, la température atteint 180 oC. Lorsque la croûte terrestre est fine comme en Islande, cette énergie peut être utilisée beaucoup plus facilement pour le chauffage ou pour générer de l’électricité. Aujourd’hui sa contribution dans la consommation d’énergie mondiale est faible, 0,1 %-0,2 %, mais pourrait augmenter significativement. 7) L’énergie nucléaire produit près de 11 % de l’électricité mondiale. Les trois quarts de l’électricité française proviennent du nucléaire. Deux difficultés y sont associées, la résistance des réacteurs aux risques sismiques (tremblements de terre, tsunamis) que l’on peut minimiser en choisissant les emplacements dans des zones géologiquement stables, tant pour les réacteurs que pour les déchets nucléaires que les gens ne veulent juste pas avoir près de chez eux. 8) Les réserves mondiales de charbon sont très importantes. Les solutions de captage et de stockage du dioxyde de carbone en sortie des centrales thermiques et moteurs thermiques pourraient être développées pour traiter le problème des centrales à charbon qui produisent 40 % de l’électricité mondiale. On estime que le captage et le stockage du CO2 augmenteraient le coût de l’énergie produite dans une fourchette de 10 à 40 %. Reste que pour aller dans la direction de ces solutions alternatives, les économistes s’accordent à dire qu’il faut mettre une taxe aux émissions de CO2 de façon à ce qu’un individu, une entreprise ou un pays puisse voir un intérêt direct dans la réduction de ses propres émissions. Comme le CO2 n’a pas de frontières et que sa concentration est quasi uniforme à la surface de la Terre, la levée de telles taxes ne peut être que globale, organisée sous l’égide d’organisations intergouvernementales. Ce qui en fait toute la difficulté.

4.8.3.2

Augmenter les puits

Les gens ne manquent pas d’idées pour proposer toutes sortes de solutions pour stopper le réchauffement climatique, ce que l’on appelle le géo-engineering : (i) la couverture de Budyko consiste à injecter du dioxyde de soufre haut dans la stratosphère pour re-créer l’effet d’une éruption volcanique. Celle du Pinatubo du

546

4. Dynamique du climat

15 iuin 1991 a causé un refroidissement global de 0,5 °C dû à l’augmentation de l’albédo, (ii) jouer sur le rôle refroidissant des nuages en favorisant leur formation sur les océans en injectant de l’eau de mer dans l’air, le sel de cet aérosol augmentant les noyaux de condensation pour la pluie, (iii) ensemencer l’océan en fer car c’est un élément limitant de la production primaire dans certains bassins océaniques, (iv) capter puis séquestrer le dioxyde de carbone quelque part, etc. Dans tous les cas une solution aura forcément des conséquences négatives qui ne plairont pas au voisin exacerbant les tensions géopolitiques. Comme il n’existe qu’une seule atmosphère et un seul océan, l’échec n’est juste pas permis. Compte tenu des réactions politiques prévisibles au géo-engineering, les processus naturels que la Terre a elle-même expérimentés pendant des millions d’années paraissent préférables. Parmi ceux-ci la reforestation paraît une solution aux multiples avantages dont le premier serait évidemment de stopper la déforestation des forêts tropicales qui correspond à un flux vers l’atmosphère de 1,7 GtC/an, presque autant que la contribution de l’océan pour nettoyer l’atmosphère. Mais la reforestation n’est un puits de carbone que si les arbres plantés ne sont pas laissés à pourrir sur place en fin de vie puisque la reminéralisation remettrait le dioxyde de carbone et le méthane dans le circuit. L’usage du bois pour la construction permet de stocker le carbone et donc d’éviter cette dégradation. Comme la fabrication du ciment est elle-même une source importante d’émission de gaz à effets de serre, remplacer le béton par le bois permet de cumuler les avantages. La reforestation permet aussi le contrôle de l’eau dans les sols. La biologie de la plante est capable de tirer l’eau du sol rapidement et de laisser transpirer l’eau à travers ses feuilles. Elle fait obstacle à l’érosion des sols par l’étendue (la canopée) de la zone replantée. L’effet le plus important concerne l’albédo qui est réduit d’un facteur deux pour une région plantée par rapport à celui d’un désert (le désert étant plus réfléchissant). Un sol planté absorbe donc plus de chaleur le jour qu’il ne va en restituer la nuit, tempérant les contrastes thermiques. Une zone désertique insuffisamment chauffée ne créera pas de convergences d’air de basses couches nécessaires aux ascendances de l’air et donc aux précipitations. On estime par exemple que la moitié de la pluie qui tombe sur le Bassin amazonien provient de l’évapo-transpiration de la forêt ellemême. L’argument développé par Charney dès 1975 en explication aux sécheresses du Sahel sur plusieurs décennies illustre ce point : la suppression de la végétation expose le sol sableux qui a un albédo plus grand qu’une surface végétale. La surface absorbe alors moins de radiation solaire, l’atmosphère se trouvant moins chauffée par-dessous. Ce refroidissement de l’atmosphère est compensé par une subsidence adiabatique : l’air descend et se réchauffe par compression pour stabiliser la colonne d’air. Mais les précipitations demandent l’inverse, des ascendances par convergence de basses couches, et elles vont donc être réduites et la végétation encore fragilisée, au final un feedback positif d’origine biophysique entre végétation et pluie. Même si on sait aujourd’hui que la séquence des processus est plus complexe, l’idée de Charney a ouvert la voie pour intégrer des modules de végétation dans les modèles de climat. La nouvelle de J. Giono, L’homme qui plantait des arbres - The man who planted trees, parue à New York en 1953 est remarquablement prémonitoire. Les estimations des puits de carbone de la biosphère terrestre et les meilleures pratiques

547

Une introduction à la dynamique des océans et du climat

d’entretien des forêts sont vraiment des sujets très importants (Dixon et al., 1994 ; Bellassen et Luyssaert, 2014). Si Darwin a montré comment les espèces s’adaptent à l’environnement pour survivre, Lovelock a renversé l’argument de Darwin en émettant « l’hypothèse Gaia » que la vie elle-même régule le climat de la Terre. L’interaction entre vie, oxygène et dioxyde de carbone sur la Terre ou les arbres de Giono à l’échelle locale en sont des exemples et seule une généralisation trop systématique du propos de Lovelock peut être gênante. Le lecteur intéressé par ces liens encore trop peu étudiés entre physique et biologie pourra expérimenter le système dynamique heuristique à deux variables du Daisyworld de Watson et Lovelock (1983). En tout cas, l’Homme d’aujourd’hui a toujours la possibilité de se conformer à l’hypothèse de Lovelock en modifiant ses propres sources d’énergie !

Conclusion Cette quatrième partie n’a été volontairement motivée que par deux observations, la courbe de Keeling de croissance du CO2 du début des années 1960, une simple courbe qui résume le forçage anthropique du système océan-glace-atmosphère (figure 1-19) et l’observation de l’augmentation du niveau de la mer aux ports de Brest et San Francisco (figure 1-18). Une partie de ce Tome 2 montre qu’un lien de causalité existe bel et bien entre ces deux courbes dont l’origine provient simplement de la loi de Planck qui explique comment certains gaz de l’atmosphère interagissent avec le rayonnement infrarouge émis par la Terre. Mais la réponse anthropique et la variabilité climatique naturelle sont mélangées, chacune évoluant sur sa propre échelle de temps accompagnée de sa propre signature spatiale. Le calcul de l’effet radiatif du CO2 prédit une variation de la température de surface de la Terre de l’ordre du degré par siècle, à peu près ce qui est observé. Pour nous qui observons couramment des changements de température ∆T d’un degré par heure, la difficulté d’admettre ce résultat est réelle puisque plus de cinq ordres de grandeur séparent la variation de température sur une heure de la variation sur un siècle mesurée par ∆T/∆t. La réponse climatique est vraiment petite devant la variabilité naturelle des compartiments atmosphère et océan. Mais d’autres signaux comme le niveau de la mer ou la surface du compartiment glace (glaciers et banquises) vont dans le même sens et constituent des thermomètres intégrateurs sensibles aux longues échelles de temps et d’espace de la réponse au forçage anthropique. Et quand maintenant on met ce petit signal en perspective avec les reconstructions des températures moyennes sur les deux mille ans passés, il devient le plus gros signal (figure 4-6-27). Si la température augmente en moyenne d’un degré par siècle, quel est l’effet de ce réchauffement sur la variabilité du climat local façonné par le rail des tempêtes des moyennes latitudes : comment la température du petit village de l’Est de la France dont l’hiver oscillait il y a un siècle entre –5 °C et +5 °C varie-t-elle aujourd’hui ? Si l’écart entre maximum et minimum se conserve, elle varierait entre – 4 °C et +6 °C quand on ajoute naïvement ce degré. Mais cet écart se réduit-il ou augmente-t-il ?

548

Une introduction à la dynamique des océans et du climat

d’entretien des forêts sont vraiment des sujets très importants (Dixon et al., 1994 ; Bellassen et Luyssaert, 2014). Si Darwin a montré comment les espèces s’adaptent à l’environnement pour survivre, Lovelock a renversé l’argument de Darwin en émettant « l’hypothèse Gaia » que la vie elle-même régule le climat de la Terre. L’interaction entre vie, oxygène et dioxyde de carbone sur la Terre ou les arbres de Giono à l’échelle locale en sont des exemples et seule une généralisation trop systématique du propos de Lovelock peut être gênante. Le lecteur intéressé par ces liens encore trop peu étudiés entre physique et biologie pourra expérimenter le système dynamique heuristique à deux variables du Daisyworld de Watson et Lovelock (1983). En tout cas, l’Homme d’aujourd’hui a toujours la possibilité de se conformer à l’hypothèse de Lovelock en modifiant ses propres sources d’énergie !

Conclusion Cette quatrième partie n’a été volontairement motivée que par deux observations, la courbe de Keeling de croissance du CO2 du début des années 1960, une simple courbe qui résume le forçage anthropique du système océan-glace-atmosphère (figure 1-19) et l’observation de l’augmentation du niveau de la mer aux ports de Brest et San Francisco (figure 1-18). Une partie de ce Tome 2 montre qu’un lien de causalité existe bel et bien entre ces deux courbes dont l’origine provient simplement de la loi de Planck qui explique comment certains gaz de l’atmosphère interagissent avec le rayonnement infrarouge émis par la Terre. Mais la réponse anthropique et la variabilité climatique naturelle sont mélangées, chacune évoluant sur sa propre échelle de temps accompagnée de sa propre signature spatiale. Le calcul de l’effet radiatif du CO2 prédit une variation de la température de surface de la Terre de l’ordre du degré par siècle, à peu près ce qui est observé. Pour nous qui observons couramment des changements de température ∆T d’un degré par heure, la difficulté d’admettre ce résultat est réelle puisque plus de cinq ordres de grandeur séparent la variation de température sur une heure de la variation sur un siècle mesurée par ∆T/∆t. La réponse climatique est vraiment petite devant la variabilité naturelle des compartiments atmosphère et océan. Mais d’autres signaux comme le niveau de la mer ou la surface du compartiment glace (glaciers et banquises) vont dans le même sens et constituent des thermomètres intégrateurs sensibles aux longues échelles de temps et d’espace de la réponse au forçage anthropique. Et quand maintenant on met ce petit signal en perspective avec les reconstructions des températures moyennes sur les deux mille ans passés, il devient le plus gros signal (figure 4-6-27). Si la température augmente en moyenne d’un degré par siècle, quel est l’effet de ce réchauffement sur la variabilité du climat local façonné par le rail des tempêtes des moyennes latitudes : comment la température du petit village de l’Est de la France dont l’hiver oscillait il y a un siècle entre –5 °C et +5 °C varie-t-elle aujourd’hui ? Si l’écart entre maximum et minimum se conserve, elle varierait entre – 4 °C et +6 °C quand on ajoute naïvement ce degré. Mais cet écart se réduit-il ou augmente-t-il ?

548

4. Dynamique du climat

Est-ce que la durée des périodes chaudes augmente, diminue ? Qu’en est-il des précipitations ? Tout ceci peut être observé, mais il reste dans un deuxième temps à trouver l’origine des variations observées quand elles sont significatives, un problème beaucoup plus difficile qui demande de connaître comment la turbulence géostrophique qui façonne le temps local répond au changement global. C’est un des objectifs de la recherche actuelle. L’indice AMO de la figure 4-7-8 montre que les SST de l’Atlantique nord sont actuellement sur un maximum. Si le cycle persiste, un refroidissement sur une trentaine d’années (une demi-période) est attendu. Et puis il y a ces événements ENSO d’origine tropicale, eux aussi chaotiques sur des échelles de 3 à 7 ans, avec leurs répercussions (téléconnexions) aux moyennes latitudes. Sur les échelles de temps de la dizaine de milliers d’années, le forçage solaire à 65 °N augmente (figure 4-6-6) et le climat devrait alors rester sur la branche chaude du modèle de Paillard. Mais il peut y avoir aussi des surprises, comme l’affaiblissement de la circulation thermohaline dans l’Atlantique nord et l’existence même de cette bifurcation (changement de régime) demande de suivre régulièrement l’évolution des différences de salinité entre tropiques et régions polaires. Comme l’acteur majeur de ce livre reste l’océan, concluons par lui. Par ses transports méridiens de chaleur, par sa capacité à absorber une part importante du dioxyde de carbone d’origine anthropique, par sa sensibilité aux flux d’eau douce dans les régions subpolaires, l’océan est l’acteur majeur du climat de cette planète pour des échelles de temps allant de quelques années à quelques milliers d’années. L’étude de la dynamique des mouvements océaniques qui contrôlent les transferts de chaleur entre latitudes, n’a vraiment démarré que récemment (dans les années 1970) et elle s’est trouvée confrontée à trois difficultés. La première est que l’océan reste un milieu hostile, des zones immenses n’ont pas encore vu un seul instrument de mesure et le besoin d’exploration demeure bien réel (notamment dans l’Austral). La deuxième est que l’essentiel de l’énergie de l’océan réside dans des tourbillons océaniques, mouvements turbulents de petite échelle, de l’ordre de la centaine de kilomètres, dont la physique est semblable à bien des égards à celle des dépressions atmosphériques des moyennes latitudes. La troisième est qu’une expérience climatique déclenchée par les besoins en énergie des activités humaines est en cours. La réponse à ces trois difficultés est assez simple, il faut beaucoup plus d’observations : si l’océan est une composante si essentielle du système climatique, il faut remarquer que la couverture globale de la surface des océans par altimétrie satellitaire ne date que d’une trentaine d’années et celle de l’intérieur par les flotteurs Argo que d’une quinzaine d’années. Les observations directes de l’océan profond en dessous de 2 000 m restent encore rares. Pourtant le suivi du climat sur les échelles de temps naturelles des mouvements océaniques de l’ordre de quelques décennies pour les couches de surface à plusieurs siècles pour l’océan profond demande ces observations. Pour enregistrer ces variations climatiques, il faut des observations calibrées, de la plus haute qualité possible, permettant aux générations futures de s’appuyer dessus pour améliorer la compréhension du fonctionnement du système océan-atmosphère, et notamment savoir comment turbulence atmosphérique

549

Une introduction à la dynamique des océans et du climat

et océanique répondent au changement climatique. Comme le répète volontiers C. Wunsch, un des pionniers de l’expérience WOCE (World Ocean Circulation Experiment), “an observation not taken today is lost forever” – une observation qui n’est pas faite aujourd’hui est perdue à jamais. Rendre disponible facilement de longues séries de données climatiques de très haute qualité pourrait être notre contribution aux futurs habitants de cette planète. Les articles de Baker et al. (2007) et Wunsch et al. (2013) détaillent l’importance de cet objectif qui nécessite une approche intergénérationnelle pour privilégier le financement adéquat sur de longues périodes.

La vignette ci-dessus se trouve sur la couverture de la publication en 1606 de l’observation de la supernova (stella nova) par Kepler qui nous rappelle ainsi que les perles scientifiques se trouvent dans le fumier des observations. Observation et expérience (reproductible) sont à l’origine de la démarche scientifique qui s’est s’élaborée plus clairement au tournant du xViie siècle. À l’échelle du temps de l’évolution climatique, c’était juste hier. Pour autant, l’acquisition de données de haute qualité, si nécessaire soit-elle, n’est pas suffisante. Il faut faire parler les données et l’approche dynamique s’avère alors indispensable. K. Hasselmann (2003), un des pionniers des modèles de climat, a bien résumé la nécessité de cette démarche de hiérarchies de modèles : But how confidence can be established in the realistic representation of the basic processes of a complex model? … A standard approach is model reduction: the simplification of a model to a level at which the internal workings of the model do indeed begin to become transparent and understandable. But then we must demonstrate that one has not thrown the baby out with the water bath and that the model world that one now understands is still a reasonable approximation of the real world. Mais comment avoir confiance dans la représentation réaliste des processus de base d’un modèle complexe ? … Une approche standard est la réduction de modèle : le modèle est simplifié jusqu’à un niveau où les rouages internes du modèle deviennent transparents et compréhensibles. Mais il faut alors démontrer que l’on n’a pas jeté le bébé avec l’eau du bain et que le monde du modèle que l’on comprend est encore une approximation raisonnable du monde réel. En partant toujours du plus simple, les modèles conceptuels ont l’immense avantage de vouloir relier cause et effet. Ils font naître des idées et des hypothèses qui peuvent être ensuite testées dans les modèles de climat plus complets. De quoi d’ailleurs pourrait-on bien parler aux étudiants si cette approche GFD à la Newton

550

4. Dynamique du climat

n’était pas poursuivie ? Il y a beaucoup d’observations océaniques encore insuffisamment expliquées et les progrès viendront toujours de la force des questions soulevées par les observations : Newton sous son arbre qui voit la pomme tomber et se demande pourquoi la Lune, elle, ne tombe pas, Nansen qui voit que les icebergs ne dérivent pas dans le lit du vent et Ekman qui saisit que la rotation de la Terre en est la cause, Stommel qui se demande (à la suite de bien d’autres) pourquoi les courants océaniques comme le Gulf Stream sont intensifiés sur le bord Ouest des bassins et l’explique avec le modèle le plus simple qui soit, incluant la rotation et la forme sphérique de la Terre, le vent puis Keeling qui prévoit les conséquences du changement global à partir de l’observatoire du CO2 sur l’île d’Hawaii. Notre univers ne serait qu’une petite affaire sans grand intérêt s’il n’offrait pas quelque chose à découvrir à chaque génération. La nature ne révèle pas ses mystères une fois pour toutes. Sénèque, Livre 7, Questions naturelles.

Lectures additionnelles 1. Biogéochimie  Broecker W. S. & T. H. Peng, 1982, Tracers in the Sea, Lamont Doherty Geological Observatory (disponible librement sur le site du Lamont). Ce livre précurseur écrit par les pionniers du domaine décrit et explique l’essentiel des distributions des traceurs biogéochimiques dans l’océan et en particulier le carbone. Copin-Montégut, G., 1996, Chimie de l’eau de Mer, Institut océanographique. Une introduction complète à la chimie de l’eau de mer et notamment à la chimie des carbonates pour des étudiants en 1re année de Master. Euzen A., F. Gaill, D. Lacroix, P. Curry, 2017, L’océan à découvert, CNRS Editions, 322 pp. Le livre contient plusieurs articles sur la biogéochimie, le cycle du carbone, le plancton et la pompe biologique. Frontier, S., D. Pichot-Viale, A. Leprêtre, D. Davoult, C. Luczak, 2004, Écosystèmes, structure, fonctionnement, évolution. Dunod, 549 pp. Un ouvrage pédagogique sur les écosystèmes pour les étudiants en Capes, Master, Agrégation. Jacques, G., 2004, L’écologie du plancton. Lavoisier, 282 pp. L’ouvrage de fond sur le plancton. Millero, F. J., 2013, Chemical Oceanography, CRC Press, 4th edition. Une exposition de la composition chimique de l’eau de mer et des méthodes de mesures décrites par un des spécialistes de la discipline.

551

4. Dynamique du climat

n’était pas poursuivie ? Il y a beaucoup d’observations océaniques encore insuffisamment expliquées et les progrès viendront toujours de la force des questions soulevées par les observations : Newton sous son arbre qui voit la pomme tomber et se demande pourquoi la Lune, elle, ne tombe pas, Nansen qui voit que les icebergs ne dérivent pas dans le lit du vent et Ekman qui saisit que la rotation de la Terre en est la cause, Stommel qui se demande (à la suite de bien d’autres) pourquoi les courants océaniques comme le Gulf Stream sont intensifiés sur le bord Ouest des bassins et l’explique avec le modèle le plus simple qui soit, incluant la rotation et la forme sphérique de la Terre, le vent puis Keeling qui prévoit les conséquences du changement global à partir de l’observatoire du CO2 sur l’île d’Hawaii. Notre univers ne serait qu’une petite affaire sans grand intérêt s’il n’offrait pas quelque chose à découvrir à chaque génération. La nature ne révèle pas ses mystères une fois pour toutes. Sénèque, Livre 7, Questions naturelles.

Lectures additionnelles 1. Biogéochimie  Broecker W. S. & T. H. Peng, 1982, Tracers in the Sea, Lamont Doherty Geological Observatory (disponible librement sur le site du Lamont). Ce livre précurseur écrit par les pionniers du domaine décrit et explique l’essentiel des distributions des traceurs biogéochimiques dans l’océan et en particulier le carbone. Copin-Montégut, G., 1996, Chimie de l’eau de Mer, Institut océanographique. Une introduction complète à la chimie de l’eau de mer et notamment à la chimie des carbonates pour des étudiants en 1re année de Master. Euzen A., F. Gaill, D. Lacroix, P. Curry, 2017, L’océan à découvert, CNRS Editions, 322 pp. Le livre contient plusieurs articles sur la biogéochimie, le cycle du carbone, le plancton et la pompe biologique. Frontier, S., D. Pichot-Viale, A. Leprêtre, D. Davoult, C. Luczak, 2004, Écosystèmes, structure, fonctionnement, évolution. Dunod, 549 pp. Un ouvrage pédagogique sur les écosystèmes pour les étudiants en Capes, Master, Agrégation. Jacques, G., 2004, L’écologie du plancton. Lavoisier, 282 pp. L’ouvrage de fond sur le plancton. Millero, F. J., 2013, Chemical Oceanography, CRC Press, 4th edition. Une exposition de la composition chimique de l’eau de mer et des méthodes de mesures décrites par un des spécialistes de la discipline.

551

Une introduction à la dynamique des océans et du climat

Roy-Barman, M. et C. Jeandel, 2011, Géochimie marine-Circulation océanique, Cycle du carbone et Changement climatique, Vuibert. Principes et méthodes de la géochimie marine (notamment l’usage des isotopes) sont présentés, à un niveau Licence-Master. Le lien avec la circulation océanique est surtout développé sous l’angle des traceurs. Sarmiento, J. L. & N. Gruber, 2006, Ocean Biogeochemical Cycles, Princeton University Press. L’ouvrage le plus complet sur les cycles bio-géochimiques et notamment le cycle du carbone. Niveau Master-Doctorat. Williams, R. G. & M. J. Follows, 2011, Ocean Dynamics and the Carbon cycle, Cambridge University Press. Ce livre plus abordable que le précédent combine une présentation de la dynamique océanique et de la biogéochimie du cycle du carbone, au niveau Master. 2. Atmosphère Andrews, D. G., 2010: An introduction to atmospheric physics, Cambridge University Press, 244 pp. Un livre de niveau master qui introduit la dynamique atmosphérique et les équations des processus radiatifs. Bougeault, P., R. Sadourny, 2001, Dynamique de l’Atmosphère et de l’Océan, Les Éditions de l’École polytechnique, Palaiseau. Un livre écrit par deux spécialistes de l’atmosphère. La présentation théorique demande une maîtrise des outils d’analyse vectorielle. Holton, J. R., 1992, An introduction to Dynamic Meteorology, Third edition, Academic Press. Le Holton est le livre par excellence pour découvrir la dynamique de l’atmosphère, niveau Master. Hoskins B. J. and I. N. James, 2014: Fluid Dynamics of the mid-latitude atmosphere, Advancing weather and Climate science, Wiley Blackwell, 432 pp. La dynamique des dépressions des moyennes latitudes est développée de façon très complète par des pionniers du sujet, niveau master-doctorat. Houghton, J., 2002, The Physics of Atmospheres, Cambridge University Press. Une excellente présentation des processus radiatifs et dynamiques de l’atmosphère et du climat à un niveau introductif écrite par un des pionniers de l’IPCC, niveau Licence-Master. Liou, K. N., 2002, An introduction to atmospheric radiation, Academic Press, International Geophysics Series, 84. Donne les bases quantitatives du calcul de la propagation du rayonnement dans l’atmosphère et de son interaction avec la matière, niveau Master. Malardel, S., 2009, Fondamentaux de Météorologie, 2e édition, Cépaduès Éditions. Présentation générale de la physique de l’atmosphère avec un accent mis sur la prévision du temps, niveau Licence-Master.

552

4. Dynamique du climat

Marshall, J., A. Plumb, 2008, Atmosphere, Ocean and Climate dynamics, Academic Press. Une excellente introduction à la dynamique de l’atmosphère, de l’océan et du climat introduite à un niveau Licence-Master. Vallis, G. K., 2017, Atmospheric and Oceanic Fluid Dynamics, Fundamentals and Large-Scale Circulation, 2nd edition, Cambridge University Press. Un livre axé sur les circulations grande échelle de l’atmosphère et de l’océan et les interactions circulation moyenne-turbulence. Très complet, écrit avec un bon équilibre de rigueur et d’intuition. Il demande la maîtrise des outils mathématiques d’analyse vectorielle. Niveau Master 2, Doctorat. Vallis, G. K., 2019, Essentials of atmospheric and oceanic dynamics, Cambridge University Press. Une version condensée du précédent. Wallace, J., P. Hobbs, 2006, Atmospheric Science, 2nd edition, 2006, Academic Press. Difficile de faire mieux pour une introduction que ce classique de la discipline particulièrement pédagogique et bien illustré, niveau Licence. 3. Climat Tous les rapports de l’IPPC (Intergovernmental Panel on Climate Change) sont disponibles librement sur le site : https://www.ipcc.ch Archer, D., 2007, Global Warming, Understanding the forecast, Blackwell Publishing. Présentation très accessible du réchauffement global et des conséquences des choix politiques écrite par un des spécialistes du cycle du carbone. Archer, D., R. Pierrehumbert, 2011, The Warming Papers, the Scientific Foundation for the Climate Change Forecast, Wiley-Blackwell. Archer et Pierrehumbert ont rassemblé 32 articles historiques sur le réchauffement global depuis Fourier en 1824, le tout accompagné d’un commentaire pertinent sur les diverses contributions. Dessler, A. E., 2013, Introduction to modern climate change, Cambridge University Press. Le livre aborde les aspects du changement climatique avec un remarquable souci pédagogique. Il aborde aussi les questions des choix politiques et économiques à faire vis-à-vis du changement climatique. Goosse, H., 2015, Climate System Dynamics and Modelling, Cambridge University Press. Une introduction à la dynamique du climat vue sous l’angle de l’apport des modèles numériques de climat. Hartmann, D. L., 1994, Global Physical Climatology, Academic Press. Ce livre combine une description de l’atmosphère et de ses mouvements avec une présentation complète de la dynamique du climat, une 2e édition de 2015 est disponible, niveau Master.

553

Une introduction à la dynamique des océans et du climat

Houghton, J., 1994, Global Warming, the Complete Briefing, Lion Publishing plc. Le livre du réchauffement global écrit par un scientifique qui a beaucoup contribué à la création de l’IPCC, accessible à un large public. Une édition plus récente est : Houghton J., 2012, Global Warming, the Complete Briefing, 4th edition, Cambridge University Press. Levitt, S. D., S. D. Dubner, 2009, Super Freakonomics, Allen Lane, Penguin Books, Editors. Écrit par deux économistes, leur chapitre 5 expose le pour et le contre de diverses solutions pour lutter contre le réchauffement climatique. Marshall, J., A. Plumb, 2008, Atmosphere, Ocean and Climate dynamics, Academic Press. Ce livre présente aussi les bases de la dynamique du climat avec toujours le même souci explicatif en termes de GFD. Niveau Licence-Master. Peixoto, J. P., A. H. Oort, 1992, Physics of Climate, American Institute of Physics. Une présentation de la physique des trois composantes atmosphère, océan et glace sous l’angle des analyses d’observations globales, niveau Master. Pierrehumbert, R. T., 2010, Principles of planetary climate, Cambridge University Press, 674 pp. Un ouvrage impressionnant sur les atmosphères planétaires écrit par un spécialiste de la turbulence atmosphérique. Le livre contient beaucoup de questions, d’exercices et de programmes pour aiguiser la compréhension du sujet. Niveau Master-Doctorat. Trenberth, K. E., 1992, Climate System Modeling, Cambridge University Press. Une présentation détaillée (qui reste actuelle) de la modélisation des différents compartiments du climat, atmosphère, océan, glaces, Terre, végétation, niveau Master. Les trois petits livres suivants écrits par des spécialistes du domaine présentent et expliquent différents aspects du climat et de son évolution avec un bon niveau de vulgarisation. Archer, D., 2010, The global carbon cycle, Princeton University Press. Philander, G., 2000, Is the temperature rising? Princeton University Press. Vallis, G. K., 2011, Climate and the Oceans, Princeton University Press. Quelques livres « Climat » en français La science du climat fait appel à de nombreuses disciplines et compétences et ces livres de vulgarisation écrits par des scientifiques mettent l’accent sur divers aspects, avec notamment le rôle de l’Homme dans le déséquilibre du siècle actuel. Bard, E., 2011, L’océan, le Climat et Nous, Universcience, Le Pommier. Écrit par un spécialiste de géochimie océanique, professeur au Collège de France, chaire « Évolution du Climat et de l’Océan ».

554

4. Dynamique du climat

Berger A., 2000, Le climat de la Terre, un passé pour quel avenir ? De Boeck. Écrit par un des pionniers du calcul du rayonnement solaire pour l’étude des climats du Quaternaire, le livre présente les aspects du changement climatique (incluant les choix de société) à un niveau très accessible. Delmas, R., S. Chauzy, JM. Verstraete, H. Ferré, 2007, Atmosphère, Océan et Climat, Belin pour La Science. Une présentation pédagogique des principaux processus physiques à l’œuvre dans le climat. Jeandel, C., R. Mosseri, 2011, Le climat à découvert, CNRS Éditions. Une présentation multi-auteurs du CNRS des outils et méthodes en recherche climatique faite avec un souci de synthèse. Niveau Licence. Jousseaume, S., 2000, Le climat d’hier à demain, CNRS Éditions. Masson-Delmotte, V., C. Cassou, 2015, Parlons Climat en 30 questions, La Documentation francaise. Merle, J., 2006, Océan et Climat, IRD Éditions. Le développement des 50 dernières années de l’océanographie qui passe d’une science descriptive à une science interactive au travers du développement des observations spatiales et de la modélisation numérique. Écrit par un des acteurs de l’océanographie tropicale. Merle, J., 2009, L’océan gouverne-t-il le climat ?, IRD Éditions/Vuibert/Adapt-Snes. Replace l’océan en position privilégiée dans le réchauffement climatique en cours. Poitou, J., P. Braconnot et V. Masson-Delmotte, 2015, Le Climat, la Terre et les Hommes, EDP Sciences. 4. Paléoclimatologie Duplessy, J. C., G. Ramstein, 2013, Paléoclimatologie, Trouver, dater et interpréter les indices, Tome 1, Savoirs actuels, CNRS éditions, EDP Sciences. Duplessy, J. C., G. Ramstein, 2013, Paléoclimatologie, Enquête sur les climats anciens, Tome 2, Savoirs actuels, CNRS éditions, EDP Sciences. Les deux livres de Duplessy et Ramstein sont une compilation multi-auteurs des méthodes et des découvertes en paléoclimatologie. Indispensable pour qui veut connaître les climats du passé et la perturbation anthropique actuelle. Imbrie, J., K. P. Imbrie, 1986, Ice Ages, Solving the mystery, Harvard University Press, Cambridge, Massachussetts and London, England. L’histoire très vivante de la découverte du lien entre les cycles orbitaux de la Terre et les observations paléo des cycles glaciaires. Ramstein, G., 2015, Voyage à travers les climats de la Terre, Odile Jacob, Sciences. Une description critique de ce que l’on sait de l’histoire du climat de la Terre avec un test des causes étayées par les indices géologiques et de nombreuses simulations numériques faites par l’auteur et son équipe.

555

Références d’articles cités dans le texte

Il y a certes beaucoup de références citées ci-dessous, mais cela représente une infime partie de ce qui est publié sur ces sujets. La sélection a été faite en essayant d’inclure les contributions historiques originales et les articles de revue récents suffisamment généraux pour que le lecteur puisse saisir l’actualité des discussions autour du sujet concerné et ait accès dans ces revues aux tiroirs supplémentaires des références importantes. Comme le point de vue pris dans ce livre est d’expliquer par l’image, les articles dont les figures sont incluses forment aussi une part importante des références. Partie 4 Adhémar, J., 1842, Révolutions de la mer, déluges périodiques, Éditeur Lacroix – Comon, 1960. Agassiz, L., 1838, Upon glaciers, moraines, and erratic blocks: being the address delivered at the opening of the Helvetic Natural History Society, at Neuchatel on the 24th of July 1837, by its President. Edinburgh New Philosophical Journal, 24, 364-383. Alley, R. B., 2007, Wally was right: predictive ability of the North Atlantic « Conveyor Belt » hypothesis for abrupt climate change, Annu. Rev. Earth Planet Sci., 35, 241-272. Amante, C., B. W. Eakins, 2009, ETOPO1 arc-minute global relief model: procedures, data sources and analysis, NOAA Technical Memorandum NESDIS NGDC-24.

557

Une introduction à la dynamique des océans et du climat

Archer, D., H. Kheshgi, E. Maier-Reimer, 1997, Multiple timescales for neutralization of fossil fuel CO2, Geophys. Res. Lett, 24, 405-408. Arrhenius, S., 1896, On the influence of the carbonic acid in the air upon the temperature of the ground, Phil. Mag. and J. of Sci., 41, 237-276. Arzel, O., A. Colin de Verdière, M. England, 2010, Oceanic heat transport and wind stress forcing in abrupt millenial scale climate transitions, J. of Climate, 23, 2233-2256. Arzel, O., T. Huck, A. Colin de Verdière, 2018, The internal generation of the Atlantic interdecadal variability, J. of Climate, 31, 6411-6432. Baker, D. J., R. W. Schmitt, C. Wunsch, 2007, Endowments and new Institutions for long term Observations, Oceanography, 20, 10-14. Bard, E., 2004, Greenhouse effect and ice ages: historical perspective, C.R Geoscience, 336, 603-638 (texte en français et en anglais). Barnier, B., L. Siefridt, P. Marchesiello, 1995, Thermal forcing for a global ocean circulation model using a three-year climatology of ECMWF analyses, J. Mar. Sys., 6, 363-380. Barnola, J. M., D. Raynaud, Y.S. Korotovitch, C. Lorius, 1987, Vostok ice cores provides 160 000 year record of atmospheric CO2, Nature, 329, 408-414. Battisti, D. S., A. C. Hirst, 1989, Interannual variability in a tropical AtmsophereOcean model: influence of the basic state, ocean geometry and nonlinearity, J. of the Atmos. Sci., 46, 1687-1712. Baumgartner, A., E. Reichel, 1975, The world water balance: mean annual global, continental and maritime precipitation and run-off, Elsevier Scientific Publishers, Amsterdam, 179 pp. Bellassen V. and S. Luyssaert, 2014: Managing forests in uncertain times, Nature, 506, 153-155. Berger, A., 1977, Support for the astronomical theory of climate change, Nature, 269, 44-45. Berger, A. M. F. Loutre, 1991, Insolation values for the climate of the last 10 million years, Quat. Sci. Rev., 10, 297-317. Bjerknes, J., 1969, Atmospheric teleconnections from the equatorial Pacific, Mon. Weather Rev., 97, 163-172. Boden, T. A, G. Marland, R.J. Andres, 2010, Global, regional, and national fossilfuel CO2 emissions, Cardon Dioxyde Information Analysis Center, Oak Ridge National Laboratory, US Department of Energy, Oak Ridge, Tenn. USA. Bony, S., B. Stevens, D. M. W. Frierson, C. Jakob, M. Kageyama, R. Pincus, T.G. Shepherd, S. C. Sherwood, A. P. Siebesma, A. H Sobel, M. Watanabe, M. J. Webb, 2015, Clouds, circulation and climate sensitivity, Nature Geosci., 8, 261-268.

558

Références d’articles cités dans le texte

Booth, B. B. B., N. J. Dunstone, P. R. Haloran, T. Andrews, N. Bellouin, 2012, Aerosols implicated as a prime driver of twentieth-century North Atlantic climate variability, Nature, 484, 228-232. Breitberg, D. et al., 2018, Declining oxygen in the global ocean and coastal waters, Science, 359, eaam7240. Broecker, W., D. Petit, D. Rind, 1985, Does the ocean-atmosphere system have more than one stable mode of operation? Nature, 315, 21-25. Broecker, W., G. Bond, M. Klas, G. Bonani, W. Wolfi, 1990, A salt oscillator in the glacial Atlantic? The concept, Paleoceanography, 5, 469-477. Bryden, H. L., S. Imawaki, 2001, Ocean heat transport, International Geophysics, 77, 475-474. Budyko, M. I., 1969, The effect of solar radiation variations on the climate of the Earth, Tellus, 21, 611-619. Calder, N., 1974: Arithmetic of ice ages, Nature, 252, 216-218. Capotondi, A., A. T. Wittenberg, M. Newman, E. di Lorenzo, JY. Yu, P. Braconnot, J. Cole, B. Dewitte, B. Giese, E. Guilyardi, F.F. Jin, K. Karnauskas, B. Kirtman, T. Lee, N. Schneider, Y. Xue & SW. Yeh, 2015, Understanding ENSO diversity, Bull. of the Americ. Meteor. Soc., June, 921-938. Cazenave, A., W. Llovel, 2010, Contemporary sea level rise, Annu. Rev. Mar. Sci., 2, 145-173. Charney, J., 1975, Dynamics of deserts and droughts in the Sahel, Quat. J. Roy. Met. Soc., 101, 193-202. Chen, F., M. Ghil, 1995, Interdecadal variability of the thermohaline circulation and high latitude surface fluxes, J. of Phys. Oceanogr., 25, 2547-2568. Church, J. A., et al., 2011, Revisiting the Earth’s sea-level and energy budgets from 1961 to 2008, Geophys. Res. Lett., 38, L18601, doi : 10.1029/2011GL048794. Church, J. A., N. J. White, 2011, Sealevel rise from the late 19th to the early 21st Century, Surveys in Geophysics, 32, 585-602. Ciais, P., C. Sabine, G. Bala, L. Bopp, V. Brovkin, J. Canadell, A. Chhabra, R. Defries, J. Galloway, M. Heimann, C. Jones, C. LeQuéré, R. B. Myneni, S. Piao, P. Thornton, 2013, Carbon and other geochemical cycles in Climate Change 2013: The Physical Science Basis. Contribution of working group I to the fifth assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T. F., D. Qin, G. K. Plattner, M. Tignor, S. K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex, P.M. Midley(eds)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA. Clement, A., K. Bellomo, L. N. Murphy, M. A. Cane, T. Mauritsen, G. Rädel, B. Stevens, 2015, The Atlantic Multidecadal Oscillation without a role for ocean circulation, Nature, 350, 320-324.

559

Une introduction à la dynamique des océans et du climat

Coachman, L. K., K. Aagard, 1988, Transports through Bering Strait: annual and interannual variability, J. Geophys. Res., 93, 15 535-15 539. Colin de Verdière A., T. Huck, 1999, Baroclinic instability : an oceanic wavemaker for interdecadal variability, J. Phys. Oceanogr., 29, 893-910. Cortijo, E., L. Labyerie, J. C. Duplessy, 2013, L’évolution de l’océan et du climat, les données de la paléoceanographie, Chap. 20, 313-358, dans Paléoclimatologie (J. C. Duplessy et G. Ramstein), Tome 1, CNRS Éditions, EDP Sciences. Courtillot, V., 1995, La vie en catastrophes, Fayard, 288 pages. Croll, J., 1864, On the physical cause of the change of climate change during geological epochs, Phil. Mag., 28, 121-137. Czaja, A., C. Frankignoul, 2002, Observed impacts of Atlantic SST anomalies on the North Atlantic Oscillation, J. Climate, 15, 606-623. Daniault, N., P. Lherminier, H. Mercier, 2011, Circulation and transport at the Southeast tip of Greenland, Journal of Physical Oceanography, 41, 437-457. De Coëtlogon, G., C. Frankignoul, 2003, On the persistence of winter sea surface temperature anomalies in the North Atlantic, J. Climate, 16, 1364-1377. Deser, C., M. A. Alexander, S.-P. Xie, A. S. Phillips, 2010, Sea surface temperature variability: patterns and mechanisms, Annu. Rev. Mar. Sci., 2, 115-143. Dixon, R. K., R. A. Houghton, A. M. Solomon, M. C. Trexler, J. Wisniewski, 1994, Carbon pools and flux of global forest ecosystems, Science, 263,185-191. Ducklow, H. W., D. K. Steinberg, 2001, Upper ocean carbon export and the biological pump, Oceanography, 14, 50-58. Dufresne, J. L., 2006, Jean-Baptiste Fourier et la découverte de l’effet de serre, La Météorologie, 8e série, 53, 42-46. Dufresne, J. L., J. Treiner, 2011, L’effet de serre atmosphérique : plus subtil qu’on ne le croit, La Météorologie, 72, 31-41. Durack, P. J., S. E. Wijffels, 2010, Fifty years trends in global ocean salinities and their relationship to broad scale warming, J. of Climate, 23, 4342-4362. Emiliani, C., 1955, Pleistocene temperatures, J. of Geology, 63, 538-578. Enfield, D. B., A. M. Mestas-Nuñez, P. J. Trimble, 2001, The Atlantic multidecadal oscillation and its relation to rainfall and drivers flows in the continental US, Geophys. Res. Lett., 28, 2077-2080. Feldstein, S. B., The dynamics of NAO teleconnection pattern growth and decay, 2003, Quat. Journal of the Royal Met. Soc., 129, 901-924. Ferreira, D., J. Marshall, T. Ito and D. McGee, 2018, Linking glacial-interglacial states to multiple equilibria of climate, Geophys. Res. Lett., 45, 9160-9170. Ferrel, W., 1856, An essay on the winds and the currents of the ocean, Nashville J. Medicine and Surgery, 11, 287-301.

560

Références d’articles cités dans le texte

Feynmann, 1980, La Nature de la Physique, Points-Sciences. Fourier, J., 1827, Mémoire sur les températures du globe terrestre et des espaces planétaires, Mémoires de l’Académie Royale des Sciences, 7, 569-604. Frankignoul, C., K. Hasselmann, 1977, Stochastic climate models, part II, application to sea surface temperature anomalies and thermocline variability, Tellus, 29, 289-305. Franks, P. J. S., 2002, NPZ models of plankton dynamics: their construction, coupling to physics, and application, Journal of Oceanography, 58, 379-387. Friedman, A. R., G. Reverdin, M. Khodri, G. Gastineau, 2017, A new record of Atlantic sea surface salinity from 1896 to 2013 reveals the signatures of climate variability and long-term trends, Geophys. Res. Lett., 44, 1866-1876. Ganachaud, A., C. Wunsch, 2000, An improved estimate of global ocean circulation, heat transport and mixing from hydrographic data, Nature, 408, 453-457. Giono, J., 1953, L’homme qui plantait des arbres - The man who planted trees- disponible librement sur Internet. Ghil, M., 1984, Climate sensitivity, energy balance models and oscillatory climate models, J. of Geophys. Res., 89, 1280-1284. Ghil, M, 2001, Hilbert problems for the geosciences in the 21st century, Nonlin. Proc. in Geophys., 8, 211-222. Gill, A., 1980, Some simple solutions for heat-induced tropical circulation, Quart. J. R. Met. Soc., 106, 447-462. Greatbach, R. J., S. Zhang, 1995, An interdecadal oscillation in an idealized ocean basin forced by constant heat flux, J. of Climate, 8, 81-91. Guilyardi, E., A. Wittenberg, A. Fedorov, M. Collins, C. Wang, A. Capotondi, G. J. Van Oldenborgh, T. Stockdale, 2009, Understanding El Nino in oceanatmosphere general circulation models: progress and challenges. Bull. Amer. Met. Soc., 90, 325-340. Gulev, S. K., M. Latif, N. Keenlyside, W. Park, K. P. Koltermann, 2013, North Atlantic ocean control on surface heat flux on multidecadal time scales, Nature, 499, 464-467. Hadley, G. 1735, Concerning the cause of the general trade-winds, Phil. Trans., 29, 58-62. Hall, N. M. J., B. J. Hoskins, P. J. Valdes, C. A. Senior, 1994, Storm tracks in a high resolution GCM with doubled carbon dioxyde, Q. J. R. Meteorol. Soc., 120, 1209-1230. Hansen J., P. Kharecha, M. Sato, V. Masson-Delmotte, F. Ackerman, et al., 2013: Assessing “dangerous climate change”: required reduction of carbon emissions to protect young people, future generation and nature. PLOS ONE 8(12), e81648, https://doi.ord/10.1371/journal.pone.0081648

561

Une introduction à la dynamique des océans et du climat

Hartmann, D. L., A. M. G. Klein Tank, M. Rusticucci, L. V. Alexander, S. Brönnimann, Y. Charabi, F. J. Dentener, E. J. Dlugokencky, D. R. Easterling, A. Kaplan, B. J. Soden, P. W. Thorne, M. Wild, P. M. Zhai, 2013, Observations: Atmosphere and Surface. in: Climate Change 2013: The Physical Science basis. Contribution of Working group I to the 5th assessment report of the Intergovernmental Panel on Climate Change [Stocker, T. F., D. Qin, G-K Plattner, M. Tignor, S. K. Allen, J. Boshung, A. Nauels, Y. Xia, V. Bex and P. M. Migley (eds)]. Cambridge University Press, Cambridge, United Kingdom and NewYork, NY, USA. Hasselmann, K., 1976, Stochastic climate models. Part 1, Theory, Tellus, 28, 473-485. Hays, J. D., J. Imbrie, N. J. Shackelton, 1976, Variations in the Earth orbit: Pacemaker of the ice ages, Science, 194, 1121-1132. Held, I. M., A. Y. Hou, 1980, Nonlinear axisymmetric circulations in a nearly inviscid atmosphere, J. Atmos. Sci., 37, 515-533. Hide, R., P. J. Mason, 1975, Sloping convection in a rotating fluid, Adv. in Phys., 24, 47-100. Hoffman P. F., D. P. Schrag, 2002, The snowball Earth hypothesis: testing the limits of global change, Terra Nova, 14, 129-155. Huck, T., O. Arzel, F. Sévellec, 2015, Multidecadal variability of the overturning circulation in presence of eddy turbulence, J. Phys. Oceanogr., 45, 157-173. Hurrell, J. W., Y. Kushnir, G. Ottersen, M. Visbeck, 2003, An overview of the North Atlantic Oscillation, in The North Atlantic Oscillation: Climatic significance and Environmental impact, Geophysical Monograph 134, American Geophysical Union. Hurrell, J. W., C. Deser, 2010, North Atlantic climatic variability: the role of the North Atlantic oscillation, J. of Mar. Syst., 79, 231-244. Imbrie, J., N. G. Kipp, 1971, A new micropaleontological method for quantitative paleoclimatology: applications to a late Pleistocene Caribbean core in Turekian, K. K. (Editor), The late Cenozoic glacial ages, Yale University Press, 71-181. Imbrie, J., A. Berger, E. A. Boyle, S. C. Clements, A. Duffy, W. R. Howard, G. Kukla, J. Kutzbach, D. G. Martinson, A, McIntyre, A. C. Mix, B. Molfino, J. J. Morley, L. C. Peterson, N. G. Pisias, W. L. Prell, M. E. Raymo, N. J. Shackelton & J. R. Toggweiler, 1993, On the structure and origin of major glaciation cycles, 2. The 100 000 year cycle, Paleoceanogr., 8, 699-735. Jevrejeva, S., J. C. Moore, A. Grinsted, A. P. Matthews, G. Spada, 2014, Trends and acceleration in global and regional sea levels since 1807, Global and Planetary Change, 113, 11-22. Jin, F.-F., 1997, An equatorial ocean recharge paradigm for ENSO. Part1 : Conceptual model, J. of Phys. Oceanogr., 54, 811-829. Jin, F.-F., 1997, An equatorial ocean recharge paradigm for ENSO. Part 2: A stripped down coupled model, J. of Phys. Oceanogr., 54, 830-847.

562

Références d’articles cités dans le texte

Johns W. E., M. O. Baringer, L. M. Beal, S. A. Cunningham, T. Kanzow, H. L. Bryden, J. J. M. Hirschi, J. Marotske, C. S. Meinen, B. Shaw and R. Curry, 2011: Continuous array based estimates of Atlantic ocean heat transport at 26.5oN, J. of Climate, 24, 2429-2449. Kageyama, M., D. M. Roche, N. Combourieu Nebout, 2013, Variabilité climatique rapide : description et mécanismes, Chap. 8, 293-323, dans Paléoclimatologie (J. C. Duplessy et G. Ramstein), Tome 2, CNRS Éditions, EDP Sciences. Källen, E., C. Crafoord, M. Ghil, 1979, Free oscillations in a climate model with ice sheet dynamics, J. of the Atmos. Sci., 36, 2292-2303. Kasting, J. F., 1993, Earth’s early atmosphere, Science, 259, 920-926. Kasting, J. F., 1995, Fit for life: climate stability on earth and the implications for life elsewhere, Science Spectra, Issue 2, 32-36. Keeling, C. D., 1970, Is carbon dioxyde from fossil fuel changing man’s environment? Proc. of the Amer. Phil. Soc., 114, 10-17. Kiehl, J. T., K. E. Trenberth, 1997, Earth’s Annual Global Mean Energy Budget, Bull. Amer. Meteor. Soc., 78, 197-208. Klein P. and G. Lapeyre, 2009: The oceanic vertical pump induced by mesoscale and submesoscale turbulence, Annu. Rev. Mar. Sci., 1, 351-375. Köppen, A., A. Wegener, 1924, Die klimate der geologischen vorzeit, Gebrüder Bornträger, Berlin. Kullenberg, B., 1947, The piston core sampler, Svenska Hydro-Biol. Komm. Skrifter, S.3, Bd 1., Hf.2, 1-46. Kushnir, Y., 1994, Interdecadal variations in North Atlantic sea surface temperature and associated atmospheric conditions, J. of Climate, 7, 141-157. Labeyrie, L., J. C. Duplessy, P. L. Blanc, 1987, Variations in mode of formation and temperature of oceanic deep waters over the past 125 000 years, Nature, 327, 477-482. Lacis, A. A., G. A. Schmidt, D. Rind, R. A. Ruedy, 2010, Atmospheric CO2: Principal control knob governing earth temperature, Science, 330, 356-359. Lambeck, K., H. Rouby, A. Purcell, Y. Sun and M. Sambridge, 2014: Sea level and global ice volumes from the last glacial maximum to the Holocene, Proc. Nat. Ac. Sci., 111, 15296-15303. Large, W. G., S. G. Yeager, 2009, The global climatology of an interannually varying air-sea flux data set, Clim. Dyn., 33, 341-364. Laskar, J., P. Robutel, F. Joutel, M. Gastineau, A. C. M. Correia, B. Levrard, 2004, A long term numerical solution for the insolation quantities of the Earth, 2004, Astron. and Astrophys., 428, 261-285. Le Quéré, C., M. P. Raupach, J. P. Canadell, G. Marland, 2009, Trends in the sources and sinks of carbon dioxyde, Nature Geosci., 2, 831-836.

563

Une introduction à la dynamique des océans et du climat

Le Quéré, C. et al., 2014, Global carbon budget 2013, Earth Syst. Sci. Data, 6, 235-263. Le Treut, H., R. Somerville, et al., 2007, Historical Overview of Climate Change, in Climate Change 2007: the physical Science basis. Contribution of working group I to the fourth assessment report of the Intergovernmental Panel on Climate Change, Cambridge University Press. Levy, M., 2008: The modulation of biological production by oceanic mesoscale turbulence, Lect. Notes Phys. 744, 219-261, doi 10.1007/978-3-540-75215-8_9. Levitus S., et al., 2012, World ocean heat content and thermosteric sea level change (0-200 m), 1955-2010, Geophys. Res. Lett., 39, L10603, doi :10.1029/2012GL051106. Lisiecki, L., M. Raymo, 2005, A Pliocene-Pleistocene stack of 57 globally distributed benthic δ18O records, Paleoceanography, 20, PA1003, doi : 10.1029/2004PA001071. Lorius, C., J. Jouzel, D. Raynaud, J. Hansen, H. Le Treut, 1990, The ice-core record: climate sensitivity and future greenhouse warming, Nature, 347, 139-145. Lorenz, E., 1963, Deterministic nonperiodic flow, J. of the Atmos. Sci., 20, 130-141. Lorenz, E., 1967, The nature and theory of the general circulation of the atmosphere, World Meteorological Organisation. Lorenz, E., 1968, Climate determinism, Meteorological Monographs, 8, no 30, 1-3. Lynch-Stieglitz, J., 2017, The Atlantic meridional overturning circulation and abrupt climate change, Annu. Rev. Mar. Sci., 9, 93-104. MacAyeal, D. R., 1993, Binge/purge oscillations of the Laurentide ice sheet as a cause of the North Atlantic’s Heinrich events, Paleoceanography, 8, 775-784. Manabe, S., R. Strickler, 1964, Thermal equilibrium of the atmosphere with convective adjustment, J. of the Atmos. Sci., 21, 361-385. Manabe, S., R. T. Wetherhald, 1967, Thermal equilibrium of the atmosphere with a given distribution of humidity, J. of the Atmos. Sci., 24, 241-258. Manabe, S., R. T. Wetherhald, 1975, The effects of doubling the CO2 concentration on the climate of a general circulation model, J. of the Atmos. Sci., 32, 3-15. Mann, M. E., P. D. Jones, 2003, Global surface temperatures over the past two millenia, Geophys. Res. Lett., 30, 15, 1820, doi : 10.1029/2003GL017814. Mann, M. E., Z. Zhang, M. K. Hughes, R. S. Bradley, S. K. Miller, S. Rutherford & F. Ni, 2008, Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millenia, Proc. of the Nat. Acad. Sci., 105, 36, 13252-13257. Margo Project Members, 2009, Constraints on the magnitude and patterns of ocean cooling at the last glacial maximum, Nature Geosci., 2, 127-132, doi : 10.1038/NGEO411

564

Références d’articles cités dans le texte

Martin, J. H., 1990, Glacial-interglacial CO2 change: the iron hypothesis, Paleoceanography, 5, 1. Masson-Delmotte, V., M. Schulz, A. Abe-Ouchi J. Beer, A. Ganopolski, F. Gonzales Rouco, E. Jansen, K. Lambeck, J. Luterbacher, T. Naish, T. Osborn, B. OttoBliesner, T. Quinn, R. Ramesh, M. Rojas, X. Shao and A. Timmermann, 2013, Information from paleo climate archives, in Climate Change 2013: the Physical Science Basis, Contribution of working group 1 to the fifth assessement report of the IPCC, Cambridge University Press. McPhaden, M. J., S. E. Zebiak, M. H. Glantz, 2006, ENSO as an intriguing concept in Earth Science, Science, 314, 1740-1745. Mercier, H., 1986, Determining the general circulation of the ocean: a nonlinear inverse problem, J. Geophys. Res., 91, 5103-5109. Mercier, H., P. Lherminier, A. Sarafanov, F. Gaillard, N. Daniault, D. Desbruyères, A. Falina, B. Ferron, C. Gourcuff, T. Huck, 2015, Variability of the meridional overturning circulation at the Greenland-Portugal Ovide Section from 1993 to 2010, Prog. in Oceanogr., 132, 250-261. Milankovic, M., 1941, Canon of insolation and the ice age problem, US department of commerce, Israel Program for scientific translations, TT 67-51410, 484 pp. Munk, W., 2003, Ocean freshening, sea level rising, Science, 300, 2041-2043. Myhre G., E. J. Highwood, K. P. Shine, F. Stordal, 1998, New estimates of radiative forcing due to well mixed greenhouse gases, Geophys. Res. Lett., 25, 2715-2718. North, G. R., R. F. Cahalan & J. A. Coakley, 1981, Energy balance climate models, Rev. of Geophys. & Space Phys., 19, 91-121. Oschlies, A., V. Garcon, 1999, An eddy-permitting coupled physical-biological model of the North Atlantic- 1. Sensitivity to advection numerics and mixed layer physics, Global Biogeochemical Cycles, 13, 135-160. Paillard, D, 1998, The timing of Pleistocene glaciations from a simple multiplestate climate model, Nature, 391, 378-381. Paillard, D., 2001, Glacial cycles: towards a new paradigm, Rev. of Geophys., 39, 325-346. Paillard, D., F. Parenin, 2004, The Antarctic ice sheet and the trigerring of deglaciations, Earth and Plan. Sci. Lett., 227, 263-271. Paillard, D., 2013, Climat et cycles astronomiques, Chap. 7, 257-291, dans Paléoclimatologie (J. C. Duplessy et G. Ramstein), Tome 2, CNRS Éditions, EDP Sciences. Paillard, D., 2015, Quaternary glaciations: from observations to theories, Quat. Sci. Rev., 107, 11-24. Parrenin, F., et al., 2013, Synchronous change of atmospheric CO2 and Antarctic temperature during the last deglacial warming, Science, 339, 1060-1063.

565

Une introduction à la dynamique des océans et du climat

Petit, J. R., et al., 1999, Climate and atmospheric history of the past 420 000 years from the Vostok ice cores, Antarctica, Nature, 399, 429-436. Pierrehumbert, R. T., 2004, Warming the world, Nature, 432, December, 677. Ramstein, G., 2017, Une brève histoire du climat de la terre, Reflets de la Physique, 55, 6-14. Redfield, A. C., B. H. Ketchum and F. A. Richards, 1963: The influence of organisms on the composition of seawater, in The Sea, vol. 2, edited by M. N. Hill, pp 26-77, Interscience, New York. Rhein, M., S. R. Rintoul, S. Aoki, E. Campos, D. Chambers, R. A. Feely, S. Gulev, G. C. Johnson, S. A. Josey, A. Kostianoy, C. Mauritzen, D. Roemmich, L. D. Talley, F. Wang, 2013, Observations: Ocean in Climate Change 2013 : The Physical Science basis. Contribution of Working group I to the 5th assessment report of the Intergovernmental Panel on Climate Change [Stocker, T. F., D. Qin, G-K Plattner, M. Tignor, S. K. Allen, J. Boshung, A. Nauels, Y. Xia, V. Bex and P. M. Migley (eds)]. Cambridge University Press, Cambridge, United Kingdom and NewYork, NY, USA. Rignot, E, I. Velicogna, M. R. van den Broecke, A. Monaghan, J. T. M. Lenaerts, 2011, Acceleration of the contribution of the Greenland and Antarctic ice sheets to sea level rise, Geophys. Res. Lett., 38, L005503, doi :10.1029/2011GL046583. Rodwell, M. J., Rowell, D. P., C.K. Folland, 1999, Oceanic forcing of the wintertime North Atlantic Oscillation and European climate, Nature, 398, 320-323. Roemmich, D., W. J. Gould, J. Gilson, 2012, 135 years of global ocean warming between the Challenger expedition and the Argo programme, Nature Climate Change, 2, 425-428. Sabine, C. L. et al., 2004, The oceanic sink for anthropogenic CO2, Science, 305, 367-371. Sabine, C. L., T. Tanhua, 2009, Estimation of Anthropogenic CO2 inventories in the ocean, Annu. Rev., Mar. Sci., 2 269-292. Saravanan, R., J. McWilliams, 1998, Advective Ocean-Atmosphere interaction: an analytical stochastic model with implications for decadal variability, J. of Climate, 11, 165-188. Sarmiento, J. L., N. Gruber, 2002, Sinks for anthropogenic carbon, Physics Today, August, 30-36. Schlesinger M. E., N. Ramankutty, 1994, An oscillation in the global climate system of period 65-70 years. Nature, 367, 723-726. Schrag, D. P., G. Hampt, D. W. Murray, 1996: Pore fluid constraints on the temperature and oxygen isotopic composition of the glacial ocean, Science, 272, 1930-1932. Scott, N. A., A. Chedin, 1981, A fast line by line method for atmospheric absorption computations: the automatized atmospheric absorption atlas, J. of Appl. Meteor., 20, 802-812.

566

Références d’articles cités dans le texte

Sellers, W. D., 1969, A global climatic model based on the energy balance of the Earth-Atmosphere system, J. Applied Meteorology, 8, 392-400. Sirven, J., S. Février, C. Herbaut, 2015, Low frequency variability of the separated western boundary current in response to a seasonal wind stress in a 2.5-layer model with outcropping, J. Mar. Res., 73, 153-184. Solomon, S., G. K. Plattner, R. Knutti, P. Friedlingstein, 2009, Irreversible climate change due to carbone dioxyde emissions, Proc. Nat. Acad. Sci., 106, 1704-1709. Stephens, G. L., T. L’Ecuyer, 2015, The Earth’s energy balance, Atmospheric Research, 166, 195-203. Suarez, M. J., P. S. Schopf, 1988, A delayed action oscillator for ENSO, J. Atmos. Sci., 45, 3283-3287. Takahashi, T., J. Olafsson, J. G. Goodard, D. W. Chipman, S. C. Sutherland, 1993, Seasonal variation of CO2 and nutrients in the high latitude surface oceans: a comparative study, Global Biogeochem. Cycles, 7, 843-878. Takahashi, T. et al., 2009, Climatological mean and decadal change in surface ocean pCO2 and net sea-air flux over the global oceans, Deep-Sea Res., II, 56, 564-577. Te Raa, L. A., H. A. Dijkstra, 2002, Instability of the thermohaline circulation and high latitude surface fluxes, J. of Phys. Oceanogr., 32, 138-160. Thompson, D. W., S. Lee, M. P. Baldwin, 2003, Atmospheric processes governing the Northern Hemisphere Annular Mode/North AtlanticOscillation, in The North Atlantic Oscillation: Climatic significance and Environmental impact, Geophysical Monograph 134, American Geophysical Union. Ting, M., Y. Kushnir, R. Seager, C. Li, 2009, Forced and internal twentieth century SST trends in the North Atlantic, J. of Climate, 22, 1469-1481. Touratier, F., C. Goyet, 2004, Applying the new TrOCA approach to assess the distribution of anthropogenic CO2 in the Atlantic Ocean, J. Mar. Syst., 46, 181-197. Touratier, F., L. Azouzi, C. Goyet, 2007, CFC-11, ∆14C and 3H tracers as a mean to assess anthropogenic CO2 concentrations in the ocean, Tellus, 59B, 318-325. Trenberth, K. E., A. Solomon, 1994, The global heat balance: heat transports in the atmosphere and ocean, Clim. Dyn., 10, 107-134. Trenberth, K. E., J. M. Caron, D. P. Stepaniak, 2001, The atmospheric energy budget and implication for surface fluxes and ocean heat transports, Climate Dyn., 17, 259-276. Trenberth, K. E., J. M. Caron, 2001, Estimates of meridional atmosphere and ocean heat transport, J. of Climate, 14, 3433-3443. Trenberth, K. E., L. Smith, T. Qian, A. Dai, J. Fasullo, 2007, Estimates of the global water budget and its annual cycle using observational and model data, J. of HydroMeteor., 8, 758-769.

567

Une introduction à la dynamique des océans et du climat

Urey, H. C., 1952, The planets: their origin and development, Yale University press, New Haven, 265 p. Waelbroeck, C. et al., 2002, Sea-level and deep water temperature changes derived from benthic foraminifera isotopic records, Quat. Sci. Rev., 21, 295-305. Wallace, J. M., D. S. Gutzler, 1981, Teleconnections in the geopotential height field during the Northern hemisphere winter, Month. Weather. Rev., 109, 784-811. Walker, G. T. 1924, Correlation in seasonal variations in weather IX: a further study of world weather, Mem. Indian Meteorol. Dept., 24, 275-332. Wang, C., J. Picaut, 2004, Understanding ENSO Physics – A Review, in Earth’sclimate: the Ocean-Atmosphere interaction, Geophysical Monograph series, 147, 21-48, edited by C. Wangg, S. P. Xie and J. A. Carton, AGU, Wasington D.C. Wanninkhof, R., 2014, Relationship between wind speed and gas exchange over the ocean revisted, Limnology and Oceanography Methods, 12, 351-362. Watson, A. J., J. E. Lovelock, 1983, Biological homeostasis of the global environment: the parable of Daisyworld, Tellus, 35B, 284-289. Wijffels S. E., R. W. Schmitt, H. L. Bryden, 1992, Transport of freshwater by the oceans, J. Phys. Oceanogr., 22, 155-162. Wild, M., D. Folini, C. Schär, 2013, The global energy balance from a surface perspective, Clim. Dyn., 40, 3107-3134. Wing, A. A., K. A. Emmanuel, 2014, Physical mechanisms controlling self aggregation of convection in idealized numerical modeling simulations, J. Adv. in Mod. Earth Syst., 10.1002/2013/MS000269, 59-74. Wyrtki, K., 1985, Water displacements in the Pacific and the genesis of El Nino cycles, J. Geophys. Res., 90, 7129-7132. Wöppelman, G., M. Marcos, 2015, Vertical land motion as a key to understanding sea level change and variability, Rev. of Geophys., 54, 64-92. Wunsch, C. 1977, Determining the general circulation of the oceans: a preliminary discussion, Science, 196, 871-875. Wunsch, C. R. W. Schmitt, D. J. Baker, 2013, Climate change as an intergenerational problem, Proc. Nat. Acad. Sci., 110, 4435-4436. Yin, J. H., 2005, A consistent poleward shift of the storm tracks in simulations of 21st century climate, Geophys. Res. Lett., 32, L18701, doi :10.1029/2005GL023684 Zebiak, S. E., M. A. Cane, 1987, A model El Nino–Southern Oscillation, Mon. Weather Rev., 115, 2262-2278.

568

Valeurs utiles et paramètres

Constantes physiques fondamentales Constante universelle de la gravitation G = 6,673 10–11 N m2 kg–2 Constante de Boltzmann k = 1,38 10–23 J K–1 Constante des gaz parfaits R* = 8,31436 J mole–1 K–1 Nombre d’Avogadro NA = 6,022 1023 Constante de Stefan-Boltzmann σ = 5,67 10–8 W m–2 K–4 ˆ –34 Constante de Planck h = 6,63 10 Js 8 Vitesse de la lumière c = 2,998 10  m s–1 Terre globale Masse de la Terre = 5,977 1024 kg Rayon moyen de la Terre RT = 6 371 km Surface terrestre = 5,10 1014 m2 Gravité moyenne à la surface de la mer g0 = 9,806 m s–2 Vitesse angulaire de la Terre Ω = 7,292 10–5 rad s–1 Constante solaire S0 = 1 367 W m–2 Distance moyenne au Soleil = 1,496 1011 m = 1 UA (unité astronomique) Masse de l’eau dans les roches et sédiments = 2 1020 kg Masse de l’eau des lacs et rivières = 5 1017 kg

569

Une introduction à la dynamique des océans et du climat

Atmosphère Masse molaire de l’air sec MD = 28,966 g Masse molaire de l’eau MW = 18,016 g Constante des gaz parfaits R* = 8,31436 J mole–1 K–1 Constante du gaz air sec RD = 287,04 J kg–1 K–1 Constante du gaz vapeur d’eau RV = 461,50 J kg–1 K–1 Rapport des masses molaires ε = MW/MD = RD/RV = 0,62197 Masse de l’atmosphère = 5,3 1018 kg Masse de vapeur d’eau = 1,3 1016 kg Chaleur spécifique de l’air sec à pression constante CP = 1 004 J K–1 kg–1 Chaleur spécifique de l’air sec à volume constant CV = 717 J K–1 kg–1 Rapport γ = CP/CV = 1,4 Chaleur latente de vaporisation à 0 °C LV = 2,5 106 J kg–1 Pression standard niveau de la mer p0 = 1 013,25 hPa Température standard niveau de la mer T0 = 288,15 K Densité standard niveau de la mer ρ0 = 1,225 kg m–3 Coefficient de viscosité (conditions standards) µ = 1,73 10–5 kg m–1 s–1 Viscosité cinématique (conditions standards) ν = 1,35 10–5 m2 s–1 Conductivité thermique (conditions standards) kA = 2,40 10–2 W m–1 °K–1 Vitesse du son à 273 K = 331 m s–1 Océan Masse des océans = 1,4 1021 kg Surface des océans = 3,61 1014 m2 Chaleur spécifique de l’eau pure à 0 °C = 4 218 J K–1 Kg–1 Température de congélation de l’eau de mer (S = 35) = –1,7 °C Chaleur latente de sublimation (eau pure) LS = 2,85 106 J kg–1 Valeurs en surface, à S = 35 et T = 10 °C : ρ -1 000 [kg m–3] 26,952

expansion expansion haline β thermique α [oC–1] 1,67

0.78

vitesse du son [m s–1]

CP [J K–1 kg–1]

1 489,8

3 986

1 516,5

3 871

Valeurs au fond (4 000 dbar), à S = 35 et T = 0 °C : 46,356

570

1,53

0,77

Valeurs utiles et paramètres

Coefficient de viscosité (conditions standards) µ = 10–3 kg m–1 s–1 Viscosité cinématique ν = 10–6 m2 s–1 Diffusivité thermique kT = 1,4 10–7 m2 s–1 Diffusivité haline kS = 1,5 10–9 m2 s–1 Glace Masse de la glace sur terre = 2,2 1019 kg Surface des calottes de glace et glaciers = 1,62 1013 m2 Densité de la glace à 0 °C = 917 kg m–3 Chaleur spécifique de la glace à 0 °C = 2 106 J K–1 Kg–1 Conductivité thermique kI = 2 W m–1 °K–1 Chaleur latente de fusion à 0 °C = 3,34 105 J kg–1

571

Annexe 3 : Observer l’atmosphère

Une façon commode de voir en direct et de se familiariser avec le mouvement d’un fluide stratifié et en rotation est de regarder en direct l’analyse disponible sur les sites présentant des cartes météo, par exemple : US Navy : https://fnmoc.navy.mil/wxmap_cgi/index.html Pennsylvania State University : http://mp1.met.psu.edu/~fxg1/ewall.html https://www.windy.com https://earth.nullschool.net/fr On peut voir les mouvements au sol et en altitude, le lien entre pression et température, le lien entre pression et vitesse, le développement des ondes instables qui est l’origine des dépressions des moyennes latitudes. On peut savoir facilement s’il fera plus chaud ou plus froid demain, le vent qu’on aura.

A.3.1 L’hydrostatique On sait déjà que l’air est un gaz parfait obéissant à : p = ρR d T –1

1

avec Rd = 287 J K kg , la constante pour l’air sec. On introduit une nouvelle variable, le géopotentiel φ qui n’est autre que le travail nécessaire pour monter une

573

Une introduction à la dynamique des océans et du climat

masse d’un kg du sol à un niveau z arbitraire (l’axe Oz est orienté verticalement vers le haut). Dans la troposphère, on peut prendre la gravité comme constante (g = 9,81 m s–2 au sol et 9,77 à 10 km). La variation élémentaire de φ pour un déplacement dz est donc dφ = gdz et φ ≈ gz approximativement. En se servant de la relation hydrostatique : dp dφ = gdz = − ρ Et en éliminant ρ avec l’équation d’état : dφ = −R d T

dp p

Le signe moins est là car la pression diminue toujours avec l’altitude. En intégrant cette relation entre un niveau 1 et un niveau 2, on trouve la relation hypsométrique qui relie l’épaisseur de l’air entre deux isobares à la température : 2

2

1

1

∫ dφ = φ2 − φ1 = −R d ∫ T

dp p

En définissant la température moyenne de la couche entre p1 et p2 (p1 > p2) par :

T=

p1

p1

p2 p1

p2

∫ Tdp / p ∫ dp / p

=

∫ Tdp / p

ln(p1 / p2 )

p2

et en introduisant la hauteur Z = φ/g, la relation hypsométrique s’écrit encore :

Z 2 − Z1 =

R d T  p1  ln   A3-1 g  p2 

Ici p1 > p2 de sorte que ln(p1/p2) > 0 et l’épaisseur entre 2 surfaces isobares Z2 – Z1 sera grande (faible) selon que l’air est chaud (froid). Quand T augmente, il y a expansion de l’air entre les deux niveaux de pression. Cette relation A3-1 n’est autre que la relation hydrostatique appliquée au gaz parfait. Comme la pression atmosphérique au sol ne varie pas tellement entre l’équateur et les pôles, on s’attend donc à ce que l’épaisseur de l’atmosphère soit grande dans les tropiques et faible dans les régions polaires. Ces cartes d’épaisseur sont données sur les sites Web cités plus haut et peuvent être directement interprétées comme température moyenne de la couche d’air.

A.3.2 La géostrophie Les mesures faites par un ballon sonde sont des mesures de température T en fonction de la pression p et il est donc plus naturel d’utiliser une coordonnée pression

574

Annexe 3 : Observer l’atmosphère

que la coordonnée altitude z pour décrire les mouvements sur la verticale. Dans ces conditions, le gradient de pression horizontal peut s’écrire : ∂φ 1 ∂p ∂Z = ≈g ∂x p ρ ∂x z ∂x p ∂φ ∂Z 1 ∂p = ≈g ∂y p ρ ∂y z ∂y p Les symboles |z ou |p signifient que la dérivation par rapport à x ou y est faite en gardant z constant ou la pression p constante. Plutôt que de chercher comment varie la pression selon x à une altitude constante, on va donc chercher comment varie le géopotentiel (et donc l’altitude Z) selon x à pression constante. Ce sont les variations de hauteur Z des isobares qui permettent de calculer le gradient de pression. La relation géostrophique s’écrit alors : −fv = −

∂φ ∂x p

∂φ +fu = − ∂y p

A3-2

Ce sont alors les cartes de géopotentiel (ou de Z) qui permettent de déduire le vent géostrophique. À partir de cela, on peut déduire l’équation du vent thermique pour l’atmosphère en écrivant la relation géostrophique pour deux niveaux de pression 1 et 2, et en faisant la différence : ∂ (Z 2 − Z1) ∂x ∂ (Z 2 − Z1) +f (u 2 − u1) = −g ∂y −f (v 2 − v1) = −g

En utilisant la relation hypsométrique A3-1, on déduit : R d  p1  ∂ T ln   f  p2  ∂x A3-3 R d  p1  ∂ T u 2 − u1 = − ln   f  p2  ∂y v 2 − v1 =



La variation sur la verticale du vent, son cisaillement vertical, dépend du gradient de température, une relation appelée équation du vent thermique. Durant l’hiver dans la troposphère, la température (moyennée zonalement) décroît de 0,75° par degré de latitude. Si on suppose que le vent au sol est faible (u1 = 0), on peut calculer facilement la vitesse du jet-stream (un vent d’ouest) à 250 hPa à une latitude de 30° (f = 7,3 10–5 s–1) : u2 =

287 0.75 x x ln 4 = 36.8 m s −1 7.310−5 1.1105

575

Une introduction à la dynamique des océans et du climat

Sur cet exemple, les contours du géopotentiel et de la température seront parallèles, mais sur les cartes météo on voit très souvent que les contours d’épaisseur (c’est-àdire de température) intersectent les contours de géopotentiel (c’est-à-dire de hauteur d’une surface isobare). On peut directement en déduire le signe de l’advection de température par le vent géostrophique et donc savoir s’il va faire plus chaud ou plus froid comme illustré sur la carte suivante.

 Figure A3-1  La carte d’analyse du 18 février 2017 à 18 : 00 sur l’Atlantique nord issue du site de l’US Navy FNMOC. Les pressions au sol sont en marron et les épaisseurs sont en noir exprimées en dam.

Vers 30 °N apparaissent les hautes pressions de l’anticyclone des Acores avec le contour de 1 024 hPa. Les vents dirigés selon les contours de pression tournent dans le sens des aiguilles d’une montre. Vers 50 °N et 20 °O se trouve une dépression très creuse avec un minimum à 964 hPa. Le vent tourne en sens inverse des aiguilles d’une montre autour de ce minimum et comme les isobares sont serrés, le vent est très fort (particulièrement à l’arrière de la dépression). La ligne d’épaisseur 540 dam (soit 5 400 m) est un index de la température moyenne sur cette épaisseur. Notez comment l’isotherme est déformé par le vent de nord-ouest, avec cette langue d’air froid au sud-ouest du centre de la dépression. Si on regarde l’épaisseur 552 dam un peu plus au sud, une langue d’air chaud advectée par le vent de sud-ouest est visible au sud-est de la dépression. Le flux de chaleur méridien s’effectue dans l’atmosphère aux moyennes latitudes de cette façon : des corrélations positives apparaissent systématiquement dans cette turbulence de grande échelle.

576

Annexe 4 : Le traitement des données climatiques

Si le forçage solaire était le seul important, les températures seraient périodiques et on pourrait facilement les prédire avec le cycle diurne et saisonnier de l’insolation de la même façon que l’on peut prédire les marées. Mais il existe des instabilités des circulations atmosphériques et océaniques qui donnent aux températures ce côté turbulent, chaotique, imprévisible sur des échelles de temps de quelques jours dans l’atmosphère (l’échelle dite synoptique) ou de quelques semaines dans l’océan (la mésoéchelle). Pour tenter de se débarrasser de ce comportement irrégulier, on moyenne ces fluctuations de température sur une échelle de temps T grande par rapport à ces échelles turbulentes. Le climat a une nature statistique : on parle de températures moyennes d’hiver, de moyennes annuelles, de moyennes sur le dernier siècle. Et effectivement cette opération de moyenne réduit le type de structures que l’on peut observer. Pour savoir de quoi il retourne lorsqu’on parle climat, il est nécessaire d’avoir quelques notions de statistique.

577

Une introduction à la dynamique des océans et du climat

A.4.1 Moyenne, variance, histogramme

et loi normale

Comparons l’enregistrement de la température sur les 100 jours d’hiver (du 25 novembre au 5 mars disons) d’une certaine année n° 1 et d’une deuxième année n° 2 à Turbulentcity.

 Figure A4-1  L’enregistrement de la température moyennée sur 1 jour au cours de deux hivers différents (l’année 1 en courbe continue, l’année 2 en pointillé). Le signal paraît haché, chaotique, apériodique.

Cet enregistrement de la température moyenne quotidienne montre que les signaux de l’année 1 et de l’année 2 ne se ressemblent pas vraiment. Par moments ils sont en phase, à d’autres ils sont en opposition. On est habitué aux signaux périodiques, mais ici aucune périodicité n’apparaît clairement. Cela paraît très difficile de prédire la température du lendemain a fortiori d’un hiver à l’autre… Cet enregistrement est typique d’un signal dominé par la turbulence de l’atmosphère. On peut tracer d’autres hivers, mais on observera toujours cette variabilité qui semble le fruit du hasard. Que peut-on bien tirer de tels enregistrements ? On peut commencer par construire un histogramme. On découpe le signal de température par intervalle de 2°, on observe à quel intervalle la température du jour appartient puis on compte le nombre de fois où le signal s’est retrouvé dans cet

578

Annexe 4 : Le traitement des données climatiques

intervalle. On fait cela pour tous les intervalles de [-15,-13], [-13,-11], [-11,-9] etc. jusqu’à [13,15]. Le résultat est le suivant :

 Figure A4-2  L’histogramme de l’année 1 et de l’année 2 des signaux de la figure précédente. L’ordonnée N est le nombre de jours où le signal est compris dans l’intervalle de température indiqué sur l’axe des abscisses.

Le point frappant est que ces deux histogrammes de deux années différentes se ressemblent beaucoup plus que les signaux de la figure A4.1. C’est seulement après ce comptage statistique que les deux observations commencent à montrer des similarités. Le maximum indique que l’intervalle de température (centré autour de 2°) est observé ~ 15-20 jours par hiver, c’est donc celui-là que l’on aura le plus de chance d’observer. La largeur de l’histogramme donne une autre indication. On peut chercher par exemple la gamme de température qui est observée au moins 5 jours par an, typiquement ici entre –4° et +8°. On peut se dire qu’à un instant donné le signal va avoir les plus grandes chances de se trouver par là. Comment faire pour formaliser un peu cette idée ? Comme les deux histogrammes ne sont pas totalement identiques, on pourrait essayer de faire un histogramme non plus sur un hiver mais sur un très grand nombre d’hivers de façon à éliminer ces différences. On prend toutes les températures d’hiver des 50 dernières années et on construit un tel histogramme sur 50 × 100 (= 5 000) données journalières.

579

Une introduction à la dynamique des océans et du climat

 Figure A4-3  L’histogramme fait sur les hivers des 50 dernières années à Turbulentcity. La hauteur h d’un rectangle bleu est telle que l’aire du rectangle est égale à la fréquence relative f d’occurrence de cet intervalle de température. Comme ici f = N/5 000 (avec N le nombre de fois où un intervalle ∆T est observé et 5 000 le nombre total d’observations), la hauteur h = f/∆T. On en déduit que l’aire totale sous la courbe est égale à 1.

Si on augmente encore le nombre d’années et on peut aussi prendre des intervalles plus fins de température, on s’aperçoit alors que l’histogramme normalisé (aire = 1) tend vers la courbe rouge en cloche de la figure. Cette courbe est la distribution normale ou courbe de Gauss définie par : − 1 G(x ) = e b 2π

( x − a )2 2b 2

où a et b sont deux paramètres qui la définissent entièrement. Que sont a et b pour la figure ci-dessus ? On voit que « a » détermine le maximum de G(x) et on montre que « a » est la moyenne temporelle du signal, c’est-à-dire : TN =

i=N

1 Ti N∑ i =1

avec N le nombre d’observations disponibles au temps t = 0, ∆t, 2∆t, i∆t… N∆t. La barre supérieure représente cette moyenne arithmétique sur les N valeurs (en toute rigueur, il faut prendre la limite de l’expression lorsque N → ∞ mais les signaux réels ne permettent pas ce luxe intellectuel – voir plus loin). Le paramètre b mesure la largeur de la courbe de Gauss. Son carré est égal à la variance du signal qui indique comment le signal varie autour de la moyenne. Elle est définie ainsi : 2 i=N 1 Var(T) N = (Ti − TN ) N −1 ∑ i =1

580

Annexe 4 : Le traitement des données climatiques

Le terme entre parenthèses est la distance d’une observation faite un jour i particulier à la moyenne. On prend le carré de cette distance et on moyenne sur tous les points : la variance est la distance carrée moyenne qui mesure objectivement la dispersion du signal autour de la moyenne. L’écart type σ est simplement la racine carrée de la variance : σ = Var(T) N On l’appelle souvent valeur rms (pour root mean square). L’écart type donne une mesure objective de la variabilité du signal. L’anomalie de température T′ est la température à laquelle on a enlevé la moyenne : T′ = T − TN On travaille toujours ainsi avec les séries climatiques de façon à isoler la variabilité. Il arrive souvent aussi d’utiliser l’anomalie réduite en la normalisant par l’écart type : TR′ =

T − TN σ

Le point important qui reste à régler est que moyenne et variance dépendent du nombre N d’observations à considérer. Se pose alors immédiatement la question de savoir quel est le nombre minimum d’observations pour que moyenne et variance ne dépendent quasiment plus de N. C’est la question de la convergence de la moyenne. Avec les 50 hivers disponibles, on peut répondre expérimentalement à cette question : on calcule moyenne et variance sur un an, puis sur deux ans, etc. puis finalement sur 50 ans et on observe le résultat :

 Figure A4-4  Moyenne et écart type de la température : chaque point est la moyenne (écart type) sur le nombre d’années indiquées sur l’axe des abscisses.

581

Une introduction à la dynamique des océans et du climat

On voit qu’il faut attendre pas mal d’années pour que ces quantités se stabilisent, mais elles finissent par y arriver. L’écart type converge vers la valeur 5 au bout d’une vingtaine d’années. En revanche, la moyenne converge vers 2 semble-t-il plus lentement. En insérant les valeurs a = 2 et b = 5 dans l’expression de G(x), la courbe de Gauss, on trouve la courbe rouge qui explique l’histogramme de la figure A4.3. La conclusion est que moyenne et écart type déterminent complètement ici l’histogramme du signal de température grâce à la distribution normale que l’on peut donc réécrire ainsi : ( x − x )2 − 1 G(x ) = e 2σ2 A4-1 σ 2π avec σ l’écart type et x la moyenne du signal. L’accent a été mis sur cette distribution normale car c’est celle qui est rencontrée le plus fréquemment dans la nature.

A.4.2 Le lien avec les probabilités Avec un signal comme celui de la figure A4-1, cela n’a plus aucun sens de se demander quelle température il fera précisément demain. Cela paraît très dérangeant d’abandonner toute certitude alors que l’atmosphère est gouvernée par des lois déterministes comme celles de Newton. Mais on peut trouver des analogies très simples comme le tirage d’un dé ou le jeu de pile ou face pour lesquels la mécanique déterministe fabrique du hasard. Faire rouler un dé est une expérience qui a fondé les jeux de hasard. Pourtant le mouvement du dé est régi par la deuxième loi de Newton qui est une loi déterministe, sans hasard. En fait ce sont les conditions initiales du dé, position et vitesse, qui sont à l’origine des fluctuations de la face du dé en sortie. C’est impossible de contrôler ces conditions initiales avec assez de précision pour qu’un nombre choisi apparaisse. Du coup une petite variation sur la condition initiale produit au final une diversité de résultats. On parle alors de sensibilité aux conditions initiales (SCI). L’atmosphère et l’océan sont également des systèmes soumis à la SCI pour lesquels des erreurs initiales sur la connaissance du milieu s’amplifient rapidement à cause des instabilités hydrodynamiques omniprésentes. À quoi peut bien servir la loi normale ? Revenons à l’histogramme de départ de la figure A4-2. Supposons que sur N (= 100) jours d’hiver, n (= 10) aient des températures comprises entre 0 et –2°. Cela veut dire que j’ai une chance sur dix que la température demain soit comprise dans cet intervalle. Comme pour le jet de dés on doit diminuer nos prétentions et se rabattre sur une estimation de la chance d’avoir tel intervalle de température. Aristote disait : le probable est ce qui arrive d’habitude. Cette chance, ce probable, est quantifiée par la notion de probabilités. On sent que la probabilité de l’événement nommé A « la température demain sera entre –2° et 0 » peut s’écrire : Prob(A) ≈

n nombre de cas où A se réalise soit = N nombre de cas possibles

avec la probabilité notée Prob nécessairement comprise entre 0 (A ne se réalise jamais) et 1 (A se réalise toujours). On a mis le signe ≈ ci-dessus car on se doute

582

Annexe 4 : Le traitement des données climatiques

bien que si le nombre N d’échantillons des possibles augmente, Prob(A) va aussi changer. On a donc ici une façon de quantifier le plus ou moins probable. Comme l’histogramme tend vers la loi normale quand N est grand, émerge une méthode directe d’estimer les probabilités de divers événements si on connaît moyenne et écart type. L’histogramme de la figure A4-3 est construit de façon à ce que l’aire des rectangles soit proportionnelle à la fréquence relative. Du coup la hauteur G(x) de la courbe sur la figure est telle que l’aire d’un rectangle infinitésimal soit proportionnelle à la probabilité que x soit compris dans l’intervalle de largeur dx. La probabilité qu’une valeur X appartienne à l’intervalle de largeur dx est donnée par : Prob(x < X ≤ x + dx ) = G(x )dx Si X peut prendre toutes les valeurs entre –∞ et +∞, il faut alors vérifier que la somme des probabilités soit égale à 1 : +∞

∫ G(x)dx = 1 A4-2



−∞

G(x) est ce qu’on appelle une densité de probabilité (pdf pour probability density function). Si on appelle Probi ≈ G(xi)∆x la probabilité qu’une valeur X appartienne à l’intervalle ]xi, xi+∆x], la moyenne peut aussi se calculer ainsi : x ≈ ∑ x i Probi i

Et si on fait tendre ∆x vers 0, cette somme devient exactement : ∞



x=

∫ xG(x)dx A4-3

−∞

et de même pour la variance : +∞



σ2 =

∫ (x − x )

2

G(x )dx A4-4

−∞

L’insertion de G(x) de A4-1 dans les relations A4-3 et A4-4 permet de vérifier ces deux résultats. La connaissance de la pdf G(x) détermine entièrement les probabilités d’occurrence de telle ou telle valeur de la variable concernée. Une fonction associée à la pdf qui joue un rôle important en pratique, est la fonction de répartition F(x) (ou cdf, cumulative distribution function) telle que : F(x ) = Pr( X ≤ x ) Alors :

x

F(x ) =

∫ G(y )dy

−∞

donc G(x ) = F ’(x )

583

Une introduction à la dynamique des océans et du climat

où ici y est juste une variable d’intégration muette (on peut lui donner n’importe quel nom). G est la dérivée de F et F la primitive de G qui s’annule en –∞. F(x) est une fonction croissante dont les limites à l’infini sont donc parfaitement déterminées F(-∞) = 0 ; F(∞) = 1. L’introduction de F permet de trouver directement la probabilité qu’une valeur X soit comprise entre x1 et x2 : Pr(x1 < X ≤ x 2 ) = F(x 2 ) − F(x1) Le calcul de F se déroule de la façon suivante. On définit d’abord la courbe de Gauss élémentaire de moyenne nulle et d’écart type 1 et la fonction erreur erf(x) : 2

G1(x ) =

1 − x2 e 2π x

y2

− 1 erf (x ) = e 2 dy 2π ∫0

Les valeurs de la fonction erf sont connues par une table. Ces deux fonctions sont tracées ci-dessous :

 Figure A4-5  La loi normale et la fonction de répartition.

On peut montrer que :



erf (∞) =

y2

− 1 1 e 2 dy = ∫ 2 2π 0

La fonction erf(x) est impaire [erf(-x) = –erf(x)], et le résultat ci-dessus garantit A4-2. En changeant de variable, on trouve le lien entre F(x) et erf(x) : x

F(x ) =

−∞

584

1

x − x σ 

∫ G(y )dy = 2 + erf 

Annexe 4 : Le traitement des données climatiques

Dans ces conditions : 1 Pr(x1 < X ≤ x 2 ) = F(x 2 ) − F(x1) = σ 2π

x2

∫e



( x − x )2 2σ 2

x1

 x1 − x  x − x dx = erf  2  − erf  σ  σ    

Ainsi la fonction erf permet-elle de trouver directement la probabilité d’occurrence d’une valeur arbitraire X dans un intervalle donné. On peut trouver par exemple la probabilité qu’une valeur soit à moins d’un écart type de la moyenne (puis deux, puis trois) : Pr (x − σ < X ≤ x + σ) = erf (1) − erf (−1) = 2erf (1) ≈ 68% Pr (x − 2σ < X ≤ x + 2σ) = 2erf (2) ≈ 95.4% Pr (x − 3σ < X ≤ x + 3σ) = 3erf (3) ≈ 99.7% Donc 68 % des valeurs sont attendues à moins d’un écart type de la moyenne, 95 % à moins de deux et 99,7 % à moins de trois. Ces résultats remarquables sont indépendants de la valeur de la moyenne et de l’écart type. Si on les applique aux données de température de la figure A4-1, on peut dire avec une probabilité de 68 % que la température demain sera comprise entre –3° et +7°, avec une probabilité de 95 % que la température sera comprise entre –8° et 12° et avec une quasi-certitude que la température sera comprise entre –13° et 17°. Voilà le type de prédictions que l’on peut faire à Turbulentcity. Certes on peut être déçu par leur côté imprécis, mais c’est ainsi avec la turbulence. En revanche, on comprend déjà mieux toute l’importance de la détermination de la moyenne et de l’écart type lorsque la pdf sous-jacente est une loi normale, le cas fréquent en pratique.

A.4.3 La méthode des moindres carrés et la mesure

du réchauffement global

Tendance Sur la figure ci-dessous de la température en moyenne annuelle des 100 dernières années à Turbulentcity, il semble qu’il y ait maintenant une tendance au réchauffement. Mais compte tenu de la variabilité interannuelle du signal, un climato-sceptique peut prendre une année chaude il y a 100 ans et une année froide aujourd’hui pour affirmer qu’il n’y a en fait aucun réchauffement. Compte tenu de la variabilité naturelle du climat sur une large gamme d’échelles temporelles, la question de la mesure du réchauffement climatique sur un siècle ne peut avoir qu’une réponse statistique.

585

Une introduction à la dynamique des océans et du climat

 Figure A4-6  Un enregistrement typique de la température en moyenne annuelle sur le dernier siècle.

Comment définir objectivement la tendance au réchauffement perdue au milieu de ce brouhaha aléatoire ? La réponse vient des méthodes d’estimation optimale qui sont fondées sur la méthode des moindres carrés, une découverte de Gauss. Ces méthodes jouent un rôle fondamental en sciences du climat et on va montrer leur potentiel sur ce problème très simple. Appelons y la température qui est donc observée à des temps discrets. Ainsi les données sont : y1, y2, … yi, … yN mesurées aux temps t = ∆t, 2∆t,…i∆t,…N∆t. Une façon simple de définir la tendance est de proposer un modèle de croissance linéaire yE = b + at où yE est l’estimateur de la tendance avec l’objectif de trouver ces deux constantes a et b. y

t

 Figure A4-7  La droite est l’estimateur yE, la tendance cherchée, et les points noirs sont les données, ici à trois instants.

586

Annexe 4 : Le traitement des données climatiques

L’écart entre les données et l’estimateur à un instant i∆t est yi–yE et on voudrait que cet écart soit le plus petit possible. Comme cet écart peut avoir n’importe quel signe, il vaut mieux considérer le carré de l’écart, une quantité positive. Les distances carrées (on dit quadratiques) des données à l’estimateur sont donc (y1–yE)2, (y2–yE)2, … (yN–yE)2. On ne les traite pas individuellement, mais on les considère ensemble au travers de leur moyenne : e2 =

2 1 (y i − y E ) N i =∑ 1,N

La quantité e2 est l’erreur quadratique moyenne entre les données et l’estimateur que l’on cherche. Les méthodes de moindres carrés qui se sont développées visent à trouver l’estimateur qui minimise cette erreur e2. Trouver un minimum est une opération qui fait appel à la dérivée qui est effectivement nulle à un minimum. La seule extension est qu’il y a ici deux paramètres a et b et il faut donc imposer que les deux dérivées de e2 par rapport à a et à b soient nulles. C’est assez simple de dériver e2 car la dérivée d’une somme de termes est la somme des dérivées, de sorte que : ∂e 2 = −2[y i − (at i + b)] = 0 ∂b ∂e 2 = −2[y i − (at i + b)t i ] = 0 ∂a où pour une simplification d’écriture la moyenne est notée par une barre horizontale supérieure. Ces deux équations pour a et b se réécrivent :

at i + b = y i at 2i + bt i = y it i

A4-5

deux équations linéaires à deux inconnues qui donnent directement a et b. On calcule les moyennes requises pour les coefficients de ces équations, puis a et b. La droite de la figure A4-6 est l’équation de l’estimateur optimal yE = 15,1 + 0,82 t et l’estimation optimale du réchauffement séculaire est donnée par la valeur de « a » ici environ 0,8° (par siècle). Mais la méthode fournit en plus l’erreur quadratique moyenne résiduelle en reportant yE dans l’expression de e2 (ici e = 0,28°). On possède ainsi une façon objective de comparer divers estimateurs entre eux. La prédiction d’un refroidissement par le climato-sceptique ne peut pas être exclue, elle devient juste improbable.

Covariance et corrélation Pour essayer de mettre en évidence un lien statistique entre deux variables climatiques x et y, on utilise la covariance et la corrélation entre ces deux variables : cov(x, y ) = xy R xy =

xy σxσy

587

Une introduction à la dynamique des océans et du climat

Pour avoir la covariance, on prend la moyenne du produit xy entre les deux variables. La corrélation Rxy est simplement la covariance divisée par le produit des écarts types de chaque variable. Elle est sans dimension et varie entre –1 et +1. Quelquefois x et y représentent la même variable. Par exemple au même endroit, x sera la variable à un temps t1 soit x(t1) et y = x(t2) sera la même variable à un instant différent t2. On parle alors de corrélation temporelle. On peut aussi considérer deux variables observées à des endroits différents mais au même instant. La covariance ou la corrélation sont alors dite spatiales.

Un signal turbulent L’autocorrélation temporelle du signal de température de la figure A4-1 est donc la quantité T(t1)T(t 2 ). Lorsque le signal est dit stationnaire, cette covariance ne dépend pas de t1 et t2 séparément mais seulement de la différence τ = t2 – t1. Il suffit alors de calculer la covariance T(t)T(t + τ). On choisit une valeur de τ et on accumule tous les produits possibles séparés de τ et on en fait la moyenne. Puis on refait le même calcul pour une autre valeur de τ. Le résultat est le suivant :

 Figure A4-8  La corrélation temporelle du signal de température de la figure A4.1.

La corrélation vaut toujours 1 à τ = 0, mais on s’aperçoit qu’elle chute directement à des valeurs proches de 0 dès τ = 1 et reste ensuite proche de 0. Le signal est essentiellement décorrélé d’un jour au suivant. Tout se passe donc comme si le signal du jour n’avait aucune connaissance du passé. Si c’est le cas, aucune prédiction n’est possible. La conclusion paraît extrême mais certains aspects sont assez proches de la réalité : les observations océan-atmosphère montrent des corrélations assez semblables sauf que la décorrélation n’est jamais aussi abrupte : généralement un signal comme celui de la température des mois d’hiver reste corrélé sur des τ de quelques jours à une semaine et seulement après chute à zéro. Et c’est l’existence de cette corrélation sur quelques jours qui rend possible des prédictions sur ce laps de temps.

588

Annexe 4 : Le traitement des données climatiques

Un signal périodique Quelle est la corrélation d’un signal périodique, par exemple x = a cos(2πt/T) ? On peut la calculer directement ou numériquement avec le résultat suivant :

 Figure A4-9  La corrélation temporelle d’un signal périodique est périodique.

La période T est ici de 20 jours dans cet exemple et on voit que la corrélation passe à zéro à 5 jours (les 2 cos qui interviennent dans la corrélation sont en quadrature de phase) puis à –1 à 10 jours (les 2 cos sont en opposition de phase) pour revenir à +1 au bout d’une période, les 2 cos étant revenus en phase. Conclusion : la corrélation d’un signal périodique est périodique de même période que le signal sous-jacent.

Corrélation et prédiction Supposons connue la corrélation temporelle d’un signal x(t). Connaissant x(t) à l’instant t, peut-on dire quelque chose sur le futur de ce signal, disons à un instant t + λ ? Le plus simple est d’estimer x(t + λ) linéairement en fonction de x(t) en écrivant : x(t+λ)~a x(t) Le principe des moindres carrés de Gauss permet encore de déterminer a. On écrit que l’erreur quadratique moyenne est minimum : e 2 = [x(t + λ) − ax(t)]2 minimum En dérivant par rapport à a, on obtient :

[x(t + λ) − ax(t)] . x(t) = 0 Cette forme s’exprime souvent en disant que l’erreur x(t + λ) – a x(t) est orthogonale aux données, ici x(t). En développant, on obtient : R(λ) − aR(0) = 0 et R(λ) a= R(0)

589

Une introduction à la dynamique des océans et du climat

Supposons que la corrélation soit de la forme R(τ) = e −α|τ|, une forme qui certes présente une difficulté au voisinage de τ = 0 mais qui va permettre d’illustrer simplement le point clé de la prédiction. Notez que la valeur absolue est nécessaire car R(−τ) = R(τ). On trouve : a = e −αλ et e 2 = 1 − e −2αλ Comme la corrélation décroît exponentiellement vers zéro sur un temps α–1, on voit tout de suite qu’une estimation correcte du signal est limitée aux intervalles de temps λ inférieurs au temps de décorrélation α–1. À défaut, aucune réduction d’erreur n’apparaîtra. La corrélation permet donc de mesurer objectivement la valeur d’une prédiction par cette échelle de décorrélation. Les signaux turbulents ont des temps de décorrélation courts et la prédiction s’avère limitée. En revanche, les signaux périodiques ont des corrélations qui sont aussi périodiques et permettent des prédictions parfaites. La méthode esquissée ici, l’analyse objective, est utilisée couramment en océanographie pour estimer les données manquantes d’un réseau d’observation. La connexion entre corrélation et prédiction est développée un peu plus loin sous un autre angle, le domaine des fréquences de Fourier.

Régression linéaire Le plus simple est de prendre un exemple. L’indice NAO est défini par la différence de pression au niveau de la mer entre Lisbonne et Reykjavik. Pour connaître comment l’océan répond aux changements de vents, on peut chercher s’il existe une relation linéaire entre la réponse, par exemple la SST, et le forçage atmosphérique l’indice NAO. Comme on s’intéresse aux variations interannuelles, appelons y la moyenne annuelle de la SST observée en un point particulier de l’Atlantique nord et x sera la moyenne annuelle de l’indice NAO. Lorsque l’on utilise une réanalyse sur disons 50 ans, nous disposons de 50 valeurs du couple de données (xi, yi) et si on les trace dans un diagramme x, y une figure du type de A4-6 va être obtenue, un nuage de points avec peut-être une certaine organisation. L’idée la plus simple est de voir si cette organisation se traduit par une relation statistique linéaire y = b + a.x. Le problème est exactement le même que celui de la tendance vu ci-dessus et un ajustement au sens des moindres carrés de l’erreur entre l’estimateur et les données fournit les mêmes relations A4-5 que l’on recopie ci-dessous en remplaçant le temps t par la variable x : ax i + b = y i ax 2i + bx i = y i x i où la barre supérieure est la moyenne sur les N (= 50 ans) de données. En pratique on enlève au préalable la moyenne des données de sorte que x et y sont maintenant des anomalies (de moyenne nulle) et la solution du système linéaire est : b=0

590

a=

y i x i A4-6 x 2i

Annexe 4 : Le traitement des données climatiques

En introduisant l’écart type σx, σy des variables x, y et le coefficient de corrélation Rxy entre ces deux variables, la pente « a » se réécrit : a = R xy

σy σx

On définit alors la régression de y (la SST) sur x (l’indice NAO) en utilisant la droite des moindres carrés : σy . x A4-7 y i = R xy σx i En multipliant la pente « a » par les données xi, l’équation A4-7 fournit ainsi une série chronologique y i qui représente la part de la SST corrélée avec l’indice NAO. Cette série est la SST régressée sur l’indice NAO. Pour tester la fiabilité statistique de la relation obtenue, on peut calculer a posteriori l’erreur quadratique moyenne résiduelle : 2 1 e2 = (y i − y i ) N i =∑ 1,N   Comme y = (y − y ) + y , on peut élever cette relation au carré et faire la moyenne i

i

i

i

(opération toujours notée par la barre supérieure) : y i 2 = (y i − y i )2 + y i 2 + 2(y i − y i )y i Le dernier terme s’écrit encore : (y i − a.x i ) . ax i = a(x i y i − ax 2i ) qui vaut zéro en vertu de A4-6. Ainsi : y i 2 = (y i − y i )2 + y i 2 Le terme de gauche est la variance des données y, le premier terme à droite est l’erreur résiduelle aléatoire e2 et le dernier la variance expliquée par la méthode des moindres carrés. Définissons :



r 2 = y i 2 y i 2 soit encore :

A4-8

r 2 = (σ2y − e 2 ) σ2y Ce rapport r2 donne donc la fraction de la variance expliquée par la régression sur l’indice NAO par rapport à la variance totale des données. Il vaut 1 si l’erreur résiduelle est nulle et 0 si la relation linéaire présupposée entre y et x n’explique rien du tout. Lorsque cette régression est effectuée pour tous les points de l’Atlantique nord, on obtient une carte de la réponse de la SST corrélée avec l’indice NAO caractérisée par la pente « a » de A4-6 et la fraction expliquée A4-8.

591

Une introduction à la dynamique des océans et du climat

A.4.4 L’analyse en fréquences ou analyse

de Fourier

Les fonctions cos et sin jouent un grand rôle car elles décrivent bien l’observation des petites oscillations d’un système physique, comme un pendule ou un ressort, les vagues ou les marées par exemple en océanographie. Fourier dans sa Théorie analytique de la chaleur de 1822 a eu l’idée de représenter un signal périodique de forme quelconque (en dents de scie par exemple) par une somme de cos et de sin. Aujourd’hui on fait couramment ce développement de Fourier pour tout type de signaux (plus nécessairement périodiques) afin de visualiser le contenu en fréquence du signal, c’est-à-dire de trouver sur quelles échelles de temps caractéristiques le signal oscille majoritairement. Savoir que la variance d’un signal est concentrée sur certaines échelles de temps permet de cibler les processus dynamiques les plus appropriés pour en rendre compte. Encore une fois, il s’agit ici de faire passer les idées sans formalités.

A.4.4.1 La fréquence de Nyquist Considérons un signal discret de n valeurs x0, x1, … xn-1 observés aux temps j = 0, 1, … n –1, multiples de l’intervalle de temps physique ∆t entre deux mesures, ∆t est le pas d’échantillonnage du signal. Supposons que le signal soit justement un cos : x j = cos (ω j∆t) Quand on augmente la fréquence ω à partir de 0, le signal oscille de plus en plus rapidement. Si ω = π/∆t, on obtient : x j = cos (jπ) = (−1)j Le signal oscille entre –1 et +1. C’est la plus haute fréquence que cette série de mesures peut détecter. On l’appelle la fréquence de Nyquist ωNYS = π/∆t. Supposons que l’on augmente encore ω au-dessus de ωNYS telle que π/∆t