Il cambiamento climatico. La religione del XXI secolo 8831352180, 9788831352185

Il riscaldamento globale e le relative conseguenze sull’ambiente e sulla vita dell’uomo sono, senza alcun dubbio, tra i

113 57 6MB

Italian Pages 160 [158] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Il cambiamento climatico. La religione del XXI secolo
 8831352180, 9788831352185

Table of contents :
Spazi geografici
Sergio Pinna. Il cambiamento climatico
Colophon
Indice
Introduzione
Capitolo 1. Paradigma del clima o para-dogma?
1. La “Dichiarazione sul clima” del 1979
2. Nel 1988 nasce l’IPCC e, con esso, il paradigma del clima
3. Le riviste scientifiche e la “peer review”
4. La scomoda eredità degli anni ’70
Capitolo 2. Realtà virtuale e realtà effettiva
1. Quali sono i cambiamenti climatici realmente misurati
2. Tutto quello che rientra nel campo delle ipotesi
3. La fondamentale questione degli eventi estremi
Capitolo 3. Piogge intense e rischio idraulico
1. Esempi di discutibili articoli sulle precipitazioni estreme
2. Nessuna tendenza all’aumento delle piene fluviali
Capitolo 4. La presunta “tropicalizzazione” del Mediterraneo
1. Nessuna apprezzabile variazione recente nelle precipitazioni
2. Il “paradossale incremento” degli eventi estremi
3. Quando la verifica contraddice la dottrina, c’è sempre la possibilità di aggiustare i commenti
4. La questione della siccità
Capitolo 5. Cicloni tropicali e tornado. Una percezione del tutto erronea
1. Le tendenze dei cicloni tropicali
2. La lunga assenza di uragani maggiori sugli USA
3. L’andamento dei tornado (negli USA)
Capitolo 6. Il mito della mortalità da calore
1. Le variazioni stagionali della mortalità
2. Relazioni tra clima e mortalità
3. L’Atlante dei disastri, pubblicato dal WMO
4. L’indicatore globale di rischio climatico
5. Una questione veramente emblematica
Capitolo 7. Considerazioni conclusive
1. Le mie risposte a tre domande cruciali
2. Il meeting di S. Rossore: un’esperienza davvero significativa
3. Alcuni “riti” della religione del clima
4. L’idea del clima impazzito: i motivi della diffusione
Bibliografia
Sitografia
Direttivo della collana
Credits

Citation preview

SPAZI GEOGRAFICI

AMBIENTE, TERRITORIO, PAESAGGIO

La geografia ha come obiettivo la descrizione interpretativa della superficie terrestre rispetto alle dinamiche fisiche e antropiche che la riguardano. A tal fine, attinge a dati e osservazioni delle scienze umane come di quelle naturali, collocandosi però in una posizione originale rispetto a entrambe, dato che le attività umane e i fenomeni fisici sono studiati non come oggetto ultimo della ricerca, ma in quanto agenti che concorrono a determinare l’evoluzione dei paesaggi e il quadro dell’organizzazione territoriale. “Spazi geografici” si pone, dunque, come chiave di volta tra i saperi della geografia fisica e di quella umana; lasciando spazio a incursioni nelle classiche branche specialistiche delle discipline geografiche, la collana contribuisce così alla restituzione di una sempre più accurata e attendibile immagine dei vari ambienti osservati e delle società che con essi sono in relazione.

SERGIO PINNA

Il cambiamento climatico La religione del XXI secolo

UNIVERSITÀ

tab edizioni © 2019 Gruppo editoriale Tab s.r.l. Lungotevere degli Anguillara, 11 00153 Roma www.tabedizioni.it Prima edizione novembre 2019 ISBN 9978-88-31352-18-5 È vietata la riproduzione, anche parziale, con qualsiasi mezzo effettuata, compresa la fotocopia, senza l’autorizzazione dell’editore. Tutti i diritti sono riservati.

Indice p. 9 Introduzione 15 Capitolo 1 Paradigma del clima o para-dogma?

1. La “Dichiarazione sul clima” del 1979, 15 2. Nel 1988 nasce l’IPCC e, con esso, il paradigma del clima, 17 3. Le riviste scientifiche e la “peer review”, 19 4. La scomoda eredità degli anni ’70, 20

31 Capitolo 2 Realtà virtuale e realtà effettiva

1. Quali sono i cambiamenti climatici realmente misurati, 31 2. Tutto quello che rientra nel campo delle ipotesi, 38 3. La fondamentale questione degli eventi estremi, 42

49 Capitolo 3 Piogge intense e rischio idraulico

1. Esempi di discutibili articoli sulle precipitazioni estreme, 49 2. Nessuna tendenza all’aumento delle piene fluviali, 60

67 Capitolo 4 La presunta “tropicalizzazione” del Mediterraneo

1. Nessuna apprezzabile variazione recente nelle precipitazioni, 67 2. Il “paradossale incremento” degli eventi estremi, 69 3. Quando la verifica contraddice la dottrina, c’è sempre la possibilità di aggiustare i commenti, 81 4. La questione della siccità, 88

97 Capitolo 5 Cicloni tropicali e tornado. Una percezione del tutto erronea

1. Le tendenze dei cicloni tropicali, 97 2. La lunga assenza di uragani maggiori sugli USA, 105 3. L’andamento dei tornado (negli USA), 109

115 Capitolo 6 Il mito della mortalità da calore

1. Le variazioni stagionali della mortalità, 115 2. Relazioni tra clima e mortalità, 116 3. L’Atlante dei disastri, pubblicato dal WMO, 118

8

Indice 4. L’indicatore globale di rischio climatico, 124 5. Una questione veramente emblematica, 125

p. 127 Capitolo 7 Considerazioni conclusive

1. Le mie risposte a tre domande cruciali, 127 2. Il meeting di S. Rossore: un’esperienza davvero significativa, 130 3. Alcuni “riti” della religione del clima, 131 4. L’idea del clima impazzito: i motivi della diffusione, 138

147 Bibliografia 153 Sitografia

Introduzione Pare fin troppo banale asserire che quello del clima e delle sue modificazioni sia uno degli argomenti dei quali maggiormente si discute da almeno una quindicina d’anni a questa parte; ma cosa viene realmente associato alle parole “cambiamento climatico”? Se, ad esempio, visitiamo il sito web dell’ARPAT (Agenzia regionale per la protezione ambientale della Toscana), troviamo la seguente definizione: «Alterazione dell’equilibrio naturale del clima globale del nostro Pianeta. I cambiamenti climatici principali riguardano l’aumento, in intensità e frequenza, di fenomeni estremi (uragani, temporali, inondazioni, siccità), l’aumento del livello dei mari, la desertificazione, l’aumento di temperatura e la perdita di biodiversità». Si tratta di una enunciazione davvero significativa perché esprime un’idea ormai condivisa dalla quasi totalità delle persone, anche di quelle che hanno una cultura scientifica piuttosto solida. Tale idea, però, ha il problema di risultare ben lontana dalla realtà, essendo il frutto di un continuo bombardamento di informazioni non corrette e spesso totalmente distorte. Poiché la causa principale del riscaldamento del clima della Terra, registratosi nell’ultimo secolo, è indicata nell’aumento della concentrazione in atmosfera della CO2, sono stati proposti vari scenari sugli incrementi futuri di temperatura, proprio in ragione delle previsioni sulle ulteriori emissioni di gas serra, dovute a varie attività antropiche. Insieme alle stime sull’innalzamento termico, ne vengono anche comunicate le presunte conseguenze sull’ambiente globale. L’elenco di esse può variare a seconda delle fonti, ma un fatto emerge in tutti i casi: non viene mai segnalato nulla di positivo, ma anzi si prospettano – con toni ovviamente catastrofistici – solo delle situazioni potenzialmente disastrose (figura 1). Ne consegue che l’opinione pubblica si è assuefatta ad associare al clima caldo soltanto degli effetti negativi, per cui sarebbe opportuno che qualcuno ricordasse che nella climatologia storica, come nella storia stessa, i periodi caldi dell’Olocene sono chiamati Optimum.

10

Introduzione

Fig. 1 – La parte centrale di un servizio sul clima, uscito sul Corriere della Sera nel dicembre 2018. Si tratta di un ottimo esempio per capire il modo catastrofistico col quale è affrontata la questione del riscaldamento globale (Gandolfi, 2018).

Introduzione11

Ciò deriva dalla constatazione che le fasi calde hanno visto condizioni nel complesso assai favorevoli per le popolazioni, che proprio in tali periodi hanno potuto svilupparsi ben meglio che in altri momenti; è avvenuto così per l’Optimum postglaciale, poi in epoca romana e quindi nel Medioevo, almeno tra il 1000 e il 1250. È possibile allora che ogni aumento futuro delle temperature avrà soltanto delle conseguenze nefaste? È chiaro che, per affrontare seriamente il discorso, sarebbe necessario valutare la vulnerabilità delle odierne popolazioni, in quanto l’attuale quadro globale è incomparabile con quello che possiamo immaginare durante i periodi sopra citati, ma resta il fatto che paventare esclusivamente delle conseguenze apocalittiche per un Pianeta più caldo di un paio di gradi pare cosa dettata da un atteggiamento ideologico, piuttosto che da una complessiva riflessione scientifica. Il cambiamento climatico non è più un argomento climatologico, ma è interpretato come una sorta di terribile malattia della Terra che rischia di compromettere il futuro delle prossime generazioni; in buona parte ciò deriva dalla diffusione di una realtà virtuale, costituita da tutta una serie di eventi meteorologici estremi che starebbero continuamente aumentando. È l’idea del cosiddetto “clima impazzito”: quasi tutti ne sono convinti, ma non c’è sostanzialmente nulla di vero. Infatti, come cercherò di chiarire in questo libro, non esistono delle verifiche affidabili che possano confermare determinate affermazioni spesso date per certe. Oltretutto, anche nei casi in cui l’analisi statistica di serie storiche di dati ha evidenziato un trend positivo di qualche evento estremo, le variazioni riscontrate non sono di entità sufficiente da poter dare dei riflessi apprezzabili sull’ambiente, ed è inoltre molto difficile capire se davvero i risultati della verifica possano costituire il segnale di una effettiva tendenza climatica di lungo periodo, oppure siano semplicemente il frutto di periodiche oscillazioni. Senza dubbio la realtà virtuale del clima impazzito è l’immagine mentale dei cambiamenti climatici che hanno anche i politici, a partire dal livello locale fino ai più importanti esponenti governativi, cioè quelli chiamati a prendere grandi decisioni su temi ambientali, come le emissioni di gas serra. Indipendentemente da ogni tipo di considerazione che esulerebbe dai presenti contenuti, non credo sia confortante sapere che quanti effettuano scelte rilevanti, per le relative ricadute

12

Introduzione

economiche di medio-lungo termine, abbiano un quadro molto confuso dei pericoli che si vorrebbero combattere. Come il lettore potrà constatare, per vari argomenti trattati nei successivi capitoli, mi soffermerò anche sul comportamento – a mio giudizio – decisamente criticabile di certi settori della scienza o di singoli studiosi. In proposito, è bene precisare che un atteggiamento molto negativo può essere tenuto, non solo sostenendo teorie erronee o comunque non adeguatamente validate, ma pure evitando di intervenire nel dibattito pubblico, per smentire informazioni palesemente prive di riscontri scientifici. Ad esempio, quando si verifica un evento meteorologico violento (tempesta di vento, nubifragio, tornado ecc.), c’è quasi sempre qualcuno che asserisce che tale evento è stato causato dal cambiamento climatico. Sulla diffusione di simili stupidaggini si nota però un preoccupante silenzio della scienza ufficiale, che, salvo casi rarissimi, ben si guarda dal confutarle. Quando poi alcuni esperti vengono direttamente consultati su questioni simili, tendono in genere a rispondere in questo modo: «non è mai possibile collegare con certezza un singolo fenomeno al cambiamento climatico in atto; tuttavia certi modelli indicano una correlazione diretta fra la crescita delle temperature e l’aumento degli eventi estremi». Senza sbilanciarsi, si è così ottenuto il risultato di alimentare delle posizioni catastrofistiche. A mio parere, l’unico modo di rispondere, intellettualmente onesto, dovrebbe invece essere di questo tipo: «collegare il manifestarsi di un singolo fenomeno estremo al cambiamento climatico non ha il minimo senso scientifico; chi lo fa non ha alcuna competenza in materia, oppure è deontologicamente scorretto». In relazione a quelle che saranno delle osservazioni critiche riportate nel corso della trattazione, mi pare opportuno chiarire che non sono un esperto di fisica dell’atmosfera e neppure di modellistica climatica, per cui le mie considerazioni su determinate teorie non riguarderanno la loro strutturazione, bensì certi presupposti su cui si basano e il contesto generale nel quale dovrebbero applicarsi. Naturalmente, se le affermazioni sono inerenti a eventuali cambiamenti che si sarebbero già realizzati, le valutazioni si fonderanno sull’analisi dei dati disponibili e sulla conseguente interpretazione.

Introduzione13

Prima di passare alla trattazione degli argomenti specifici, qualche ulteriore annotazione preliminare, in merito al titolo del volume. Per la scelta del vocabolo “religione” ho preso spunto da un’intervista che parecchi anni or sono aveva rilasciato Richard Lindzen, il notissimo esperto di scienze dell’atmosfera del MIT; in detta intervista lo studioso statunitense dichiarava appunto che il modo col quale veniva divulgata (e quindi accolta) la teoria del riscaldamento globale antropogenico gli appariva più adatto a una dottrina religiosa, piuttosto che al normale progresso delle scienze. Col passare del tempo, queste affermazioni mi sono sembrate sempre più appropriate, sia per descrivere come gran parte degli scienziati paia adeguarsi rispettosamente a certi dettami, sia per capire quell’atteggiamento pressoché fideistico col quale l’opinione pubblica accetta tutte le informazioni sul cambiamento climatico. Da un lato, infatti, si constata il ruolo fondamentale di un ente internazionale (IPCC) che pubblica periodicamente dei corposi studi sul clima, verso i quali molti esperti sembrano essere chiamati a dare una conferma acritica dei loro contenuti, piuttosto che a discuterne e farne oggetto di ricerca. Dall’altro lato, è di certo curioso che in una società, nella quale prendono sempre più corpo vari atteggiamenti antiscientifici (ad esempio, la diffidenza verso le vaccinazioni o l’ingiustificato rifiuto delle coltivazioni OGM), tutto quanto compone la teoria del clima impazzito è accettato come una verità indiscutibile, anche perché visto come il parere della “scienza ufficiale”. Nell’ultimo capitolo, una volta esaurite le considerazioni climatologiche, proporrò qualche interpretazione, di carattere ovviamente personale, sui possibili fattori che hanno favorito l’ampissima diffusione delle idee sullo sconvolgimento climatico.

Capitolo 1

Paradigma del clima o para-dogma?

Le grandi riunioni internazionali dedicate ai cambiamenti climatici e alle loro conseguenze si ripetono ormai periodicamente, suscitando un grande interesse mediatico. Il tema fondamentale di discussione è il riscaldamento globale e le azioni che dovrebbero essere intraprese per contenerlo entro certi limiti. In termini estremamente generali, si può dire infatti che tutto il discorso si riallaccia a una visione scientifica generale basata sull’anidride carbonica quale driver essenziale del sistema climatico e quindi alla possibilità di formulare delle previsioni deterministiche sull’andamento delle temperature nei decenni a venire, in relazione ai diversi scenari di emissioni di gas serra. Siamo quindi in presenza di un paradigma del clima che, indipendentemente dalle incertezze che vengono citate, appare ben chiaro e condiviso, al punto da costituire proprio un riferimento per decisive scelte di politica economica degli stati. A mio giudizio, questo paradigma si è però affermato con modalità un po’ particolari, rispetto a quelle che dovrebbero essere le normali procedure di evoluzione del sapere scientifico. 1. La “Dichiarazione sul clima” del 1979

Nella seconda metà del XX secolo, la continua crescita della popolazione mondiale e l’evoluzione dei sistemi economici avevano messo in evidenza la sempre maggiore importanza degli studi sulle relazioni fra le attività umane da un lato e il clima e le sue variazioni dall’altro. Per discutere di tali tematiche, l’Organizzazione Mondiale della Meteorologia (WMO) organizzò nel febbraio del 1979 a Ginevra la prima conferenza mondiale sul clima. Leggendone gli atti (tutti liberamente accessibili in rete), si constata la forte attenzione di molti ricercatori nei confronti di eventuali cambiamenti climatici che si sarebbero potuti produrre nel futuro, a causa delle azioni umane.

16

Il cambiamento climatico

Il punto chiave degli atti di Ginevra è però nella loro parte conclusiva, dove è riportata la Dichiarazione della Conferenza mondiale sul clima, cioè un documento che, facendo il punto su tutto quanto dibattuto nelle sedute del convegno, arriva a una visione sintetica. Nel preambolo della dichiarazione si legge: «Gli specialisti di molte discipline riuniti per la Conferenza hanno espresso il proprio punto di vista su variabilità e cambiamenti climatici e sulle relative implicazioni per la comunità mondiale. Sulla base delle loro deliberazioni hanno adottato la Dichiarazione della Conferenza mondiale sul clima, il cui testo segue». Il documento, essendo stato idealmente sottoscritto da tutti i partecipanti, riporta perciò le posizioni ufficiali della scienza di allora. Ne emerge l’impossibilità di formulare un paradigma in merito ai processi che regolano il sistema climatico; si citano infatti i possibili effetti dell’aumento della concentrazione della CO2 in atmosfera, ma si precisa che forti incertezze esistono su molte cause delle variazioni. Il paragrafo sul clima del futuro si apre con questo capoverso: «Il clima continuerà a variare e a mutare per cause naturali. La tendenza al lento raffreddamento in alcune parti dell’emisfero settentrionale durante gli ultimi decenni è simile ad altre di origine naturale del passato; se [tale tendenza] continuerà o meno è un fatto sconosciuto». Quindi nel 1979 il mondo delle scienze dell’atmosfera chiarisce di non essere in grado di effettuare alcuna previsione, nemmeno quelle di carattere più generale, cioè relative all’andamento della temperatura globale. Non sono neppure suggerite delle ipotesi di una certa probabilità, ma si dice soltanto che il clima futuro è unknown. L’argomento è però ritenuto centrale e infatti nella Dichiarazione di Ginevra sono indicate le principali linee guida per accrescere le conoscenze del sistema climatico, anche in funzione di arrivare a prevedere e prevenire potenziali cambiamenti provocati dall’uomo sul clima, che potrebbero risultare avversi al benessere dell’umanità. Il WMO si fa così promotore di un programma internazionale di ricerca (WCRP, World Climate Research Programme) mirato soprattutto a «sviluppare e migliorare dei modelli fisico-matematici, in grado di simulare il sistema climatico, onde valutare la prevedibilità della sua evoluzione su una varia gamma di scale temporali». Nel documento tecnico n. 122, pubblicato nel luglio 1986 e focalizzato sullo studio della circolazione generale negli oceani, il WMO sot-

1. Paradigma del clima o para-dogma?17

tolineava da un lato che le capacità di elaborazione dei computer erano ancora troppo ridotte per ottenere simulazioni dei fenomeni a livello globale, e dall’altro che, anche quando fossero disponibili gli strumenti informatici della necessaria potenza (situazione attesa nel giro di pochi anni), si sarebbero comunque dovuti affrontare vari problemi concettuali ancora irrisolti quali, ad esempio nei riguardi della circolazione oceanica, le parametrizzazioni di processi come la convezione e la miscelazione turbolenta negli strati limite del mare. Dalla lettura del documento si evince insomma che erano stati attivati numerosi progetti di ricerca di notevole respiro e che dei passi avanti erano stati fatti, ma che il raggiungimento dell’obiettivo di tentare delle previsioni sulle tendenze del clima non appariva ancora molto vicino. 2. Nel 1988 nasce l’IPCC e, con esso, il paradigma del clima

L’esame delle serie termiche mostra come proprio intorno al 1979-1980 si concluda però la fase fresca, iniziatasi a metà degli anni ’40, e ne prenda inizio una nuova contrassegnata da un sensibile riscaldamento del Pianeta. Tale (imprevista) inversione influisce drasticamente sul dibattito, scientifico e politico, in tema di cambiamenti climatici, tanto che l’ONU – o più precisamente l’UNEP, cioè la sua sezione che si occupa di ambiente – decide nel 1988 di dare vita, in collaborazione col WMO, a un ente internazionale che abbia appunto il compito di coordinare le ricerche sui mutamenti del clima e sulle loro conseguenze; nasce così l’IPCC (Intergovermental Panel on Climate Change). Già nei primi mesi del 1990 il Panel pubblica il primo Report, nel quale, pur con certe puntualizzazioni in merito ad alcune incertezze che ancora permangono, viene presentato con chiarezza il quadro nel quale gli scienziati ritengono che ci muova; ciò può essere sinteticamente indicato nel modo seguente: –– sono conosciute e quantificabili tutte le principali forzanti, naturali e antropiche, del sistema climatico; –– i modelli di previsione del clima sono in grado di valutare gli effetti combinati di dette forzanti (con i vari feedback) e perciò di simulare adeguatamente i processi del sistema, fornendo così pure delle stime attendibili sui suoi mutamenti futuri;

18

Il cambiamento climatico

–– il riscaldamento globale che si è osservato durante il XX secolo è da addebitarsi prevalentemente all’incremento dell’effetto serra causato dall’immissione in atmosfera di varie sostanze, con riguardo soprattutto alla CO2; –– considerando allora i possibili scenari di emissioni di gas serra per varie attività antropiche, vengono effettuate delle previsioni sulle variazioni della temperatura della Terra. In questo Report, il dato più attendibile era visto in una crescita di 0,3° ogni decennio. Credo sia incontestabile che tutto ciò corrisponda alla formulazione di un paradigma e quindi a un momento di estrema importanza per le scienze. La cosa però non è affatto evidenziata negli scritti, dai quali il lettore sarebbe piuttosto portato a ritenere che gli elementi ora elencati rappresentino il punto di arrivo di una visione da tempo già ampiamente condivisa. In realtà non viene spiegato in quale modo siano stati colmati tutti quei buchi di conoscenza che erano segnalati fino a pochissimi anni prima; non appare insomma traccia del corretto dibattito che dovrebbe precedere l’instaurarsi di un paradigma. Riflettendo sui motivi della creazione stessa dell’IPCC, qualcosa non mi risulta del tutto chiaro. Se l’obiettivo era di favorire la ricerca, viene da chiedersi perché il WMO non avrebbe dovuto garantire identici risultati anche senza trovarsi sotto la nuova egida. Se il fine era invece quello di lanciare un allarme alle società sui rischi incombenti del riscaldamento globale, la questione apparirebbe allora gestita con una tale accelerazione da non essere giustificata dalle ampie approssimazioni in gioco, per quanto concerne sia l’entità e la tipologia dei cambiamenti climatici, sia gli effettivi pericoli che da essi deriverebbero. Prescindendo dai suddetti dubbi, è certo quale sia stato il primo effetto essenziale della creazione dell’IPCC: partendo da una dichiarazione (1979) di impossibilità di definire l’evoluzione del clima, si è arrivati in pochissimi anni a dichiarare certa, almeno nei suoi aspetti generali, la teoria del riscaldamento globale antropogenico (AGW), con la conseguente possibilità di fare delle previsioni per i decenni a venire.

1. Paradigma del clima o para-dogma?19

3. Le riviste scientifiche e la “peer review”

La formulazione del paradigma dell’AGW ha impresso una forte spinta alla ricerca nel campo dei cambiamenti climatici, ma, come ho già accennato, è parso subito prevalere un atteggiamento di accettazione incondizionata – a riguardo della visione generale e ancor più nei confronti di alcuni aspetti a essa connessi – piuttosto che un vero interesse a condurre delle verifiche. La rapida affermazione del nuovo paradigma è stata senza dubbio facilitata sia dalla forte pressione mediatica che si è creata attorno alla questione, sia dal ruolo giocato dalla maggioranza delle riviste scientifiche di settore, che sono parse subito impegnate a diffondere la dottrina proposta dall’IPCC. Per garantire la qualità di quanto sarà eventualmente pubblicato, le riviste scientifiche sottopongono gli articoli loro presentati a una revisione paritaria (peer review) che ha la funzione di valutare se le ricerche sono realmente affidabili e innovative, scartando quindi quelle non originali, oppure caratterizzate da metodologie dubbie e non convincenti, o, in certi casi estremi, addirittura intellettualmente disoneste. Questo esame, condotto da esperti scelti dalla redazione, svolge così il ruolo di filtro, utilissimo anche per gli autori, i quali possono trarre spesso indicazioni importanti dalle critiche dei revisori e apportare di conseguenza dei miglioramenti significativi allo scritto. Non si può tuttavia negare che il meccanismo della peer review possa pure avere dei risvolti assai negativi, soprattutto quando si tratta di questioni – come appunto il cambiamento climatico – su cui è in atto un acceso dibattito anche di tipo “ideologico”. Tramite il processo di revisione, le riviste di maggior prestigio possono infatti esercitare una forte azione in favore delle idee a loro gradite, determinando una pressione sugli autori, che sono spinti a modificare e riallineare gli scritti, al fine di ottenere la pubblicazione nella sede desiderata. Nella climatologia degli ultimi decenni, questo problema è stato molto più rilevante di quanto si potrebbe credere, perché solo un esame abbastanza accurato di certi articoli (e altri documenti) apparentemente corretti è in grado invece di far risaltare delle situazioni davvero negative. Nel corso dello scritto porterò alcuni esempi di tali distorsioni che dimostrano come, in riviste di massima notorietà in-

20

Il cambiamento climatico

ternazionale, siano usciti dei lavori – ovviamente in linea con le tesi dominanti – con uno o più dei seguenti problemi: –– esame di dati la cui provenienza non è indicata; ciò impedisce la reale verifica della bontà dei risultati proposti; –– assenza di valutazione della qualità dei dati elaborati, oppure affermazione di qualità senza che sia in alcun modo possibile sapere come sarebbe stata accertata; –– verifiche statistiche palesemente non adeguate a quanto viene studiato; –– interpretazione dei risultati ottenuti non coerente, dal punto di vista climatologico, con quanto emerso; –– mancanza nella trattazione di elementi invero evidenti che avrebbero portato a conclusioni diverse da quelle pubblicate. 4. La scomoda eredità degli anni ’70

Se facciamo un confronto fra il periodo attuale e gli anni ’70 dello scorso secolo, le differenze nella divulgazione in tema di clima appaiono nettissime. Innanzitutto, gli spazi dedicati erano allora molto più ridotti e finivano per riguardare solo la parte di opinione pubblica che si interessava di questioni ambientali. A parte ciò, erano i contenuti a differire diametralmente: del riscaldamento globale non vi era alcun cenno, mentre si palesavano timori per le conseguenze negative del raffreddamento che era iniziato dopo il 1945. Emblematico è un articolo, uscito nell’aprile 1975 sulla notissima rivista statunitense Newsweek, che aveva come titolo “The Cooling World”, cioè “Il Pianeta che si raffredda” (Gwynne, 1975). La sua lettura lascia oggi stupefatto chiunque non abbia precise informazioni in merito, visto che l’autore propone tutte le classiche tematiche catastrofistiche cui siamo abituati, con la differenza però di associarle non all’innalzamento ma alla riduzione delle temperature! Non manca proprio nulla: dall’allarme per il possibile crollo della produzione mondiale di cibo, alla segnalazione del rischio d’incremento degli eventi estremi (siccità, alluvioni, lunghi periodi di gelo, anomalie nei monsoni ecc.), per arrivare alla triste constatazione della scarsa propensione dei politici ad attuare misure di difesa verso le conseguenze di un clima globale più freddo (figura 1.1).

1. Paradigma del clima o para-dogma?21

Fig. 1.1 – L’articolo di Newsweek del 1975, di cui si tratta nel testo.

22

Il cambiamento climatico

Visto che il giornalista si era appoggiato, per la redazione del suo scritto, alle opinioni di alcuni esperti di scienze dell’atmosfera, risulta chiaro come le posizioni di allora fossero ben lontane da quelle che, solo pochi anni dopo, si sarebbero bruscamente imposte quali verità ufficiali. Sempre nel 1975, una relazione dell’Accademia Nazionale delle Scienze degli USA riportava l’avvertimento di “alcuni fra i più prestigiosi – e al contempo cauti e prudenti – scienziati al mondo”, secondo i quali l’inizio di un’età glaciale non era da considerarsi impossibile nel futuro prossimo. Suggestiva, ancora per il 1975, la copertina della rivista Science News (in data 1° marzo), nella quale la frase “L’Età Glaciale sta arrivando?” è accompagnata da un’immagine che, con tratti un po’ fumettistici, mostra un’enorme lingua di ghiaccio che si abbatte sui grattacieli di New York (figura 1.2).

Fig. 1.2 – La copertina di Science News del 1° marzo 1975, dedicata al raffreddamento del clima.

1. Paradigma del clima o para-dogma?23

Anche l’attenzione dei centri di ricerca britannici pareva volta all’epoca verso la questione del raffreddamento. Con un articolo del gen­ naio 1974 (Tucker A.), il giornale The Guardian riferisce, ad esempio, degli studi che all’Università dell’East Anglia si stavano iniziando a condurre con i primi dati da satellite, proprio per valutare certi possibili effetti di feedback positivo dell’abbassamento delle temperature osservato in quei decenni (figura 1.3).

Fig. 1.3 – Un articolo dell’inglese The Guardian (29 gennaio 1974), nel quale si tratta del problema del raffreddamento globale.

24

Il cambiamento climatico

Un articolo sul clima, pubblicato nel novembre 1976 da National Geographic; sono riportati parte della prima pagina e un grafico, contenuto nell’ultima, che sintetizza i totali dubbi della scienza di allora in merito all’evoluzione delle temperature nei decenni a venire.

Fig. 1.4 –

I temi principali sui quali si concentrava allora la ricerca erano, da un lato il potenziamento dell’effetto serra dovuto alla crescita dell’anidride carbonica in atmosfera, dall’altro l’azione raffreddante svolta dagli aerosol antropogenici; le difficoltà consistevano nel formulare ipotesi che considerassero in modo convincente il ruolo combinato delle

1. Paradigma del clima o para-dogma?25

diverse forzanti (antropiche e naturali). Anche quando, per gli anni ’70, si cita il “consenso al raffreddamento globale”, non si deve intendere che vi fosse una convergenza di tanti studiosi su una precisa teoria generale, perché essa di fatto non esisteva; era solo la constatazione che da alcuni decenni le temperature fossero in calo, assieme all’osservazione di una serie di fenomeni ambientali, a far pensare a molti esperti che tale tendenza potesse mantenersi e condurre così a una fase fredda. Il fatto che i climatologi si dichiarassero in sostanza impossibilitati a fare previsioni sul futuro è ben espresso da un lungo articolo pubblicato nel novembre 1976 da National Geographic (Matthews, 1976). In esso viene fatto il punto sulle ricerche di paleoclimatologia e vengono sentiti i pareri di vari studiosi, anche in merito all’evoluzione del clima nei decenni successivi; un grafico nell’ultima pagina chiariva bene come fosse totale l’incertezza fra un’ulteriore prosecuzione del raffreddamento e, di contro, un’inversione verso il caldo (figura 1.4). Si può così capire che le linee di discussione sul clima degli anni ’70 costituiscano un’eredità un po’ scomoda per gli odierni sostenitori delle teorie dell’AGW, proposte dal Panel intergovernativo. Lo dimostra, ad esempio, la pubblicazione sul BAMS (il bollettino della società americana di meteorologia) di un articolo dal titolo significativo: “Il mito del consenso scientifico, negli anni ’70, al raffreddamento globale” (Peterson et al., 2008). In questo lavoro gli autori si propongono appunto di dimostrare che, anche prima del 1980, una netta maggioranza dei climatologi era già convinta che il Pianeta si sarebbe riscaldato. Come verifica, conducono un esteso esame della letteratura (con peer review) sugli argomenti in oggetto, relativamente al periodo 1965-1979, al fine di ripartire le pubblicazioni in tre gruppi indicanti: a) una probabile tendenza al riscaldamento terrestre; b) una probabile tendenza al raffreddamento; c) nessuna tendenza climatica. Si tratta però di una suddivisione piuttosto generica – fatto chiaramente ricordato del testo – in quanto sono stati reperiti pochissimi lavori contenenti delle reali previsioni sui decenni a venire, mentre per i rimanenti l’assegnazione a uno dei tre gruppi sopra citati è dipesa dall’aspetto su cui si riteneva fosse concentrata l’attenzione dei ricercatori. Inoltre, al fine di giungere a risultati ritenuti più attendibili, è stato condotto anche un censimento delle citazioni che ogni pubblicazione aveva ricevuto fino al 1985.

26

Il cambiamento climatico

Per il quindicennio considerato, Peterson et al. hanno così valutato un totale di 71 articoli, dei quali 44 associabili alla crescita delle temperature, soltanto 7 a un decremento e ovviamente i rimanenti 20 in una posizione neutra. Un uguale rapporto emerge pure dal computo delle citazioni, con un dato complessivo di 2043 per i lavori favorevoli al riscaldamento e di 325 per quelli sul raffreddamento (figura 1.5). Volendo basarci su questi numeri, si dedurrebbe che le tesi di Peterson et al. siano corrette e che quindi già negli anni ’70 una schiacciante maggioranza del mondo della climatologia fosse sicura che la Terra avrebbe conosciuto a breve una fase di aumento delle temperature. Il falso mito, che gli Autori ritengono così di aver abbattuto, sarebbe nato a loro giudizio da una lettura selettiva ed erronea dei testi scientifici, operata dagli esponenti dei media di allora. Una spiegazione che pare oggettivamente risibile, perché se le cose stessero in tal modo, bisognerebbe ammettere come vera una situazione chiaramente assurda: un manipolo di scienziati (circa il 10% del totale, secondo i rapporti emersi dalla ricerca) avrebbe monopolizzato l’attenzione mediatica, diffondendo timori su un futuro di freddo, mentre quella netta maggioranza, costituita dagli studiosi convinti dell’effetto riscaldante della CO2, sarebbe rimasta del tutto priva di visibilità per molti anni, accettando così che venissero divulgate all’opinione pubblica delle informazioni totalmente distorte rispetto a quanto sarebbe invece dovuto scaturire da una corretta interpretazione delle loro pubblicazioni scientifiche. Mi sembra dunque che dall’articolo commentato traspaia, piuttosto che un reale desiderio di ricerca, un’evidente spinta ideologica a cercare di confutare in qualche modo un argomento che risulta scomodo. Infatti, anche la metodologia utilizzata è molto discutibile per il caso in oggetto, in quanto, per il periodo di riferimento, non si può parlare di un vero e proprio dibattito sulle tendenze future del clima, per il semplice motivo che le scarsissime conoscenze sui processi del sistema climatico non consentivano di elaborare teorie attendibili. Peterson et al. concludono il loro lavoro con una considerazione che dovrebbe ulteriormente consolidare le loro tesi, mentre credo finisca per renderle ancora più deboli.

1. Paradigma del clima o para-dogma?27

Fig. 1.5 – Numero di pubblicazioni scientifiche in tema di cambiamenti climatici

(in alto) e relative citazioni (in basso), secondo la ripartizione effettuata da Peterson et al., 2008. Per le spiegazioni si veda nel testo.

Viene infatti ricordato che, in un documento edito nel 1979 dal National Research Council degli USA, un panel di esperti di modellistica climatica aveva lanciato un allarme per i rischi di un riscaldamento globale di alcuni gradi (Charney et al., 1979). Ebbene, senza mettere in dubbio la competenza di questo gruppo di studiosi, mi pare ovvio che, se si vuole parlare del 1979, si debba ricordare la posizione di autorevolezza certamente maggiore costituita dalla Dichiarazione sul clima di Ginevra, nella quale si dice che non sono possibili delle previsioni sul

28

Il cambiamento climatico

futuro del clima. Mi pare anche evidente che, se una parte consistente degli scienziati fosse all’epoca davvero stata sicura dell’inevitabile incremento antropogenico delle temperature, non si sarebbe registrata a Ginevra una completa adesione alla dichiarazione finale del simposio, ma sarebbe stata proposta una mozione atta almeno a chiarire certe posizioni di dissenso dalla linea generale dettata dal comitato scientifico del WMO. L’aver trascurato questi punti relativi al 1979 è dipeso da un deficit culturale, oppure si è trattato di un’omissione utile allo scopo da raggiungere? Quale sia la risposta, ne deriva comunque un quadro poco confortante, soprattutto considerando che la questione non è stata rilevata dai revisori della rivista americana. Se Peterson et al. hanno tentato di dare una parvenza di verifica scientifica alle loro argomentazioni, altri hanno più semplicemente falsificato la realtà delle cose: un ottimo esempio di ciò è costituito dal documento dell’IISD (International Institute for Sustainable Development), pubblicato nel settembre del 2009 in collaborazione con il WMO, e inerente ai lavori della terza Conferenza Mondiale del Clima, tenutasi a Ginevra dal 31 agosto al 4 settembre del 2009. In questo report è fatto inizialmente un breve cenno alle due precedenti conferenze; per quella del febbraio 1979 a Ginevra le parole dedicate sono le seguenti: La conferenza si è concentrata principalmente su come il cambiamento climatico potrebbe avere delle ripercussioni sulle attività umane. Ha esaminato i possibili impatti su specifiche attività quali agricoltura, pesca, silvicoltura, idrologia e pianificazione urbana. La Dichiarazione della conferenza ha identificato nell’aumento della concentrazione atmosferica di anidride carbonica (derivante dalla combustione di combustibili fossili, dalla deforestazione e dai cambiamenti nell’uso del suolo) la principale causa del riscaldamento globale, ed è stata determinante per la creazione dell’IPCC e per la formulazione del World Climate Programme e del World Climate Research Programme.

Una forte distorsione dei contenuti della Dichiarazione sul clima che – è utile richiamare quanto già ben precisato nel primo paragrafo – affronta la questione dell’incremento della CO2 in atmosfera, ma

1. Paradigma del clima o para-dogma?29

non parla certo di global warming in atto, e afferma che il futuro del clima è sconosciuto. Se si pensa che il tema dominante della conferenza del 2009 era “Better climate information for a better future”, verrebbe un po’ scherzosamente da dire che l’introduzione del documento dell’IISD-WMO non sia andata nella direzione indicata.

Capitolo 2

Realtà virtuale e realtà effettiva Non ci sono dubbi sul fatto che la quasi totalità delle persone associ al termine cambiamento climatico quell’idea fortemente distorta, che la già citata definizione fornita dall’ARPAT esplicava assai bene. In modo molto sintetico, si può affermare che è ormai convinzione generale che: –– il Pianeta si stia continuamente riscaldando, con un ritmo che tende a diventare sempre più veloce; –– il riscaldamento globale abbia causato un vero e proprio stravolgimento del clima, col conseguente aumento, per frequenza e intensità, di molteplici eventi estremi (questo aumento dei fenomeni violenti si farà ancora più marcato nel prossimo futuro); –– tutti i suddetti mutamenti siano addebitabili all’incremento antropico della concentrazione di anidride carbonica in atmosfera. In sostanza, è il quadro che costituisce la “realtà virtuale del clima impazzito”. Questa si è venuta a formare nella mente delle persone a causa di continui messaggi e informazioni che, oltre a contenere spesso esagerazioni e/o errori, sono formulati così da presentare tutti gli argomenti come ben assodati, mentre molti di essi andrebbero intesi in modo assai diverso. Per cercare di inquadrare più correttamente il discorso, ritengo infatti che si debbano ben distinguere tra loro: a) i dati relativi ai cambiamenti che è stato possibile misurare, con buona affidabilità; b) ciò che è costituito da ipotesi, ovviamente con le probabilità che le caratterizzano; c) tutte quelle teorie sugli eventi estremi che si fondano su dati incerti e contraddittori, su presupposti molto deboli o addirittura su assunti ben lontani dalla realtà. 1. Quali sono i cambiamenti climatici realmente misurati

Contrariamente a quanto si potrebbe credere, i cambiamenti confermati da dati sufficientemente affidabili riguardano ben pochi para-

32

Il cambiamento climatico

metri, mentre per vari aspetti climatologici le incertezze sulle statistiche disponibili e l’elevata variabilità interannuale non consentono di formulare dei giudizi su eventuali modificazioni significative; in ogni caso – come verrà spiegato ampiamente nel corso del testo – molte delle modificazioni, che si tende a dare per già avvenute, non appaiono tali dopo le opportune verifiche statistiche. L’innalzamento della temperatura media globale

Il trend termico generale della Terra, dalla metà del XIX secolo a oggi, è positivo, con un aumento complessivo che, stante le incertezze in gioco, possiamo ritenere compreso fra 0,8° e 1,0°. Tale aumento non si è però realizzato tramite una salita costante, bensì attraverso l’alternanza di varie fasi di segno diverso (figura 2.1):

Fig. 2.1 – L’andamento della temperatura media terrestre, come ricostruito dai maggiori centri di ricerca inglesi (linea nera); l’area in grigio rappresenta il campo di incertezza dei dati. Nel grafico sono riportate anche le curve fornite dai due principali enti statunitensi; si noti che esse iniziano però nel 1880. Appare evidente la buona concordanza fra i tre diagrammi, per cui il quadro delle oscillazioni della temperatura globale può essere considerato come un’informazione sicura, almeno nei limiti di un’accettabile approssimazione.

2. Realtà virtuale e realtà effettiva33

–– –– –– –– –– –– ––

una moderata crescita dal 1850 al 1880; un abbassamento delle temperature dal 1880 al 1910; una fase di consistente riscaldamento dal 1910 al 1945; un graduale raffreddamento dal 1945 alla fine degli anni ’70; un rapido innalzamento dal 1980 al 2000; una sostanziale stabilizzazione dopo il 2000; un rialzo, iniziatosi nel 2014, con picco toccato nel 2016.

A partire dal 1979, le misure della temperatura globale si sono arricchite grazie al contributo dei dati da satellite, con i quali è stato così possibile confrontare quelli provenienti dalle classiche stazioni di superficie. La figura 2.2 riporta appunto l’andamento della temperatura dei bassi strati della troposfera, secondo i due principali database americani derivanti dalle rilevazioni satellitari della NOAA. Si nota la presenza di un elevato numero di oscillazioni di breve periodo con un trend di fondo crescente per il primo ventennio e poi praticamente stazionario dopo il 1999; infine è evidente la risalita cominciata nel 2014 e culminata nei primi mesi del 2016.

Fig. 2.2 – Le temperature mensili della bassa troposfera, in base alle rilevazioni operate dal satellite Tiros-N della NOAA e alle loro interpretazioni UAH e RSS. La linea a tratto grosso rappresenta una media mobile di periodo 37 (quindi praticamente pari a tre anni), calcolata considerando contemporaneamente i dati provenienti dai due database ora citati.

34

Il cambiamento climatico

L’alternanza di fasi di Niño (in rosso) e di Niña (in blu), come evidenziata dai valori dell’indice ONI. Quando tale indicatore supera la soglia del valore 2, il Niño è definito molto intenso; confrontando il grafico con quello della figura 2.2, si evince come il manifestarsi di tali condizioni tenda a comportare un picco della temperatura globale.

Fig. 2.3 –

Negli ultimi anni le informazioni sulla temperatura globale sono state in genere ben poco aderenti alla realtà, visto che si è sempre continuato a parlare di “surriscaldamento”, nonostante che i valori si fossero sostanzialmente stabilizzati dopo la fine del secolo scorso. Toni drammatici hanno poi accompagnato l’innalzamento dell’ultimo periodo, commentato in genere come l’ennesima e preoccupante prova dell’inarrestabile global warming. In verità, il massimo del 201516 è associato a un episodio di Niño molto intenso, un fenomeno che si è ormai constatato essere in grado di spingere temporaneamente verso l’alto il livello termico della Terra (figura 2.3); sarà quindi necessario attendere ancora qualche anno per capire se le temperature avranno davvero ripreso a salire e con quale rapidità. Fino a ora quindi non sembra essersi manifestata quella progressiva accelerazione del processo di riscaldamento terrestre che molti danno per scontata e che lo stesso IPCC ha cercato nei fatti di accreditare anche con dubbie verifiche, come nel caso del grafico pubblicato nel 2007 (Technical Summary, p. 37), nel quale viene fatto un raffronto fra trend relativi a finestre temporali diverse, con l’evidente obiettivo di dimostrare l’anomalia del periodo più recente (figura 2.4).

2. Realtà virtuale e realtà effettiva35

Fig. 2.4 – Grafico, tratto dal Technical Summary 2007 dell’IPCC, che riporta i valori della temperatura media globale, con i trend lineari relativi ai periodi 18562005, 1906-2005, 1956-2005 e 1981-2005. L’obiettivo della figura è manifestamente quello di suggerire una progressiva accelerazione del global warming, ricorrendo però a un metodo davvero discutibile dal punto di vista statistico, in quanto si propone un confronto fra trend calcolati per finestre temporali di ampiezza ben differente.

Estremamente difficile è giudicare quanto sia stata elevata l’intensità del riscaldamento nell’ultimo secolo, perché la mancanza di sufficienti misure strumentali prima del 1850 non consente dei confronti diretti. Informazioni indirette di grande interesse ci vengono però dalle analisi condotte sui campioni di ghiaccio prelevati dalle grandi calotte, come nel caso della Groenlandia; il diagramma riportato nella figura 2.5 ne ricostruisce l’andamento termico durante gli ultimi 17 mila anni, basandosi sulle ricerche di Alley (2000). Si nota come la parte conclusiva della fase glaciale del Würm sia stata caratterizzata dal manifestarsi di cambiamenti climatici davvero bruschi (figura 2.5). Infatti, circa 14,5 ka si ebbe un riscaldamento molto rapido (interstadiale di Allerød) cui fece seguito però un parimenti repentino e fortissimo calo delle temperature che in Groenlandia scesero di oltre 15°: è l’oscillazione fredda conosciuta come Dryas recente.

36

Il cambiamento climatico

Fig. 2.5 – Le oscillazioni della temperatura in Groenlandia negli ultimi 17 mila anni, secondo i dati delle misure isotopiche di Alley (2000), relative al progetto GISP2. Il diagramma mostra come la fase che segna la transizione dal Pleistocene all’Olocene sia stata caratterizzata da cambiamenti del clima molto bruschi.

Ma ancor più brusco è poi il nuovo riscaldamento che segna la fine del Dryas recente e che convenzionalmente indica la fine della glaciazione e cioè il passaggio dal Pleistocene all’Olocene; secondo i dati di Alley, molto dettagliati dal punto di vista temporale, le temperature in Groenlandia, intorno a 11,7 ka, registrarono un incremento di 10,2° in circa 140 anni, pari cioè a un ritmo medio di crescita di 0,72° al decennio. A commento di ciò, l’Autore precisa che, pur tenendo presente che alle alte latitudini i cambiamenti climatici sono presumibilmente stati più accentuati che non altrove, è indubbio come le popolazioni di allora abbiano sperimentato delle variazioni ambientali molto più rapide di quelle osservate negli ultimi 150 anni. Il rafforzamento dell’effetto serra

Come ben noto, l’effetto serra dell’atmosfera terrestre è dovuto alla presenza in essa di alcune sostanze in grado di intercettare la radiazio-

2. Realtà virtuale e realtà effettiva37

ne infrarossa emessa dal nostro Pianeta; l’entità di tale effetto è perciò dipendente dalla concentrazione di tali sostanze, dette genericamente “gas serra”. Con l’inizio dell’era industriale, tutta una serie di attività antropiche ne ha determinato un progressivo incremento. L’anidride carbonica è passata dalle 270~280 ppm stimate agli inizi del XIX secolo alle oltre 400 attuali; nello stesso periodo il metano è cresciuto da circa 700 ppb a più di 1800.

L’incremento della concentrazione in atmosfera dell’anidride carbonica (in alto) e del metano (in basso), secondo le misurazioni effettuate sul Mauna Loa. I grafici riportano i dati mensili espressi in parti per milione (ppm) per la CO2 e per miliardo (ppb) per il CH4. Fig. 2.6 –

38

Il cambiamento climatico

La tendenza all’incremento di questi gas serra si è manifestata chiaramente anche negli ultimi decenni, come messo in evidenze dalle misure effettuate. I grafici della figura 2.6 indicano infatti che la CO2 è salita, con andamento assai regolare, dalle circa 315 ppm che si registravano alla fine degli anni ’50 alle attuali quasi 410, e che il CH4, attestato attorno a 1650 ppb nel 1985, oggi ha raggiunto un livello di circa 1870. 2. Tutto quello che rientra nel campo delle ipotesi

Qualsiasi affermazione concernente la conoscenza complessiva dei processi che avvengono nel sistema climatico deve essere considerata come un’ipotesi sulla quale al momento non è possibile esprimere una valutazione certa, in quanto manca una teoria generale che possa spiegare in modo convincente le dinamiche di detto sistema. Tutte le previsioni in merito agli sviluppi del clima nei decenni a venire sono accolte oggi a guisa di informazioni pressoché certe, in base alle quali sarebbe perciò del tutto logico impostare le grandi strategie di politica economica e ambientale. Bisogna in realtà tenere presente che le previsioni scaturiscono dall’applicazione di modelli matematici creati per cercare di simulare il sistema climatico e che pertanto risultano estremamente difficili. Il sistema infatti è di grande complessità e con molteplici comportamenti di tipo non lineare rispetto all’azione delle sue numerose forzanti. Spesso si sente affermare che i modelli climatici globali (GCM) sono sicuramente affidabili, perché si basano su leggi della fisica ben consolidate; tuttavia, il discorso deve essere esteso a molte altre considerazioni. Se così non fosse, i problemi sarebbero praticamente risolti e saremmo già arrivati a una visione univoca in merito agli sviluppi futuri del clima; invece le previsioni variano a seconda del tipo di GCM che le produce. I modelli climatici sono in sostanza degli utilissimi strumenti matematici che consentono agli esperti di esprimere, nella forma migliore, il modo col quale funziona il mondo reale, sulla base però di certi assunti iniziali da loro ritenuti veri.

2. Realtà virtuale e realtà effettiva39 I modelli climatici e il sistema reale

Quello climatico è un sistema dinamico continuo, all’interno del quale si svolge contemporaneamente un’enorme quantità di processi che concorrono a determinarne lo stato. In un modello, se la descrizione dei singoli processi può essere correttamente definita grazie alla conoscenza delle leggi fisiche in gioco e all’adozione delle opportune formulazioni matematiche, resta però il problema fondamentale di stabilire una gerarchia fra i concetti, cioè di capire, per ogni processo, se esso risulti dominante, paritetico o trascurabile rispetto ad altri. La maggior parte delle relazioni tra i parametri in un complesso di processi naturali è, come già accennato in precedenza, di tipo non lineare. Inoltre, anche una relazione che può essere considerata lineare se studiata da sola, potrebbe mostrare un comportamento non lineare, se inquadrata nel contesto di cambiamenti simultanei di altre variabili. In sostanza, la definizione di quali processi risulteranno effettivamente prevalenti – e quindi, in ultima analisi, l’individuazione dei fondamentali driver del clima – non può scaturire dal modello, ma deve essere decisa dal suo utilizzatore, nel momento in cui viene scritto il codice del programma. Perciò qualunque GCM rispecchia certe impostazioni intellettuali del climatologo modellista, associando a esse uno scenario quantitativo. Se quelle impostazioni si fondano su ragionamenti non corretti o su osservazioni sperimentali inadeguate, i risultati che si otterranno non saranno perciò attendibili. In aggiunta a quanto finora detto, deve essere tenuta presente un’ulteriore fonte di incertezza: l’esistenza di svariate dinamiche del sistema climatico che la scienza non è ancora in grado di chiarire. In effetti certe variazioni del clima (valutate indirettamente o misurate) non hanno alcuna spiegazione causale, dimostrando così la possibilità che in qualunque periodo possano agire delle forzanti naturali del tutto ignote e pertanto non parametrizzabili in un modello. In proposito, si possono ad esempio citare le rapidissime oscillazioni di temperatura alla fine del Pleistocene, delle quali si è parlato nel paragrafo precedente. Sempre a titolo d’esempio è utile ricordare, in tempi ben più vicini a oggi, un dato che emerge dalla notissima serie termica CET (Central England Temperature); in essa si nota che, dopo un minimo registrato alla fine del XVII

40

Il cambiamento climatico

secolo, il clima è andato riscaldandosi velocemente, con le temperature che si sono innalzate di oltre 2° in un quarantennio. L’attendibilità delle simulazioni sul futuro ottenute dai GCM viene solitamente provata mediante la loro capacità di riprodurre adeguatamente l’andamento della temperatura globale negli ultimi 100-150 anni (figura 2.7); si tratta di un test ormai consolidato che, in pratica, tutti i modelli superano, nonostante però che le impostazioni di base siano spesso assai differenti da caso a caso. Kiehl (2007) spiega questo partendo dalla puntualizzazione che delle serie storiche di dati affidabili esistono soltanto per i gas serra ben miscelati in atmosfera, mentre così non è, ad esempio, per gli aerosol, per l’ozono e per svariate grandezze relative a forzanti naturali. I diversi modelli riescono allora a riprodurre le variazioni di temperatura, in quanto ipotizzano serie di dati diverse per i fattori sconosciuti; ne consegue che in sostanza è sempre possibile adattare, con la sufficiente accuratezza, un modello contenente vari parametri regolabili a un qualsiasi dataset di temperature registrate nel passato (Pilkey e Pilkey-Jarvis, 2007).

Fig. 2.7 – Grafico tratto dal Report 2001 dell’IPCC, che mostra l’adattamento del

modello alle temperature misurate. Era dichiarato che venivano considerate due forzanti naturali (la radiazione solare e le eruzioni vulcaniche) e due antropiche (la concentrazione dei gas serra e il contenuto degli aerosol in atmosfera).

2. Realtà virtuale e realtà effettiva41

L’aver superato il test non è quindi un’effettiva garanzia sul fatto che il modello funzioni correttamente quando viene usato, non per fornire una possibile spiegazione del passato, ma per generare previsioni in merito all’evoluzione futura del clima. Se, oltre a quanto ora detto, ricordiamo anche che non si possono mai escludere eventuali effetti di forzanti naturali sconosciute, appare chiaro che le indicazioni sugli scenari climatici dei decenni a venire debbano essere intese in termini di ipotesi scientifiche e non di certezze, come oggi la società tende a fare. Problemi simili, ad esempio, sono già stati affrontati in più occasioni nelle ricerche di economia, proprio perché vari modelli, che ricreavano con ottima approssimazione le variazioni già avvenute, si sono però dimostrati inadeguati a delineare l’evoluzione futura degli indicatori considerati. La “climate sensitivity” rispetto alle variazioni della CO2

Nei fatti, i GCM cui l’IPCC fa riferimento si basano sostanzialmente sulle variazioni dei gas serra antropogenici, tra i quali il ruolo fondamentale è quello dell’anidride carbonica. Gli incrementi di temperatura, che si dovrebbero verificare nel corso di questo secolo, vengono quindi previsti in base ai diversi quantitativi delle emissioni di CO2 che sono ipotizzati. Partendo dal calcolo del forcing radiativo determinato dalla concentrazione della CO2, si arriva a valutare che un suo raddoppio rispetto alla quantità presente in epoca preindustriale dovrebbe direttamente causare un aumento di temperatura nell’ordine dei 6~7 decimi di grado; tale aumento si ritiene che induca una serie di feedback positivi in grado di innalzare ulteriormente il livello termico della Terra (Pinna S., 2014). A quanto dovrebbe allora ammontare l’escursione complessiva? Gli esperti indicano da un minimo di 1,5° a un massimo di 4,5°. Si tratta di un problema molto studiato da vari decenni, tanto che si era già arrivati a tale stima negli anni ’70. In un’intervista rilasciata a Der Spiegel nel marzo 2019, il climatologo Bjorn Stevens (dell’Hamburg Max Planck Institute for Meteorology), oltre a sottolineare come la forbice di incertezza non si sia sostanzialmente ridotta, precisa che la questio-

42

Il cambiamento climatico

ne della sensitività nei confronti delle variazioni dell’anidride carbonica è resa ancor più complicata da altri fattori, primo dei quali è la copertura nuvolosa. Particolarmente rilevante è l’azione raffreddante di quelle basse, tanto che una loro riduzione di solo il 4% – sempre nelle parole di Stevens – dovrebbe produrre un aumento di circa 2 gradi della temperatura del Pianeta, cioè pari al quantitativo massimo entro il quale gli accordi internazionali vorrebbero contenere tutti i cambiamenti climatici futuri. Da ricordare infine che, oltre a quanto ora discusso a proposito delle incertezze sulla sensitività rispetto alla CO2, rimane anche la non meno importante questione di eventuali forzanti naturali in atto che nei modelli GCM non possono essere prese in carico, in quanto non ancora riconosciute. In sostanza le previsioni climatiche per il XXI secolo sono senza dubbio di grande interesse, ma dovrebbero essere accolte (e anche diffuse) quali ipotesi scientifiche e non in termini di certezze, come invece avviene a ogni livello. L’argomento centrale del 2018 è stato quello di provare a limitare il riscaldamento terrestre a 1,5° invece che a 2,0°; la domanda che mi pongo in merito è: abbiamo conoscenze scientifiche davvero sufficienti per discutere di differenze di solo mezzo grado? 3. La fondamentale questione degli eventi estremi

La questione dell’aumento degli eventi meteorologici estremi è ormai da tempo il punto chiave del dibattito sul cambiamento climatico. La teoria in proposito è piuttosto semplice: la crescita delle temperature causa una maggiore evaporazione, per cui in atmosfera sale il contenuto di vapore acqueo (legge di Clausius-Clapeyron) e conseguentemente si modifica il ciclo idrologico, col risultato di avere manifestazioni violente sempre più frequenti e intense. Non vi è dubbio che il tema degli eventi estremi sia stato ingigantito dal sistema mediatico – le notizie catastrofistiche generano sempre un mercato ricchissimo – ma è parimenti certo che l’origine del tutto vada ricercata nei documenti ufficiali dell’IPCC; da notare, oltretutto, che i suoi esponenti scientifici si sono sempre guardati bene dallo smentire

2. Realtà virtuale e realtà effettiva43

qualsiasi esagerazione che venisse diffusa, contribuendo così a darne una patente di autenticità. Un’idea davvero assurda, ma purtroppo quasi generalizzata, è che il clima sia stato sconvolto rispetto al passato, in quanto modificato dall’uomo. È facile però capire che se accettiamo come vera la teoria di una correlazione diretta fra temperatura ed eventi estremi, dobbiamo necessariamente dedurre che qualunque forzante (naturale o antropica che sia), in grado di far riscaldare il Pianeta, avrà anche l’effetto indiretto di incrementare gli eventi estremi. Per essere più chiari possiamo dire che, se la CO2 fosse arrivata ai livelli attuali per cause naturali invece che per azioni antropiche, il risultato sul sistema climatico non potrebbe essere differente da quello che osserviamo. L’osservazione della figura 2.8 conferma che, di fatto, si considera pressoché sicuro che per svariate tipologie di fenomeni violenti siano già individuabili dei trend di crescita e che queste tendenze si manterranno tali anche nei decenni a venire.

Fig. 2.8 – Copia dello schema presente nella pagina 52 del Technical Summary 2007 dell’IPCC e dedicato agli eventi estremi, con riferimento sia a quanto si sarebbe già verificato, sia alle previsioni per il corso del XXI secolo.

44

Il cambiamento climatico

Prima di entrare nella discussione delle suddette affermazioni, mi pare però opportuno soffermarsi su un aspetto dello schema della figura 2.8 che forse non è immediato individuare: si tratta del reale significato della terza colonna, cioè quella dal titolo “Probabilità di un contributo umano nei trend osservati”. La domanda che infatti mi pongo in proposito è: a cosa serve? Dato che l’IPCC parte dagli assunti che il riscaldamento recente sia antropogenico e che vi sia una relazione diretta fra le temperature e l’incidenza di molteplici eventi estremi, mi pare evidente che il contributo umano nei trend osservati debba essere ritenuto indubitabile. Ma allora perché sollevare la questione, indicando oltretutto dei livelli di probabilità non elevatissimi? Non è facile rispondere, ma nasce il sospetto che si sia trovato un modo molto sottile per dare una spintina a favore di quell’idea assurda della quale ho poco prima fatto cenno. Il presupposto di voler ottenere un effetto sensazionalistico

Le teorie attuali sono nate nel corso degli anni Novanta, modificando in modo assai netto le posizioni tenute sino ad allora dai climatologi; anche in questo caso non si riesce però a individuare un chiaro percorso tenuto dalla scienza, ma anzi emergono fatti che fanno sorgere dei dubbi sostanziali. Un esempio ci viene dato dalle affermazioni di Stephen Schneider, uno dei più noti esponenti dell’IPCC, sempre molto attento sulle ricadute sociali dei risultati scientifici. Schneider pubblica nel 1976 un libro nel quale mette in guardia contro i rischi di drammatici cambiamenti climatici; l’argomento centrale non è però l’aumento delle temperature ma il raffreddamento del Pianeta. Nel testo si dice che la convinzione generale dei climatologi è quella di una tendenza di lungo periodo verso il freddo, fatto che potrebbe comportare seri problemi all’umanità. Schneider infatti ricorda che le fasi calde del clima sono quelle che hanno creato le situazioni migliori, mentre quelle fredde hanno causato serie conseguenze negative, anche per il manifestarsi di più frequenti fenomeni estremi: esattamente il contrario dei dogmi dell’attuale religione del politicamente corretto. Non mancano, inoltre, le lamentele per la non sensibilità del mondo politico ad attuare delle azioni preventive per ridurre i temuti problemi futuri.

2. Realtà virtuale e realtà effettiva45

Proprio come ben adatto a un argomento religioso, anche Schneider negli anni ’80 conosce una sua “via di Damasco”, divenendo un fiero sostenitore delle teorie del global warming antropogenico e ovviamente delle relative idee in merito alle spaventose ricadute che esso potrà avere sull’ambiente e sull’uomo. Nel 1989 rilasciava così al giornalista Jonathan Schell un’intervista davvero significativa, nella quale dichiarava: Come scienziati siamo eticamente vincolati al metodo scientifico e perciò a promettere di dire la verità, tutta la verità e nient’altro che la verità. Ciò significa che nelle nostre affermazioni dobbiamo specificare tutti i dubbi e le incertezze, senza quindi trascurare ogni se ed ogni ma. D’altro canto, noi non siamo solo scienziati, ma anche esseri umani. E vorremmo, come la maggioranza delle persone, che il mondo fosse un posto migliore; un fatto che, in tale contesto, si traduce nel far sì che il nostro lavoro possa ridurre i rischi derivanti da cambiamenti climatici potenzialmente disastrosi. Per ottenere questo, abbiamo bisogno di qualche supporto al fine di catturare l’immaginario dell’opinione pubblica. Questo implica di ottenere una forte copertura mediatica. Così siamo chiamati ad offrire scenari spaventosi (resi semplificati) con dichiarazioni drammatiche che facciano rara menzione dei dubbi che possiamo avere in proposito. In sostanza, ci troviamo davanti al suddetto “doppio vincolo morale”, senza che esista una formula univoca su come comportarsi. Ognuno di noi dovrà quindi valutare quale sia il giusto compromesso fra essere onesti e risultare efficaci. Io spero che questo significhi essere entrambi.

Sono parole dalle quali traspare – credo in modo del tutto evidente – la volontà di partire da presupposti che avrebbero condotto la scienza del clima su una strada nella quale i risultati della ricerca sarebbero stati pesantemente condizionati dal desiderio di ottenere un effetto sensazionalistico. Una forte critica alle teorie oggi dominanti

Le idee sostenute da svariati studiosi sono ben espresse da Richard Lindzen, il quale afferma, senza giri di parole, che ritenere vero che il global warming comporterà un incremento dei fenomeni estremi significa non conoscere le basi della fisica dell’atmosfera (Lindzen, 2017).

46

Il cambiamento climatico

Egli ricorda che le manifestazioni meteorologiche violente sono determinate dal contrasto di masse d’aria con temperature molto diverse; infatti la quantità di energia che alimenta i moti derivanti dalla cosiddetta “instabilità baroclina” (è quella che si manifesta in un fluido quale l’atmosfera terrestre, cioè soggetto a rotazione e caratterizzato dalla presenza di gradienti orizzontali di temperatura – o di densità – e da una stratificazione stabile) dipende dalle differenze orizzontali di temperatura che caratterizzano l’atmosfera nei suoi primi 10 km circa di spessore. Dato che tutti i modelli GCM prevedono per le alte latitudini degli incrementi termici superiori a quelli della fascia intertropicale, ne risulta allora – sempre come precisato da Lindzen – che in un mondo più caldo si avranno minori contrasti termici e perciò moti atmosferici mediamente meno intensi, col risultato finale di osservare una riduzione degli eventi estremi e non un loro aumento. Tutte le informazioni derivanti dalla climatologia storica indicano una situazione opposta a quella ufficialmente sostenuta

Le tesi che associano il riscaldamento climatico alla crescita, per frequenza ed entità, degli eventi estremi non trovano alcuna conferma negli studi di climatologia storica, dai quali emergono invece indicazioni del tutto contrarie a tali tesi. Le informazioni disponibili evidenziano infatti una prevalente concentrazione degli eventi nella Piccola Età Glaciale (LIA), rispetto a quanto riscontrato per l’Optimum Medievale (MCO) e poi per il periodo del riscaldamento globale recente. Avendo affrontato in modo abbastanza ampio la questione in un mio precedente libro (Pinna S., 2014), in questa sede mi limito a riportare sinteticamente alcune annotazioni davvero significative: –– nel periodo compreso fra la parte finale del XVI secolo e l’inizio del XVIII il Mare del Nord e gli stati su di esso affacciati sono interessati da un gran numero di furiose tempeste, alcune delle quali causano allagamenti costieri di tale gravità da comportare la perdita di migliaia di vite umane, oltre a ingenti danni materiali. Considerando anche che all’epoca il livello marino si ritiene che fosse inferiore all’attuale di oltre 50 cm, tali ripetuti allagamenti devono essere sicuramente attribuiti a una elevatissima burrascosità dei mari (Lamb, 1982);

2. Realtà virtuale e realtà effettiva47

–– in Norvegia tutta una serie di eventi estremi (frane, valanghe, alluvioni ecc.) presenta i massimi di frequenza in corrispondenza dell’acme della LIA, cioè approssimativamente fra il 1650 e il 1730 (Groove, 1988); –– in Italia, la frequenza delle inondazioni causate dal Po e dal Tevere è massima nella LIA (Cortemiglia, 1998); –– la serie storica delle piene del Reno a Basilea indica chiaramente una loro nettissima diminuzione dopo il 1880, cioè in corrispondenza dell’inizio del riscaldamento climatico (Wetter et al., 2011); –– analisi granulometriche, effettuate su campioni di sedimenti prelevati dal fondale del lago alpino di Allos, hanno permesso di accertare che gli eventi di piena nel bacino tributario si sono concentrati fortemente nella LIA, mentre sono apparsi molto più rari nell’MCO e nel XX secolo (Wilhelm et al., 2012); –– una ricerca, basata sulle informazioni contenute in documenti storici concernenti la regione geografica dell’Italia, ha portato all’elaborazione di un indice che esprime, per ogni dato anno, il livello di gravità degli eventi idraulici che hanno comportato conseguenze negative per le società. La relativa serie storica mostra come i valori durante la LIA si siano mantenuti chiaramente al di sopra di quelli del precedente periodo medievale e anche di quelli dell’ultimo secolo (Diodato et al., 2019); –– lungo il periodo 1749-2012, la frequenza degli uragani nell’area comprendente il Golfo del Messico e il Mar dei Caraibi è andata a ridursi e ha presentato una fase di massimo assoluto nella prima metà dell’Ottocento, cioè nella parte conclusiva della LIA (Rojo-Garibaldi et al., 2016 e 2018). Un’onestà intellettuale spesso discutibile

Considerando la non particolare robustezza della teoria di fondo e la sua incongruenza con le informazioni del passato, mi sarebbe sembrato opportuno che sul tema degli eventi estremi si fosse almeno dovuto tenere un atteggiamento di notevole cautela. Invece l’argomento è stato continuamente riproposto nei vari Report dell’IPCC, sempre con affermazioni piuttosto generiche, senza mai segnalare i dubbi dei quali si è appena

48

Il cambiamento climatico

discusso e senza fare alcun cenno al fatto che fino a pochi anni prima le posizioni generali erano in pratica capovolte, dato che il rischio di un aumento dei fenomeni estremi era associato al raffreddamento. Esaminando la bibliografia internazionale, è facile constatare che, anche nei casi in cui dall’analisi statistica dei dati sono emersi dei trend crescenti, le variazioni in gioco sono di entità tale da non poter aver prodotto dei cambiamenti rilevabili nell’ambiente. Si tratta di un punto davvero importante, ma mai messo in evidenza e anzi talvolta del tutto travisato. Le indicazioni sulle quali si basano i documenti dell’IPCC derivano da vari articoli scientifici e perciò dovrebbero essere assai attendibili; in realtà una loro attenta lettura mostra come molto spesso vi sia una palese forzatura nel voler dimostrare a qualunque costo determinate ipotesi. Nei successivi capitoli avrò occasione di discutere di alcuni di tali articoli e parimenti del ruolo assai discutibile che viene giocato dalle riviste che li pubblicano. Pure molto criticabile, a mio giudizio, il modo adottato da tanti esperti nella comunicazione dei temi inerenti agli eventi estremi, con toni catastrofistici atti solo a soddisfare certe esigenze mediatiche. A fronte di ciò si continua a constatare un silenzio pressoché totale quando vengono diffuse delle incredibili assurdità che, secondo una normale deontologia, dovrebbero essere vigorosamente smentite.

Capitolo 3

Piogge intense e rischio idraulico Intorno alla metà degli anni Novanta, quando l’IPCC ha dato le prime indicazioni in merito all’incremento dell’intensità delle precipitazioni e degli eventi pluviometrici estremi (secondo quanto suggerito dai modelli), nell’ambiente della climatologia è drasticamente salita l’attenzione verso quegli studi di serie storiche di dati, che fino a quel momento non erano stati nel complesso molto numerosi. Tutto ciò è un fatto positivo per la conoscenza, ma è indispensabile rilevare che un’ampia parte di tali ricerche, invece che volta a capire se si potessero individuare dei cambiamenti in determinate caratteristiche climatiche, è parsa animata piuttosto dal desiderio di trovare una conferma a una verità ufficiale già stabilita. In questo libro tratto di vari articoli discutibili, inerenti i trend delle precipitazioni; i primi tre rientrano nel prossimo paragrafo, altri saranno analizzati nel successivo capitolo dedicato al Mediterraneo. 1. Esempi di discutibili articoli sulle precipitazioni estreme

I tre lavori dei quali si parla di seguito sono interessanti perché esempi di differenti tipi di problemi che, se rilevati adeguatamente, rendono l’interpretazione dei risultati ben diversa da quella che gli Autori hanno dato, al punto da poter arrivare a dire, almeno in certi casi, che il quadro da loro delineato è ben lontano dalla realtà. I trend globali dei massimi giornalieri nell’anno (Westra et al., 2013)

Questo articolo, uscito sul Journal of Climate, è tra quelli che trattano un elevato numero di stazioni, prendendo i dati da grandi archivi online; in questo caso dal dataset HadEX2. Nel testo viene detto che esso è quello di maggiore qualità, ma è bene subito chiarire che in tale genere di archivi confluiscono dati di ogni genere, molto spesso privi di controlli. I contenuti sono perciò

50

Il cambiamento climatico

costituiti da materiale assai eterogeneo, fatto che comporta una certa approssimazione nelle elaborazioni statistiche che se ne possono trarre. L’obiettivo degli Autori è studiare le tendenze dei massimi di pioggia giornaliera nell’anno, per poi verificare le eventuali correlazioni con l’andamento della temperatura globale. Su un insieme di 11391 stazioni nei vari continenti, ne sono state selezionate 8326, in base al criterio della disponibilità di almeno 30 valori, nell’intervallo 1900-2009. Per quanto riguarda i risultati dell’analisi, nell’abstract si afferma seccamente: «trend crescenti, statisticamente significativi, possono essere rilevati a scala globale». Nell’interno si può leggere però che le serie con tendenza significativa sono il 10,6% del totale: l’8,6% crescenti e il 2,0% in diminuzione. Dalla correlazione con le temperature, è scaturito che le piogge estreme considerate aumentano, per 1° di riscaldamento, di una quantità compresa fra il 5,9 e il 7,7%; in pratica si sarebbe avuto un incremento di circa il 5,5% al secolo. Dall’esame del lavoro, appaiono poi alcuni aspetti che evidenziano possibili incertezze nei risultati. Uno di essi è dato dalla forte variabilità nel numero di stazioni disponibili anno per anno: si passa infatti dalle circa 1000 nella fase iniziale a un massimo di oltre 8500 nei primi anni ’80, per ridiscendere sotto le 6 mila negli ultimi anni (figura 3.1). Altro aspetto è costituito dall’evidente non omogeneità geografica dei dati utilizzati. Ad esempio, con riferimento all’Europa, è davvero poco realistico che nel Benelux e nella Germania occidentale vi siano molte località con correlazioni positive con le temperature, mentre nelle regioni confinanti queste non sono in pratica individuabili; assai strana pure la situazione dell’Italia, ove si osserva una differenza netta fra l’Emilia-Romagna e il resto del territorio (figura 3.2). Ciò che in sintesi non convince di questo articolo sono le conclusioni, sotto l’aspetto climatologico. Tenendo infatti conto dei suddetti motivi di incertezza e al contempo del fatto che, delle 8326 serie studiate, oltre 7400 sono risultate prive di trend significativo, mi sarebbe parso opportuno che un aumento degli eventi estremi fosse eventualmente presentato come possibile, ma ancora da verificare. Viene invece commentato come cosa acclarata, al punto che le prime parole del

3. Piogge intense e rischio idraulico51

titolo sono: “Global Increasing Trends”. Un atteggiamento forzato e, a mio parere, un po’ ideologico.

Fig. 3.1 – Il numero di stazioni utilizzate in ogni singolo anno (p. 3906).

Fig. 3.2 – Nella figura 7 dell’articolo, i punti indicano: a) blu = stazioni con relazione positiva, statisticamente significativa, con le temperature globali; b) rossi = relazioni negative; c) neri aperti = assenza di una relazione statisticamente significativa; d) grigi = località non considerate, in quanto aventi serie troppo corte (p. 3912).

52

Il cambiamento climatico

Le piogge giornaliere di forte intensità in Giappone (Fujibe, 2008)

L’articolo, pubblicato nel Journal of Disaster Research, analizza l’andamento delle precipitazioni in Giappone, in base alle statistiche di 51 stazioni, per il periodo 1901-2006. Nel testo si afferma che gli eventi giornalieri estremi sono cresciuti significativamente nel corso del XX secolo. L’analisi delle frequenze dei giorni con afflussi superiori a 100 e a 200 mm mostra dei trend positivi, di entità indicata in 2,4%/decennio per i primi e 4,2%/decennio per i secondi (figura 3.3). L’osservazione dei grafici dell’andamento temporale di queste due grandezze evidenzia però una differenza fra il primo quarantennio e la fase successiva, caratterizzata da valori mediamente più elevati.

Fig. 3.3 – Numero medio annuo, per stazione, dei giorni con precipitazioni maggiori o uguali a 100 e a 200 mm (p. 53). Anche un semplice esame visivo mostra la presenza di un salto positivo dei valori verso l’inizio degli anni ’40.

3. Piogge intense e rischio idraulico53

Dato che i valori delle due serie sono stati riportati in diagrammi molto chiari, contenuti in un pdf prodotto dalla JMA (Japan Meteorological Agency, l’ente nazionale nipponico), ho potuto stimare con elevata precisione i dati annuali e quindi effettuare su di essi le opportune verifiche statistiche. Per gli eventi > 100 mm, il test di omogeneità di Pettitt ha evidenziato nel 1940 un change point con significatività del 97%; per quelli > 200 mm un change point, con significatività del 99%, nel 1942. Assai più correttamente quindi, le serie 1901-2006 dovrebbero essere studiate in due parti distinte (figura 3.4), cercando anche di interpretare l’origine dei salti individuati.

In alto: il test di Pettitt per la serie > 200 mm di Fujibe. In basso: la suddivisione in due parti di detta serie, in base al change point individuato.

Fig. 3.4 –

54

Il cambiamento climatico

Tutto ciò è completamente ignorato nel lavoro di Fujibe come pure – è bene precisarlo – nel documento della JMA, dal quale ho ricavato i valori. I problemi rilevati sono importanti dal punto di vista dell’analisi delle serie storiche, in quanto la verifica di eventuali disomogeneità ne costituisce un passaggio indispensabile; la presenza di salti, anche quando attribuibili a evoluzione climatica, influisce in modo decisivo nell’interpretazione climatologica delle statistiche, come appunto si può dimostrare per il caso in oggetto. L’introduzione dell’articolo di Fujibe si apre infatti con il consueto omaggio ai ben noti dogmi: In molte regioni è stato osservato un incremento delle precipitazioni intense nell’ultimo secolo, durante il quale le temperature sono salite di circa 0,7 °C. Il quarto Report dell’IPCC afferma che la frequenza degli eventi di piogge intense è aumentata sulla maggior parte delle aree continentali, coerentemente col riscaldamento climatico e la crescita del contenuto di vapore acqueo in atmosfera.

È chiaro allora che dei trend monotonamente crescenti, come quelli della figura 3.3, ben si prestano a confermare le suddette affermazioni, mentre la lettura della figura 3.4 suggerisce che, dopo il 1940, non vi è stata alcuna variazione degli eventi estremi in Giappone e che quindi non si possono rilevare correlazioni col global warming recente; mi pare proprio una differenza sostanziale di vedute. Gli eventi estremi nel sud-est degli USA (Dourte et al., 2015)

Questo articolo costituisce un ottimo esempio di come si possano utilizzare a proprio piacimento certi strumenti statistici, per arrivare a conclusioni che la ricerca non ha in realtà fatto emergere. L’obiettivo dichiarato dello studio era di verificare i cambiamenti nell’intensità delle precipitazioni negli Stati Uniti sudorientali, analizzando i dati sulla scorta di indicazioni fornite dagli stakeholder del settore agricolo, per ovvi motivi molto attenti al tema delle piogge. In base ai risultati ottenuti, gli Autori dichiarano che gli aumenti osservati per gli episodi di forte intensità potrebbero avere impatti negativi sull’agricoltura; stanno proprio così le cose?

3. Piogge intense e rischio idraulico55

Variazioni percentuali medie per le categorie di intensità giornaliera indicate. I colori sono stati aggiunti in questa sede; il grigio rappresenta l’assenza di significatività, come dichiarato nell’articolo.

Fig. 3.5 –

L’analisi dei caratteri di intensità viene condotta classificando gli apporti giornalieri secondo intervalli i cui limiti sono stabiliti dopo un confronto con gli stakeholder. È una procedura che lascia ampi dubbi, perché si possono fare, con grande rapidità, le statistiche secondo classi di valori di ampiezza uguale (ad esempio di 5 o 10 mm) e in un secondo momento concentrarsi su certe categorie che si ritengono importanti per le produzioni agricole. Sono utilizzate le serie di 259 stazioni, ricadenti nel territorio degli stati di Alabama, Florida, Georgia, Nord Carolina e Sud Carolina, in relazione al periodo 1955-2014; la verifica è effettuata mediante un confronto fra i due trentennî 1955-1984 e 1985-2014. Un grafico contenuto nell’articolo dovrebbe illustrare i risultati essenziali raggiunti, ma l’uso del condizionale è davvero indispensabile perché il diagramma pare realizzato col solo scopo di confondere le idee di uno sprovveduto, presentando l’immagine di una barra di lunghezza nettamente superiore alle altre, e trasmettendo così il messaggio di un marcato incremento dell’intensità (figura 3.5). In proposito, è importante puntualizzare quanto segue:

56

Il cambiamento climatico

–– le prime due classi dell’istogramma indicano un calo, ritenuto significativo, mentre quella > 76,2 ha un aumento però non significativo. Considerando che il numero totale di giorni piovosi non dovrebbe essere diminuito (si veda il lavoro di Karl e Knight, 1998), ne deriva che i giorni di pioggia debole (< 12,7 mm), sono presumibilmente un po’ aumentati. Che tutto ciò sia un quadro che possa far pensare a maggiori rischi per le attività agricole, non mi pare logico; –– le variazioni percentuali riportate, sono calcolate rispetto a quantitativi che differiscono tra loro di ordini di grandezza. Gli eventi di oltre 152,4 mm costituiscono meno dello 0,1% del totale dei giorni piovosi, per cui una loro crescita di poche unità può tradursi in una percentuale molto elevata, ma nei fatti non comparabile con le altre, ai fini di un esame dei complessivi caratteri pluviometrici; –– quando si discute di frequenza di eventi estremi, il valore-soglia utilizzato può essere determinante nel risultato statistico. Se in una località, ad esempio, nel primo trentennio si fossero verificati 6 episodi intensi, 4 da 140 mm e 2 da 160, mentre nel secondo periodo gli episodi fossero stati 5, con 2 da 140 mm e 3 da 160, la classe > 152,4 presenterebbe un +50% ma non penso che qualcuno possa ritenere che i rischi per le coltivazioni siano aumentati. Per quanto riguarda la classe estrema, si legge nel lavoro che gli eventi sono stati 423 nel 1955-1984 e 649 nel 1985-2014: un aumento quindi del 53,4% raffigurato dalla spettacolare barra azzurra dell’istogramma (figura 3.5). Rapportando i suddetti valori all’insieme delle 259 stazioni censite, si ottiene che ognuna è passata, in media, da 1,6 episodi nel primo trentennio a 2,5 nel secondo; è un aumento valutabile dal punto di vista statistico, ma non credo apprezzabile in base agli effetti sull’ambiente. Invece, nell’ambito della discussione dei risultati, gli Autori dichiarano: Da diversi anni, da parte dei coltivatori del sud-est degli Stati Uniti, si sentono racconti aneddotici di piogge più violente, e il presente studio sull’intensità delle precipitazioni negli ultimi 60 anni (in queste

3. Piogge intense e rischio idraulico57

regioni) ha mostrato un aumento significativo nel numero di giorni di piogge estreme […] Questi risultati sembrano essere coerenti con le esperienze personali di alcuni produttori nella regione.

Più che un commento scientifico, sembra una dichiarazione di adesione a quelle solite “verità” mediatiche, che devono anche aver influenzato le idee degli agricoltori in modo molto più importante rispetto alle loro reali esperienze dirette. Pure in Italia, da vari anni a questa parte, ogni volta che si verificano condizioni meteorologiche avverse, le associazioni degli agricoltori lanciano allarmi su clamorose modificazioni del clima; nonostante che nessun dato sia in grado di confermarne anche una parziale veridicità, gli enti scientifici si sono però sempre ben guardati dal dare delle smentite. Onde facilitare una migliore comprensione delle mie argomentazioni da parte di quanti non hanno una particolare dimestichezza con certe questioni, può essere utile presentare un ipotetico esempio numerico, con dati che riproducono condizioni climatiche paragonabili a quelle di certe aree dell’Italia centrale. Si immagini quindi di aver effettuato un’analisi dei dati giornalieri di una stazione, calcolando le frequenze assolute in 60 anni per otto classi di intensità; la tabella 3.1 e la relativa figura 3.6 mostrano il quadro derivante da una ripartizione in due sotto-periodi di 30 anni, in modo cioè analogo all’articolo in oggetto. Tab. 3.1 – Un’ipotetica distribuzione di frequenza del numero di giorni con precipitazioni, secondo otto classi di valori di intensità (mm/giorno) e relativamente a due distinti periodi trentennali.

0-10  

  10-20     20-30     30-40  

1° trentennio

2471

532

220

85

2° trentennio

2580

495

223

78

  40-50     50-75     75-100   > 100 1° trentennio

40

30

7

2

2° trentennio

34

33

5

3

58

Il cambiamento climatico

Tab. 3.2 – Distribuzione di frequenza del numero di giorni con precipitazioni, secondo quattro classi di valori di intensità (mm/giorno), ottenute raggruppando i dati riportati nella precedente tabella 3.1.

  10-20     20-50  

> 50

> 100

1° trentennio

532

345

39

2

2° trentennio

495

335

41

3

Variazione (%)

-7,0

-2,9

+5,1

+50,0

Istogramma della distribuzione di frequenza secondo le otto classi dei valori riportati nella tabella 3.1 e relativi a due distinti trentennî; le barre delle classi più elevate non sono in pratica visibili per ovvi motivi di scala dell’asse verticale.

Fig. 3.6 –

Istogramma della distribuzione di frequenza secondo le quattro classi di valori di cui alla tabella 3.2.

Fig. 3.7 –

3. Piogge intense e rischio idraulico59

Variazioni percentuali per le categorie di intensità giornaliera di cui alla tabella 3.2; l’aspetto del grafico è quasi identico a quello riportato nella figura 3.5.

Fig. 3.8 –

È del tutto evidente che dal confronto fra i due trentennî non emerge alcuna variazione apprezzabile, sia per i complessivi caratteri d’intensità delle piogge, sia a riguardo degli eventi estremi. Raggruppando i dati della prima tabella, si ottengono molto facilmente i valori secondo le quattro categorie, di cui alla tabella 3.2, nella quale sono anche riportate le variazioni percentuali di ognuna di esse, calcolate in rapporto ai due periodi confrontati; con tali variazioni è stato costruito il grafico della figura 3.8 che il lettore potrà paragonare a quello della precedente figura 3.5. A cosa è quindi servito l’esempio appena portato? Ha dimostrato come si possa ottenere un grafico pressoché identico a quello dell’articolo americano, partendo da dati che – si badi bene – chiariscono una situazione di sostanziale identità fra le distribuzioni di frequenza di due sotto-periodi, organizzando poi le classi in modo diverso ed esprimendo infine le loro variazioni in termini percentuali. Dal punto di vista puramente formale, non si rilevano errori, ma è chiaro che il procedimento seguito non ha alcuna utilità esplicativa ai fini della climatologia, per cui si mancherebbe totalmente di onestà intellettuale, se da una simile procedura si volessero trarre delle conclusioni in merito a incrementi delle precipitazioni di forte intensità e a connessi maggiori pericoli per l’ambiente. Concludo l’argomento con un’annotazione relativa al fatto che nel sud-est degli USA un 60~70% degli eventi pluviometrici estremi è cau-

60

Il cambiamento climatico

sato dal fenomeno dei cicloni tropicali. Il biennio 2004-2005 ha costituito una vera eccezione, con ben 7 landfall di uragani maggiori sulle coste statunitensi; sarebbe perciò interessante constatare la concentrazione degli episodi > 152,4 mm in detto biennio, per accertare quanto dell’incremento manifestato sia addebitabile a quella situazione momentanea. Purtroppo dall’articolo non si possono trarre informazioni in merito, in quanto non è presentata una serie storica, ma è fornito solo il raffronto fra i due trentennî. 2. Nessuna tendenza all’aumento delle piene fluviali

La questione dei cambiamenti nelle precipitazioni è legata, con tutta evidenza, agli effetti che essi avrebbero sulla pericolosità idraulica. Se nei Report ufficiali l’argomento delle alluvioni è trattato con adeguata cautela, è però il tono della comunicazione pubblica che palesa la volontà del Panel di delineare scenari catastrofici. Una nota dell’ANSA del 7 novembre 2011 riportava le emblematiche dichiarazioni rilasciate alla stampa dall’IPCC, in occasione della presentazione del vertice COP 17, che sarebbe iniziato il successivo 28 novembre a Durban: «Bisogna intervenire al più presto e senza esitazioni, altrimenti il rischio è di un drammatico incremento delle catastrofi su tutto il Pianeta. Se non si invertirà la tendenza in atto, ci aspetteranno inondazioni, cicloni, tifoni, ondate di calore e siccità». Analogamente alle piogge intense, anche i messaggi sulle alluvioni e le piene fluviali hanno indotto numerosi ricercatori a condurre verifiche statistiche sui dati degli archivi idrologici. Dal complesso dei risultati è scaturita una chiara risposta: non sono individuabili dei trend crescenti (e anzi sono talvolta emerse deboli tendenze negative). Come ci si poteva attendere, in alcuni articoli, gli Autori, evidentemente insoddisfatti per non aver potuto confermare le verità ufficiali, hanno aggiunto annotazioni vaghe e/o discutibili, al fine di provare a dire che qualche trend potrebbe essere stato temporaneamente oscurato da altri fattori. Yiou et al. (2006), hanno condotto un esame delle serie storiche delle piene in Boemia arrivando a concludere che: «Un’ana­lisi statistica delle piene dei fiumi Moldava ed Elba in Boemia ha mostrato che la loro frequenza e intensità sono generalmente diminuite nel corso del XX secolo».

3. Piogge intense e rischio idraulico

61

Fig. 3.9 – Portate massime nell’anno per l’Elba, alla stazione di Děčín.

Dopo aver allora constatato che il loro studio non è in grado di confermare l’aumento della frequenza delle inondazioni che i modelli climatici hanno previsto, quale conseguenza del riscaldamento globale antropogenico, hanno però aggiunto; «le inondazioni disastrose del luglio 1997 e dell’agosto 2002 nell’Europa centrale potrebbero essere i primi segnali di alluvioni estreme, causate da piogge sempre più intense». L’osservazione del grafico degli eventi del fiume Elba (p. 933) dimostra come tale affermazione sia del tutto gratuita e priva di senso scientifico; l’episodio del 2002 appare come isolato e il suo dato di portata è dello stesso livello di un altro nei primi anni della serie (figura 3.9). Nella bibliografia internazionale sono numerose le voci riguardanti questi temi; parte dei lavori è rivolta a specifiche aree geografiche, altri hanno un respiro più ampio e considerano stazioni di tutti i continenti o almeno di zone molto ampie. Di seguito si farà cenno ad alcuni della seconda tipologia; constatandone i risultati, il lettore potrà rendersi conto dell’assurdità dei martellanti messaggi sulle alluvioni, che da tempo vengono diffusi. I trend delle portate fluviali (Kundzewicz et al., 2005)

Il lavoro, uscito sulla rivista Hydrological Sciences Journal, è inerente a un’analisi di serie storiche ricavate dall’archivio GRDC (Global Runoff Data Center) di Coblenza; nell’ambito del materiale statistico disponibile, sono state selezionate 195 stazioni secondo questi criteri: lunghezza delle serie, copertura degli anni recenti, mancanza di lacune, adeguata distribuzione geografica, priorità ai bacini con basso grado di antropizzazione. Di dette stazioni, 140 appartengono a Europa e Ame-

62

Il cambiamento climatico

rica settentrionale, 40 all’Oceania e le rimanenti 15 ad Africa, Asia e America del sud. Delle 195 totali, 137 serie temporali della portata annua di picco sono risultate stazionarie, 31 decrescenti e 27 crescenti; un quadro quindi di generale assenza di cambiamenti nel fenomeno osservato. L’analisi dei flussi in 21 bacini (Svensson et al., 2005)

Questo articolo (anch’esso uscito sulla rivista Hydrological Sciences Journal) si configura come un approfondimento di quello appena descritto, dato che gli Autori hanno fatto ricorso allo stesso database tedesco, selezionando 21 stazioni fra quelle studiate da Kundzewicz et al. (2005). È stata compiuta un’analisi delle portate, con attenzione sia ai valori più elevati sia ai flussi deboli, elaborando 7 indicatori. Cinque di essi sono stati dedicati alle piene maggiori: oltre al picco massimo annuo (figura 3.10), altri quattro erano destinati a esprimere l’entità e la frequenza degli eventi superiori a due soglie stabilite.

Fig. 3.10 – La localizzazione delle 21 stazioni considerate (p. 821). I diversi simboli esprimono il segno e il livello di significatività dei trend lineari delle serie del valore annuo di picco. In questa sede, sono stati utilizzati i colori per distinguere i simboli con maggiore chiarezza.

3. Piogge intense e rischio idraulico

63

Relativamente a questi cinque indicatori, sono state così studiate 105 serie temporali, ottenendo 67 trend lineari non significativi e 38 significativi, 24 dei quali negativi e 14 positivi. Globalmente perciò nessun segnale di incremento, ma anzi una moderata prevalenza dei casi in diminuzione. Alluvioni e relative vittime in Africa (Di Baldassarre et al., 2010)

Il lavoro (pubblicato su Geophysical Research Letters) è molto interessante perché dimostra che l’aumento delle vittime causate in Africa dalle alluvioni non è in alcun modo connesso con i cambiamenti climatici, ma dipende da fattori diversi – si pensi in primis ai fortissimi incrementi della popolazione e del grado di urbanizzazione – che hanno influito sulla vulnerabilità territoriale, nel corso del XX secolo.

Fig. 3.11 – La localizzazione delle 79 stazioni africane considerate. I simboli esprimono il risultato dell’analisi dei trend lineari delle serie del valore annuo di picco. In questa sede, sono stati utilizzati i colori per distinguere i simboli con maggiore chiarezza. A sinistra è riportato l’istogramma del numero di vittime nel tempo.

64

Il cambiamento climatico

Un grafico mostra che nel ventennio 1950-1969 le vittime erano state meno di 2 mila, mentre nel periodo 1990-2009 erano salite a circa 15 mila. Tale marcato aumento non pare essere correlato a una, seppur minima, crescita della pericolosità idraulica, dato che l’analisi delle serie storiche della portata massima annua in 79 stazioni di misura ha evidenziato 65 situazioni di sostanziale stazionarietà, 10 trend significativamente decrescenti e solo 4 crescenti (figura 3.11). Le tendenze globali delle piene (Bouziotas et al., 2011)

Si tratta di una ricerca presentata all’Assemblea Generale della European Geosciences Union, nella quale sono state studiate le serie storiche della portata massima annua, per 119 stazioni censite nel World Catalogue of Maximum Observed Floods (Herschy, 2003); tutte le serie analizzate sono di lunghezza non inferiore ai 50 anni, nel periodo che va dal 1891 al 2010. Sono state calcolate le correlazioni lineari sia per tutti gli anni a disposizione, sia per l’intervallo 1970-2010; nel primo caso le rette con pendenza negativa sono state il 55,5% del totale mentre nel secondo sono passate al 62,6%. Quindi, è attestata, non solo l’assenza di qualsiasi segnale di incremento, ma addirittura qualche indicazione opposta, soprattutto per gli ultimi decenni, rispetto ai quali si è sempre voluto far passare il messaggio di un marcato aumento del pericolo di alluvioni. Le rilevazioni del Servizio Geologico degli USA

Annualmente il servizio geologico statunitense (USGS) pubblica un resoconto sull’andamento dei deflussi nelle stazioni di misura di tutto il territorio nazionale. Nel documento del 2014 è riportato anche un grafico relativo all’andamento 1950-2014 della percentuale di stazioni nelle quali il valore massimo della portata media giornaliera ha superato una determinata soglia, chiamata bankfull streamflow (con tale termine è indicato il flusso che dovrebbe verificarsi con un tempo di ritorno di 2,3 anni).

3. Piogge intense e rischio idraulico

65

Fig. 3.12 – L’istogramma dell’USGS relativo alla percentuale annua di stazioni di misura nelle quali il valore di picco della portata media giornaliera ha superato una data soglia. In rosso ho aggiunto il trend lineare con l’equazione.

In base ai valori letti sul diagramma, è stato possibile calcolare l’equa­zione del trend lineare, col relativo coefficiente di determinazione (figura 3.12). La serie risulta chiaramente stazionaria, dimostrando così che negli Stati Uniti, a partire dal 1950, non si evidenziano delle modificazioni apprezzabili nel grado complessivo di pericolosità idraulica.

Capitolo 4

La presunta “tropicalizzazione” del Mediterraneo Come già ricordato nel precedente capitolo, verso la metà degli anni Novanta l’IPCC ha iniziato a dare le prime indicazioni in merito a certe modificazioni del ciclo idrologico, che i modelli climatici avrebbero previsto come conseguenza del riscaldamento globale; fra tali previsioni, vi erano anche quelle riguardanti il Mediterraneo, regione geografica nella quale si attendeva una diminuzione degli afflussi totali, accompagnata però da un aumento degli eventi estremi. Un quadro quindi che è stato spesso sintetizzato mediante il ricorso al termine di “tropicalizzazione”. Nel prosieguo della trattazione, porterò un paio di esempi di studi che non evidenziano sostanziali cambiamenti nella direzione sopra detta, ma soprattutto mi soffermerò su articoli scientifici e comunicazioni divulgative dai quali traspare un più o meno marcato desiderio di confermare (e comunque di non confutare) le dottrine prestabilite. 1. Nessuna apprezzabile variazione recente nelle precipitazioni

Un lavoro proprio rivolto all’area mediterranea è stato pubblicato su Theoretical and Applied Climatology (Norrant e Douguédroit, 2006), analizzando le serie complete 1950-2000 di 63 stazioni, tratte da fonti diverse (figura 4.1). Sono stati esaminati diversi indicatori di molteplici caratteristiche pluviometriche, considerando sia gli afflussi totali, sia quelli realizzati nei giorni con dato > 10 mm e > 95° percentile. Come sintesi dei risultati, gli Autori dichiarano che nel complesso si osserva una netta dominanza dell’assenza di trend (o comunque di non significatività degli stessi) alla scala temporale mensile, e in conseguenza di ciò anche alle scale stagionale e annua. Un’analisi per sub-aree ha evidenziato che solo per la Grecia si hanno delle tendenze significative, con riduzione degli apporti totali e crescita del contributo offerto dagli eventi maggiori (figura 4.2).

68

Il cambiamento climatico

Fig. 4.1 – Le stazioni utilizzate nello studio di Norrant e Douguédroit, 2006.

Fig. 4.2 – Sintesi dell’analisi delle tendenze alla scala temporale mensile, per le varie sub-aree individuate (Norrant e Douguédroit, 2006, p. 95). In ogni riquadro sono riportati i mesi – da gennaio (1) a dicembre (12) – con trend positivi o negativi (lo 0 mostra non significatività). La prima riga (in grassetto) è relativa ai quantitativi totali; la seconda (in corsivo) a quelli dati dai giorni > 10 mm; la terza (in tondo) a quelli dati dai giorni > 95° percentile.

Dalla tabella – relativa all’insieme delle stazioni censite – riportata nella pagina 95 dell’articolo, si ricava che, per i totali annui, le percentuali dei trend non significativi, crescenti e decrescenti sono rispettivamente pari a 89, 3 e 8; per gli afflussi dei giorni > 95° percentile, le stesse percentuali risultano essere 81, 8 e 10. In pratica, nessuna conferma del processo di tropicalizzazione delle piogge, visto che non risulta

4. La presunta “tropicalizzazione” del Mediterraneo 

69

una diminuzione dei cumulati complessivi e neppure un aumento degli eventi estremi. Per quanto riguarda l’intensità complessiva delle precipitazioni, merita anche di citare un lavoro uscito su Natural Hazards and Earth System Sciences (Cortesi et al., 2012) e relativo all’analisi di un indice di concentrazione delle piogge giornaliere, per il periodo 1971-2010. La ricerca è rivolta all’intero continente europeo, ma, essendo state utilizzate ben 530 stazioni, fornisce notevoli informazioni anche a riguardo di singole regioni geografiche, come appunto per il Mediterraneo. Gli Autori rilevano che, dal punto di vista delle tendenze, non si rinvengono in generale delle variazioni apprezzabili durante gli anni considerati. Per le basse latitudini della zona indagata, si è notato che a ovest vi è una predominanza di trend positivi (cioè intensità in aumento), mentre al centro e a est sono i trend decrescenti a costituire una netta maggioranza. Quindi, pure questo articolo dimostra che, almeno per il quarantennio in oggetto, non si sono riscontrati quei cambiamenti ipotizzati dalla modellistica climatica. 2. Il “paradossale incremento” degli eventi estremi

Sulla rivista Geophysical Research Letters, esce nel 2002 un articolo che dovrebbe costituire un punto fermo nella verifica del processo di tropicalizzazione. È redatto da un gruppo di dodici studiosi di diversi Paesi e riguarda l’analisi delle piogge giornaliere in 265 stazioni appartenenti alla regione mediterranea, per il periodo 1951-1995 (Alpert et al., 2002). Nell’introduzione, gli Autori, dopo aver ricordato che già alcuni lavori dedicati a limitate aree avrebbero fatto emergere dei segnali di un aumento degli eventi estremi in contemporanea a una riduzione degli afflussi totali, precisano che: Per la prima volta, viene mostrato in uno studio coerente che, in una regione subtropicale relativamente grande, quale il Mediterraneo, le precipitazioni presentano un andamento paradossale, cioè che gli eventi giornalieri estremi aumentano nonostante il fatto che le piogge totali generalmente diminuiscano. Descriveremo questo forte aumento

70

Il cambiamento climatico

delle piogge estreme, analizzando sei categorie di intensità in Spagna, Italia, Cipro ed Israele, per il periodo 1951-1995.

Da queste parole si potrebbe dedurre che il lavoro di Alpert et al. sia esaustivo sulla questione in oggetto, ma invero dire che i suoi contenuti suscitino delle forti perplessità è solo un eufemismo. Le sei classi di valori, secondo le quali vengono ripartiti i dati giornalieri, sono le seguenti: A) Deboli, 0-4 mm; B) Deboli-Medie, 4-16 mm; C1) Medie-Forti., 16-32 mm; C2) Forti, 32-64 mm; D1) Forti-Torrenziali, 64-128 mm; D2) Torrenziali, > 128 mm. Come si può notare, le soglie sono individuate mediante le potenze del 2: perché tale scelta? Nel testo non viene data alcuna spiegazione, mentre sarebbe stato molto importante, visto che l’individuazione dei valori-limite può condizionare i risultati finali. Nel caso in esame, le soglie utilizzate mi paiono inadatte a descrivere l’andamento delle piogge intense, perché fanno riferimento a eventi che, almeno in gran parte delle stazioni considerate, sono talmente rari da rendere ben poco attendibili le statistiche su di essi, soprattutto lungo un intervallo di soli 45 anni. I risultati della ricerca sono sintetizzati in una figura che contiene tre grafici relativi alla situazione media di Israele, Spagna e Italia; in essi è riportato l’andamento del contributo percentuale di ognuna delle sei classi al totale annuo. La discussione che seguirà è pertanto distinta secondo questi tre Paesi (Cipro ha solo 3 serie su 265), anche per aver modo di richiamare tre distinti articoli che gli Autori citano a proposito dei dati di base, sui quali – si badi bene – nel testo non è spesa neanche una parola. I dati delle stazioni di Israele

Le stazioni utilizzate sono 38 e la loro individuazione rimane ampiamente misteriosa, dato che nel lavoro di riferimento quelle considerate sono 60 (Ben-Gai et al., 1998). Dalla figura 4.3 si evince che non è stato riscontrato alcun cambiamento nelle categorie di intensità, per cui in questa parte del Mediterraneo il processo di tropicalizzazione non è di certo avvenuto; i dati di Cipro, di fatto identici, ne sono una conferma.

4. La presunta “tropicalizzazione” del Mediterraneo 71

Fig. 4.3 – L’andamento del contributo medio (%) delle sei classi per le stazioni israeliane; il cerchietto indica che il trend lineare è non significativo, cioè che la serie è in sostanza stazionaria.

Si noti inoltre come i valori-soglia non si adattino a studiare efficacemente le precipitazioni di una regione così arida: la classe D2 ha infatti valore nullo in 31 annate sulle 45 totali. I dati delle stazioni della Spagna

In merito al calo degli apporti totali, si afferma soltanto che è stato calcolato un trend negativo di 1,5 mm/y, ma non ci sono altre informazioni su come questa riduzione si sia sviluppata lungo l’intervallo 1951-1995. L’articolo citato (Romero et al., 1998) riferisce di una ricerca che ha coinvolto 410 stazioni per il trentennio 1964-1993; anche per la Spagna quindi non è dato sapere quali siano le 182 stazioni esaminate e secondo quali criteri sono state selezionate. Per discutere in modo corretto quanto emerge dalla figura 4.4, è necessario anzitutto precisare che Alpert et al. non danno una quantificazione di cosa intendano per piogge estreme e si richiamano, in modo assai generico, alle classi di valori più elevate, fra quelle scelte.

72

Il cambiamento climatico

L’andamento del contributo medio (%) delle sei classi per le stazioni spagnole; le frecce indicano trend lineari significativamente crescenti o decrescenti, mentre il cerchietto mostra che la serie è in sostanza stazionaria.

Fig. 4.4 –

Tenendo conto che l’afflusso medio annuo delle 182 località è dichiarato in circa 530 mm, ne deriva che la classe > 128 non ha alcuna vera utilità sotto l’aspetto climatologico, per la bassissima frequenza con la quale possono presentarsi episodi di questa intensità. Solo per fare dei semplici esempi, si pensi che Saragozza, Valencia, Palma di Maiorca e Almeria non hanno mai raggiunto i 100 mm giornalieri in tutto il quarantennio 1971-2010 (secondo l’Atlante climatico dell’Agenzia statale spagnola di meteorologia). In effetti, la serie D2 ha un valore medio prossimo a 0,5% e soprattutto presenta 16 dati nulli, corrispondenti cioè ad annate in cui il limite dei 128 mm non è stato mai raggiunto in alcuna delle 182 stazioni. Il trend lineare positivo di questa serie, dipendente dalla presenza di qualche valore sopra norma nella seconda metà degli anni ’80 (cui è seguito, a partire dal 1990, un ritorno verso lo zero), non può certo essere interpretato quale reale tendenza climatica. Già un’intensità di 64 mm al giorno è più che sufficiente a inquadrare una pioggia estrema nell’area in oggetto, visto che un tale valore corrisponde da solo al 12% della media di tutto l’anno; ne deriva pertanto che la classe D1 (da 64 a 128 mm) comprende pressoché la totalità

4. La presunta “tropicalizzazione” del Mediterraneo 73

degli episodi più violenti. L’andamento di questa classe è stazionario, per cui si può asserire che, almeno in relazione a quanto scaturito dalla ricerca, l’incidenza degli eventi estremi nella Spagna mediterranea non è mutata in modo anche minimamente apprezzabile. Curiosamente le suddette riflessioni sulla categoria D1 non appaiono nell’articolo, ove infatti si sottolinea soltanto il comportamento della D2, mentre non si fa cenno dell’unico fatto veramente sostanziale e cioè che il contributo della classe 64-128 è rimasto stazionario. I dati delle stazioni dell’Italia

La discussione dei risultati italiani è la più interessante, anche per varie riflessioni sul lavoro citato a proposito dei dati di base, consistente in un’analisi delle precipitazioni nel Mediterraneo centro-occidentale, per il periodo 1951-1995, condotta utilizzando 59 stazioni, 35 delle quali appartenenti al nostro territorio (Piervitali et al., 1998). Ancora una volta il richiamo bibliografico non scioglie i dubbi sulle serie studiate, perché, anche nella ragionevole ipotesi che le suddette 35 stazioni italiane siano state scelte pure per la ricerca di Alpert et al., ne mancherebbero comunque 7 per arrivare alle 42 dichiarate. Piervitali et al., ben allineati con le dottrine dell’IPCC, partono dal presupposto che l’incremento antropico dell’effetto serra possa modificare il ciclo idrologico e si pongono perciò l’obiettivo di verificare se una tendenza alla riduzione delle piogge fosse già individuabile alla fine dello scorso secolo. I risultati non paiono lasciare incertezze agli Autori, che infatti nell’abstract scrivono: «nelle precipitazioni totali si è prodotta una diminuzione di circa il 20%, che è statisticamente significativa e può avere seri impatti sulla disponibilità delle risorse idriche». Nello scritto è anche contenuta una tabella con i valori annui mediati (col metodo dei poligoni di Thiessen) fra le 59 località; grazie a essa ho potuto ridisegnare con precisione il grafico presente alla pagina 335 del lavoro (figura 4.5). Nella didascalia originaria si legge: «Il trend negativo è evidente»; è vero, ma è ancora più evidente un change point alla fine degli anni ’70, del quale non è fatta la benché minima menzione.

74

Il cambiamento climatico

Fig. 4.5 – L’andamento delle precipitazioni totali annue medie nel Mediterraneo

centro-occidentale (linea azzurra), secondo i dati di Piervitali et al., 1998. In rosso è riportata la relativa statistica di Pettitt, che conferma la presenza di un change point nel 1979, molto evidente anche con un semplice esame visivo del grafico delle piogge.

L’applicazione del test di Pettitt conferma l’esistenza di un salto negativo dei valori nel 1979, con livello di confidenza del 99,9%. Nell’articolo è riportato anche il grafico relativo al campione delle 35 stazioni italiane che, come ben prevedibile, presenta un andamento strettamente analogo a quello generale; per l’Italia ho appurato che il change point è nel 1980 e ha una confidenza non inferiore al 99,5%. Tutto ciò indica che la riduzione degli afflussi non si è esplicata con un processo progressivo, ma in modo brusco, cosa che dovrebbe essere rilevata (come invece non fatto) e poi anche interpretata, ai fini di una corretta analisi della serie storica. Limitarsi a dire che si osserva un trend negativo è una semplificazione utile soltanto a confermare certi assunti di partenza. Se il discorso sulla diminuzione degli apporti complessivi lascia delle ombre, vedremo di seguito che quello relativo ai cambiamenti nell’intensità è costellato di grandi punti interrogativi. Alpert et al. sottolineano che, in base alle regressioni calcolate, il contributo di tutte le piogge > 32 mm è passato in Italia da un iniziale

4. La presunta “tropicalizzazione” del Mediterraneo 75

23% a un 32%, alla fine del periodo di osservazione (figura 4.6); in particolare, la classe D2 mostra uno spettacolare incremento di circa 4 volte. Di fronte a dati del genere, parrebbe proprio che il quadro della tropicalizzazione sia ben dimostrato, ma è invece opportuno fare qualche verifica sui risultati proposti.

L’andamento del contributo medio (%) delle sei classi per le stazioni italiane; per i simboli, si veda alla figura 4.4.

Fig. 4.6 –

Grafico dell’andamento della classe D2, secondo i valori ricavati dalla lettura della precedente figura 4.5.

Fig. 4.7 –

76

Il cambiamento climatico

In considerazione del fatto che la coesistenza di sei grafici nello stesso diagramma ne rende un po’ difficile la lettura, ho ricostruito l’andamento della classe D2, cioè di quella contrassegnata in originale dai triangolini. Ebbene, posso garantire di non aver mai visto una serie storica simile e, credo, che un’identica considerazione sarebbe fatta da molti che si occupano di climatologia (figura 4.7). È automatico allora chiedersi: è possibile? Si osserva una grandezza che nel trentennio 1951-1980 è stazionaria, oscillando attorno a una media di circa 0,7 con una deviazione standard intorno a 0,9; in questo periodo il massimo assoluto è di 3,7 e 10 annate hanno dato nullo, corrispondente cioè all’assenza di eventi > 128 mm in tutte le 42 stazioni. Dopo il 1980 l’andamento muta in modo radicale, così che si raggiungono valori estremamente più alti dei precedenti: si pensi che, in rapporto ai citati parametri del periodo 19511980, i tre anni consecutivi 1985, 1986 e 1987 sarebbero superiori alla norma rispettivamente di circa 18,8 14,6 e 9,1 deviazioni standard (pur trattandosi di una media di 42 stazioni). In pratica, all’inizio degli anni ’80 le precipitazioni totali annue sarebbero bruscamente scese da una media di circa 740 mm a una inferiore ai 640 (dati stimati dal grafico a p. 342 di Piervitali et al., 1998), mentre la frequenza degli eventi più violenti sarebbe al contempo aumentata in maniera straordinaria. L’Italia avrebbe così improvvisamente conosciuto una fase più siccitosa, ma costellata da frequentissimi e marcati episodi alluvionali. Sinceramente questo sembra un quadro più adatto agli scenari di certi documentari (o film) catastrofistici, piuttosto che a una trattazione di climatologia. In realtà, gli anni ’80 non sono stati caratterizzati da alcun particolare incremento del rischio idraulico ed è facile provare che i mutamenti poco sopra citati non sono proprio avvenuti. In questa sede, ho effettuato una semplice verifica, alla portata di tutti; dall’archivio online di Eca&d ho ricavato, per le stazioni scelte da Piervitali et al., i massimi giornalieri nei tre anni “apocalittici” (1985, 1986 e 1987). I valori sono riportati nella tabella 4.1 (i dati di Capo Bellavista, Messina e Viterbo non erano disponibili).

4. La presunta “tropicalizzazione” del Mediterraneo 77 Precipitazione giornaliera massima annua (mm); in grassetto sono evidenziati i valori > 128. Dati dell’archivio online Eca&d.

Tab. 4.1 –

1985

1986

1987

1985

1986

1987

Alghero

25,0

37,6

67,8

Milano Linate

37,6

79,6

195,0

Amendola

48,0

41,2

Ancona

39,6

109,4

38,8

Napoli

46,6

75,4

119,2

61,4

C. Palinuro

57,8

34,6

Arezzo

37,6

40,8

45,4

62,0

Perugia

28,0

65,8

69,2

Bologna Brindisi

27,8

33,4

80,0

Pescara

39,6

82,8

44,8

34,2

83,6

56,2

Piacenza

51,0

99,8

117,4

Cagliari

79,2

20,4

79,4

Pisa

71,4

134,4

131,0

Campobasso

66,2

25,0

80,0

Potenza

44,0

44,2

80,0

Catania

126,2

98,2

31,2

Prizzi

51,0

29,4

100,1

Cozzo Spadaro

26,0

38,4

16,0

Ravenna

29,0

34,8

40,0

Crotone

60,8

70,4

101,0

Roma Ciampino

45,2

42,8

46,2

Firenze

86,0

66,8

62,0

Torino

43,6

59,0

85,8

Genova Sestri

86,0

75,8

103,8

Trapani

53,6

38,0

23,6

M. di Ginosa

59,2

45,6

56,8

Trieste

43,6

152,0

92,6

Grosseto

35,6

58,6

75,0

Venezia

44,2

105,2

47,4

S.M. Leuca

52,0

21,2

80,0

Verona

51,8

44,6

93,6

Nel 1985, l’anno col valore record, nessuna località ha raggiunto la soglia di 128, e anzi una netta maggioranza è largamente al di sotto di tale limite; nel 1986 esso è superato solo da Pisa e Trieste, mentre nel 1987 da Milano e ancora da Pisa. Nella probabilissima ipotesi che i valori evidenziati siano stati gli unici nell’anno, si arriva infine a stimare che i contributi medi della classe D2 dovrebbero risultare: 1985 = 0,0%; 1986 = 0,9%; 1987 = 1,0%. Anche un altro articolo uscito nello stesso periodo (Brunetti et al., 2002) arriva a risultati che servono a confutare completamente quelli di Alpert et al. Viene elaborato un indicatore di eventi estremi, considerando gli episodi nei quali in cinque giorni consecutivi le precipitazioni su una regione geografica superano il 10% della media annua di riferimento. Visto che 128 mm rappresentano da soli il 20% di quei 640 già ricordati, sarebbe lecito attendersi delle notevoli analogie fra gli andamenti di questo indicatore e della classe D2.

78

Il cambiamento climatico

Fig. 4.8 – Un indicatore dell’incidenza annua in Italia degli eventi pluviometrici

estremi per intervalli di 5 giorni consecutivi (i valori da Brunetti et al., 2002).

Invece, non si riscontra alcuna correlazione, al punto che gli anni ’80 risultano nel complesso un periodo di minimo (figura 4.8); a fronte di una media 1951-2000 pari a 81, gli anni 1985, 1986 e 1987 hanno valori rispettivamente di 9, 90 e 48. Si arriva pertanto a concludere che sono state elaborate delle serie storiche contenenti errori così pesanti da falsare lo studio dell’evoluzione climatica in Italia. Da cosa può derivare un fatto simile? Non è certo semplice dare una risposta, ma si può almeno far presente che, durante gli anni ’90, si sono formati dei database con forti errori per varie stazioni italiane; purtroppo, di tali errori ne rimangono ancora tracce, come dimostrato dall’esempio che segue. Nel giugno 2019, ho scaricato dal sito SCIA dell’Ispra il diagramma delle piogge giornaliere ad Alghero nel periodo 1981-1990; dalla sua osservazione, si evince che la località sarda avrebbe avuto 9 episodi superiori ai 100 mm, negli anni dal 1995 al 1990 (figura 4.9). Una situazione davvero impossibile, in rapporto ai caratteri climatici della zona. Consultando infatti gli Annali Idrologici, si può constatare che la vicinissima Fertilia, sempre dal 1995 al 1990, non ha mai raggiunto la soglia dei 50 mm, a dimostrazione che i sopra citati valori di Alghero sono assurdi e che perciò, se si elaborassero dati del genere, si arriverebbe a conclusioni climatologiche prive di senso.

4. La presunta “tropicalizzazione” del Mediterraneo 79

Fig. 4.9 – Diagramma delle piogge giornaliere 1981-1990 ad Alghero, come scari-

cato dal sito SCIA in data 18-06-2019; è stato aggiunto il limite dei 100 mm, onde apprezzare meglio la (davvero assurda) frequenza degli eventi estremi.

Su questo punto bisogna però essere chiari. Se non vi è dubbio che l’esistenza di archivi con dati fuori scala sia una cosa seccante, non dovrebbero però scaturirne delle particolari conseguenze negative per le ricerche di climatologia. Chiunque abbia le sufficienti conoscenze nel campo, se dovesse trovarsi di fronte a serie storiche come quella di Alghero, non avrebbe infatti difficoltà a capirne i problemi, anche prima di aver fatto qualsiasi verifica. Non troverei pertanto giustificazioni a scrivere articoli scientifici, basandosi su materiali informativi del tutto privi di attendibilità. Infine, merita di rilevare che anche gli stessi Autori devono aver nutrito qualche perplessità sul particolare andamento delle serie italiane, visto che hanno chiamato in causa il fenomeno del Niño, per provare a spiegare i valori più anomali. Si legge infatti che le piogge torrenziali tendono a presentare i massimi negli anni con fase di El Niño, aggiungendo che: «nel 1983 e nel 1986, ad esempio, la categoria D2 ha contribuito da sola per oltre il 15%, rispetto a una media annuale dell’1~4%». Purtroppo qualcosa ancora una volta non quadra; come il lettore potrà rapidamente constatare nelle figure 4.6 e 4.7, il valore del 1983 è inferiore a 1 e quello del 1986, pur molto elevato, rimane però al di sotto di 14. Inoltre, va rilevato che il momento record della D2 (1985-86) coincide

80

Il cambiamento climatico

con una fase di debole La Niña e non di El Niño, in chiaro contrasto quindi con l’associazione fatta nel testo. Riassumendo quanto discusso

Dall’esame del lavoro di Alpert et al., emergono in sostanza questi problemi: –– non si hanno informazioni sulle stazioni utilizzate e sui criteri in base ai quali sono state selezionate; –– le piogge giornaliere sono state ripartite in sei classi di valori, secondo soglie date dalle potenze del 2. Tale scelta, della quale non viene fornita alcuna giustificazione, risulta poco funzionale ai fini dello studio degli eventi intensi in regioni con clima mediterraneo; –– la questione della riduzione dei totali annui è appena trattata per la Spagna e lasciata, per gli altri territori, a vari articoli piuttosto generici; –– viene affermato che lo studio ha permesso di dimostrare l’aumento delle piogge giornaliere estreme nel Mediterraneo. In realtà i risultati dicono che in Israele e Cipro non è cambiato nulla, e che per la Spagna la serie D1 (64-128 mm) è stazionaria, mentre crescente risulta solo la D2 (> 128 mm), la cui rilevanza climatologica è però trascurabile, in ragione dell’estrema rarità di questi eventi nella regione in oggetto. Ne deriva pertanto che circa un 84% delle stazioni utilizzate non fornisce una vera conferma di quanto si doveva aver dimostrato; –– se lo scopo fosse stato quello di accertare una crescita degli eventi più rilevanti in assoluto, sarebbe stato allora molto più convincente studiare le serie storiche dei massimi giornalieri nell’anno. Infatti, si sarebbe così utilizzato un indicatore oggettivo e ogni annata avrebbe avuto tutti i 265 valori non nulli; –– i dati italiani sembrano inattendibili, almeno a riguardo degli anni successivi al 1980. La serie D2, nel 1985, 1986 e 1987, arriva a valori che non trovano conforto in alcuna verifica. Non penso di essere troppo polemico nel dire che, visti i problemi ora riassunti, l’articolo non poteva essere accettato alla pubblicazione.

4. La presunta “tropicalizzazione” del Mediterraneo 81

Evidentemente i revisori erano di idee del tutto diverse dalle mie, al punto da ritenerlo idoneo a uscire sulla rivista con un titolo così: “Il paradossale incremento delle piogge giornaliere estreme nel Mediterraneo, nonostante la diminuzione dei valori totali”. 3. Quando la verifica contraddice la dottrina, c’è sempre la possibilità di aggiustare i commenti

Se fino a ora ho trattato di articoli che lasciano dei pesanti dubbi in merito ai loro contenuti, questo paragrafo è centrato invece su due lavori che – sempre a mio giudizio – sono stati sviluppati in modo adeguato, ma che finiscono per portare un contributo al dibattito sui cambiamenti climatici nel Mediterraneo non affatto in linea con i risultati raggiunti. Un’analisi completa delle precipitazioni in Toscana (Fatichi e Caporali, 2009)

Utilizzando il database online del Servizio Idrologico toscano, viene effettuato uno studio sull’evoluzione dei caratteri pluviometrici della regione, nel periodo 1916-2003. Nell’insieme delle stazioni disponibili, sono selezionate quelle che hanno almeno 40 anni di dati (200 casi); per la valutazione delle tendenze delle piogge massime in 1-3-6-12-24 ore, quelle con almeno 50 anni (60 casi). Sulla base dei valori giornalieri, sono ricavati 40 indicatori che quantificano tutti i vari aspetti delle precipitazioni: quantitativi totali annui, ripartizione degli afflussi nei vari mesi, concentrazione, intensità, frequenza ed entità degli eventi estremi, contributo di questi agli apporti complessivi (sono, in pratica, gli indicatori ormai quasi standard, in quanto utilizzati dal progetto Eca&d). All’analisi delle serie storiche di detti indici è aggiunta anche quella delle piogge massime nei cinque intervalli orari, vista la disponibilità di tali statistiche nell’archivio utilizzato. I risultati sono schematicamente riassunti in due gruppi di diagrammi, che riportano l’esito dei vari test cui sono stati sottoposti tutti i trend studiati (figura 4.10). Da uno di tali diagrammi, ho dedotto i valori per le piogge massime che si leggono nella tabella 4.2.

82

Il cambiamento climatico

Fig. 4.10 – In alto: la ripartizione percentuale dei trend nelle 200 stazioni considerate, relativamente a ognuno dei 40 indicatori utilizzati. In basso: la ripartizione dei trend (60 le stazioni coinvolte), in relazione all’andamento delle piogge massime annue per intervalli di 1-3-6-12-24 ore.

Gli Autori, nelle conclusioni, commentano i risultati con le seguenti parole: «In questo studio, una completa analisi del regime delle precipitazioni, effettuata sulla Toscana per il periodo 1916-2003 (sebbene la maggior parte dei dati derivino dal 1950-2000) non sembra offrire prove di non stazionarietà. In pratica, c’è assenza di tendenze nel regime

4. La presunta “tropicalizzazione” del Mediterraneo 83

delle precipitazioni e nell’intensità degli eventi estremi di 3, 6 e 12 ore, in quasi tutte le stazioni della Toscana». Ebbene non mi pare un commento davvero adeguato, per descrivere quanto emerso, soprattutto in relazione al dibattito in atto, del quale viene però data ampia menzione nella parte introduttiva del testo. Sarebbe poi curioso che gli Autori, provenienti dall’ambiente universitario fiorentino, non avessero avuto notizia delle ripetute indicazioni dell’istituto IBIMET-CNR di Firenze – tramite il suo storico direttore Giampiero Maracchi – in merito a marcatissimi incrementi degli eventi pluviometrici estremi in Toscana. Secondo me, dovevano essere precisati questi punti: a) l’indagine ha messo in evidenza una completa stabilità di tutti i caratteri pluviometrici; b) non risulta nessuno di quei segnali di crescita degli eventi estremi (per entità, frequenza e contributo ai totali) di cui si è detto nell’introduzione; c) per quanto concerne l’analisi delle piogge massime in 1, 3, 6, 12 e 24 ore, piuttosto che un incremento, pare eventualmente emergere una debole tendenza alla riduzione, soprattutto con riguardo ai fenomeni in 1 ora. Che i commenti abbiano un ruolo fondamentale, lo dimostrano involontariamente anche Fatichi e Caporali, quando citano un articolo di Crisci et al. (2002) quale esempio di ricerca che avrebbe già evidenziato un aumento degli eventi estremi. In questo lavoro sono esaminati i trend delle piogge massime nei cinque intervalli orari, utilizzando di fatto i medesimi dati elaborati da Fatichi e Caporali; sarebbe perciò curioso che si fosse arrivati a risultati del tutto diversi e che la cosa fosse accettata dagli stessi Autori come normale. Tab. 4.2 – Ripartizione (%) dei trend delle piogge massime, secondo il test di Mann-Kendall; i valori sono stati stimati dal relativo grafico di Fatichi e Caporali che è riportato nella parte bassa della figura 4.10.

1h

3h

6h

12h

24h

(media)

Senza Trend

48

62

55

47

44

51,2

Trend Decrescenti

47

25

32

40

37

36,2

5

13

13

13

19

12,6

Trend Crescenti

84

Il cambiamento climatico

In effetti Crisci et al. non hanno trovato alcuna crescita, visto che il 92,6% delle serie storiche studiate è stazionario con un 5,2% di decrescenti e un misero 2,2% di positive. Adducendo poi una motivazione un po’ misteriosa dal punto di vista statistico («al fine di individuare ogni possibile change point»), le stesse serie sono state analizzate facendole iniziare prima dal 1951 e poi dal 1970; soltanto in quest’ultimo caso è apparsa una modesta quantità di trend crescenti (14,1% del totale). Ebbene, nonostante l’utilizzazione di una procedura quantomeno discutibile e a fronte dei risultati ora riassunti, nelle conclusioni si legge: «I risultati ottenuti con i test di Pearson e di Mann-Kendall sembrano indicare un cambiamento dai primi anni ’70 verso l’aumento degli eventi estremi di qualsiasi durata». È presumibile allora che Fatichi e Caporali si siano limitati a queste frasi, senza analizzare a fondo il testo. Un’affermazione davvero al di fuori del contesto

Nelle conclusioni, Fatichi e Caporali fanno seguire ai commenti di cui detto un’ulteriore considerazione che risulta completamente scollegata dalla ricerca condotta: «Gli autori presumono che la presenza di numerosi feedback possa ritardare o annullare le conseguenze del riscaldamento globale sul regime delle precipitazioni, specialmente in un sistema climatico complesso come quello dell’Italia centrale». Cosa ciò significhi non è dato saperlo, in quanto si tratta di affermazioni talmente generiche da poter essere fatte in qualunque situazione. Comunque quello condotto è un puro studio di statistica, per cui non può fornire agli autori alcuno spunto per presumere una qualche azione di (imprecisati) feedback. Appare in definitiva il solito atteggiamento di ossequio a teorie che, ben lungi da essere dimostrate, vengono invece considerate come dogmi granitici. Ancora sul ruolo dei revisori

L’articolo in oggetto è uscito sull’International Journal of Climatology, senza dubbio una delle più prestigiose riviste del settore; ne risulta quindi che i revisori scelti dovrebbero essere tra i massimi esperti della disciplina e perciò garanti della qualità verso di essa.

4. La presunta “tropicalizzazione” del Mediterraneo 85

In realtà paiono invece concentrarsi su questioni attinenti al “rispetto” di certe teorie, finendo per accettare (o anche caldeggiare?) cose che con la normale procedura scientifica non hanno nulla a che vedere; nel caso specifico, ciò risulta chiaramente nell’abstract che precede il testo. Come ovvio, il riassunto che accompagna ogni pubblicazione scientifica deve, in modo molto sintetico, dare conto di: a) obiettivi della ricerca; b) metodologia seguita; c) principali risultati raggiunti. Ebbene, quello di Fatichi e Caporali, dopo aver toccato questi tre punti, si conclude con una frase sostanzialmente identica a quella poco sopra riportata: «La complessità del clima nell’Italia centrale, cioè la presenza di numerosi feedback, potrebbe in pratica distorcere o rimuovere le conseguenze del riscaldamento globale sul regime delle precipitazioni». Che una simile affermazione sia fatta nelle conclusioni è – come già sottolineato – al di fuori del contesto; che però sia pure inserita nell’abstract è davvero ingiustificabile. Non può avere alcuna funzione informativa, ma solo quella di una sorta di adeguamento dottrinale, che mi sembra ben distante dal metodo scientifico. I revisori, mentre approvano tutto ciò, si dimostrano distratti su questioni strettamente climatologiche. L’articolo contiene un errore – sia chiaro, del tutto ininfluente per gli assunti generali – di entità tale da essere di facilissima individuazione. A pagina 1886 è riportato il grafico della serie storica delle piogge totali annue, mediate fra le stazioni censite (figura 4.11). Vi emerge un dato ben lontano dalla generale variabilità: i circa 280 mm del 1938. Si tratta di un valore sballato, derivante dal computo di dati erronei che erano presenti nell’archivio online, a causa di problemi avvenuti nel corso del processo di digitalizzazione degli Annali, operato dal Servizio Idrologico toscano. Considerata la distribuzione di frequenza dei dati della serie, appare, anche a un esame superficiale, che il totale del 1938 costituirebbe un’anomalia assolutamente straordinaria. In effetti, trattasi di un valore “climatologicamente impossibile” per una regione con la posizione geografica e i caratteri orografici della Toscana; per essere vero, bisognerebbe ammettere che ampie aree pianeggianti non avessero di fatto avuto piogge in quell’anno. Si pensi che nel 1945, anno di eccezionale siccità per l’Italia centrale, gli afflussi medi sono stati circa 530 mm.

86

Il cambiamento climatico

Fig. 4.11 – La serie storica delle piogge totali annue in Toscana, riportata da Fatichi e Caporali (p. 1886). Appare con molta evidenza il valore del 1938, che però deriva da dati del tutto erronei.

È davvero strano che un simile errore sia sfuggito agli Autori, ma è inspiegabile che lo stesso sia capitato ai revisori, i quali non hanno evidentemente neppure segnalato la questione nel corso dell’esame del testo. Infatti, sarebbe bastato il suggerimento di controllare la bontà del dato per risolvere il problema. La certezza che il valore del 1938 è del tutto erroneo la si ottiene con una verifica che richiede un paio di minuti: si apre l’Annale relativo (parte II), nel quale si trovano già calcolati gli afflussi medi sui bacini, e, appurando che in quello dell’Arno (sezione di chiusura alla foce) erano caduti 786 mm, si deduce che i circa 280 del grafico sono privi di senso. Variazioni climatiche 1961-2000 in Italia (Colombo et al., 2007)

Viene effettuato uno studio sulle variazioni nei caratteri termici e pluviometrici in 50 stazioni distribuite sul territorio italiano. Dal punto di vista delle temperature, risulta un andamento assai in linea con quello globale: un calo dal 1961 al 1980, seguito da una evidente crescita nei due decenni successivi. Per quel che riguarda le precipitazioni, non appaiono invece delle modificazioni particolarmente rilevanti; i totali annui rimangono in pratica stazionari, mentre pare osservarsi qualche leggero cambiamento nella distribuzione stagiona-

4. La presunta “tropicalizzazione” del Mediterraneo 87

le, con apporti in diminuzione nella prima parte della primavera e in aumento nell’autunno. Uno spazio è dato anche ad alcuni tipi di eventi estremi; per le piogge intense, viene valutato l’andamento della frequenza dei giorni con oltre 30 mm. Su un totale di 50 serie, in base all’applicazione del test di Spearman, 30 sono giudicate stazionarie, 12 crescenti e 8 decrescenti; nel complesso quindi nessuna variazione, come ovviamente anche annotato nello scritto. Gli esiti del test sono riassunti in un diagramma che è accoppiato a un istogramma relativo alla distribuzione degli eventi nei dodici mesi, dal quale si evince una chiara concentrazione in autunno (figura 4.12). Questo istogramma è un elemento però del tutto superfluo per l’articolo, sia perché fornisce un’informazione di tipo classificativo e non evolutivo, sia perché tale informazione è ben nota, come d’altronde sottolineato pure dagli Autori: «viene anche mostrata (in alto) la distribuzione mensile degli eventi pluviometrici estremi che, come prevedibile dalla climatologia, sono più frequenti nella stagione autunnale». Non viene così spiegato il motivo dell’inserimento dell’istogramma nell’articolo.

La figura dell’articolo di Colombo et al. (2007) dedicata agli eventi pluviometrici estremi. In basso, i risultati del test di Spearman per le 50 serie storiche; in alto l’istogramma della distribuzione di frequenza degli eventi fra i vari mesi.

Fig. 4.12 –

88

Il cambiamento climatico

Il risultato dell’analisi relativa alle piogge intense mi sembra il più interessante tra quelli raggiunti, in quanto contrastante con alcune indicazioni provenienti da altre ricerche, che gli Autori citano nella parte introduttiva. Considerando ciò, si rimane davvero sorpresi nel leggere i commenti conclusivi, nei quali sono dedicate solo dodici misere parole (nel testo inglese) a tutto l’argomento dei caratteri pluviometrici; la traduzione è la seguente: «le precipitazioni mostrano un incremento in autunno, quando gli eventi estremi sono più frequenti». Ebbene, non solo manca ogni minimo cenno al fatto che la frequenza degli episodi intensi è stata stazionaria, ma addirittura si inserisce una frase che potrebbe far pensare a un loro aumento. Sotto questa luce, si può trovare allora anche una spiegazione alla presenza nel lavoro dell’istogramma della figura 4.11: “inutile” per la ricerca, ma “funzionale” al commento poco sopra riportato. 4. La questione della siccità

Se, nell’ambito del generale dibattito sulla cosiddetta tropicalizzazione, l’argomento delle precipitazioni estreme è quello dominante, anche la questione siccità si è ripetutamente proposta all’attenzione, come nel recente 2017, quando apporti meteorici molto minori della media hanno interessato il nostro paese. In questo paragrafo darò alcuni esempi di come sia stato affrontato questo tema da parte, sia del sistema mediatico, sia degli esperti. L’informazione sulla siccità in Italia nel 2017

Il perdurare da alcuni mesi di condizioni di scarsa piovosità sull’Italia scatena il catastrofismo nell’estate del 2017. Si paventano cali vistosi nella produzione alimentare e viene dato per inevitabile il razionamento idrico in molte città non avvezze a tali problemi. A questa corsa all’allarme sempre più alto non mancano di partecipare anche giornali come il Corriere, che il 30 agosto dedica all’argomento l’intera pagina 9, con un titolo impressionante “L’effetto deserto dopo 100 giorni” (Berberi L.). Buona parte dello spazio era occupata da

4. La presunta “tropicalizzazione” del Mediterraneo 89

vari cartogrammi e grafici, ma quello che colpiva maggiormente erano le dichiarazioni rilasciate al giornalista dall’esperto di turno: –– «Il fatto nuovo è che si sono allargate le zone dove si registra la siccità: sono comparse aree, come il Centro Italia, che storicamente non avevano problemi»; –– «È chiaro che è in corso da noi una modificazione del regime meteoclimatico»; –– «È urgente un piano di azione di adattamento alla siccità. Questi episodi non solo si ripeteranno, ma lo faranno con maggiore frequenza e intensità». Prescindendo dal chiedersi cosa possa essere il “regime meteoclimatico”, si tratta di affermazioni inerenti a fantastiche modificazioni del clima, che nessuna analisi dei dati può confermare; da chi provengono? Anna Luise dell’Ispra. Non avendo sentito in precedenza questo nome, ho fatto una rapida ricerca in rete, trovando un suo curriculum dal quale risultava essere laureata in sociologia, con competenza su tematiche inerenti a: antropologia, sociologia, economia, scienze politiche e istruzione. Un po’ sconcertato da queste credenziali, ho contattato il giornalista per fargli presente che le affermazioni del suo articolo non trovavano conferma nell’analisi dei dati e che provenivano da una persona che non pareva particolarmente adatta a fungere da esperto in climatologia. La risposta è stata emblematica: sul fatto che le suddette frasi fossero pura fantasia, il giornalista ha allegramente sorvolato, mentre ha precisato che Anna Luise rientrava tra gli esperti, dato che «è nei panel internazionali sulla desertificazione». In pratica, al Corriere interessava pubblicare una bella pagina sulla catastrofe della siccità, per cui la veridicità dei contenuti e l’autorevolezza o meno di chi li aveva suggeriti erano dettagli trascurabili. Il comunicato stampa dell’ISAC-CNR

L’attenzione sulla siccità si riaccende in modo prepotente agli inizi di dicembre, quando tutti i principali media televisivi e della carta stampata lanciano la medesima notizia: «In Italia, il 2017 è stato l’anno più

90

Il cambiamento climatico

secco dal 1800». Frutto di qualche distorsione e/o esagerazione? No, stavolta la semplice divulgazione di quanto ufficialmente comunicato da un ambito scientifico. Sul sito del CNR veniva infatti pubblicato un comunicato dell’ISAC (Istituto di Scienze dell’Atmosfera e del Clima) molto netto in proposito (figura 4.13). In esso, dopo alcune note sulle temperature, si leggeva infatti: Più significativa è risultata l’anomalia pluviometrica del 2017, che verrà sicuramente ricordato per la pesante siccità che lo ha caratterizzato. A partire dal mese di dicembre del 2016 (primo mese dell’anno meteorologico 2017) si sono susseguiti mesi quasi sempre in perdita: fatta eccezione per i mesi di gennaio, settembre e novembre, tutti gli altri hanno fatto registrare un segno negativo, quasi sempre con deficit di oltre il 30% e, in ben sei mesi, di oltre il 50%. A conti fatti, gli accumuli annuali a fine 2017 sono risultati essere di oltre il 30% inferiori alla media del periodo di riferimento 1971-2000, etichettando quest’anno come il più secco dal 1800 a oggi. Per trovare un anno simile bisogna andare indietro al 1945, anche in quell’anno ci furono 9 mesi su 12 pesantemente sotto media (il deficit fu -29%, quindi leggermente inferiore).

Fig. 4.13 – Uno screenshot dal sito web del CNR, con la notizia della siccità record che avrebbe caratterizzato il 2017.

4. La presunta “tropicalizzazione” del Mediterraneo 91

Sorvolando su qualche problemino di forma italiana, un comunicato che non lascia dubbi al lettore: secondo gli studiosi dell’ISAC, il record assoluto di minor piovosità degli ultimi 218 anni. Vediamo come questo gruppo di ricerca è arrivato a tale assunto. Tutte le informazioni necessarie sono reperibili nel loro sito web, che comprende anche una sezione di notevole interesse dedicata appunto ai dati storici italiani (temperature e precipitazioni), a partire dall’anno 1800. Da tale sito avevo scaricato, nel dicembre 2017, il grafico della figura 4.14, che visualizza le anomalie (%) delle precipitazioni totali sull’Italia, rispetto alla media del periodo 1971-2000; i valori raffigurati derivano dai dati di 111 stazioni, conservati dall’Ufficio Centrale per la Meteorologia, un’istituzione nata nel XIX secolo. L’osservazione del grafico conferma come l’ultimo valore sia il più basso di tutti, risultando infatti inferiore a quelli di altre quattro annate siccitose (1825, 1828, 1834 e 1945). È questa la situazione reale? Ebbene, alla domanda non si può rispondere, in quanto la documentazione statistica disponibile comporta delle notevoli incertezze nelle stime, delle quali il comunicato stampa non fa però alcun cenno; è quindi interessante riflettere sulle varie fonti d’incertezza.

Anomalie pluviometriche (%) per l’Italia; le spiegazioni nel testo. Il grafico è stato scaricato nel dicembre 2017 dal sito dell’ISAC-CNR.

Fig. 4.14 –

92

Il cambiamento climatico

–– Considerando l’estensione superficiale del territorio italiano e la sua complessità geografica e orografica, per una determinazione precisa dell’andamento pluviometrico, sarebbe necessario disporre di un numero di stazioni molto più elevato, rispetto alle 111 in oggetto. –– La distribuzione geografica della rete di osservazione è tutt’altro che omogenea; si nota infatti una forte concentrazione nel Nord-Ovest e in Puglia, mentre bassa è la densità al Centro (vedasi la disposizione dei simboli azzurri nella figura 4.15). –– Un lungo arco di tempo è coperto solo da un piccolo numero di stazioni; sono solo 11 le serie che iniziano prima del 1830 e, fino al 1850, sono ancora soltanto 18 quelle disponibili. Le valutazioni relative alla prima metà dell’Ottocento vanno pertanto considerate solo come molto generiche, in quanto basate su un campione di stazioni molto ridotto. Se queste sono le principali fonti di incertezza derivanti dai dati conservati negli archivi dell’Ufficio Centrale, vi è poi da tenere presente che, tra la fine del Novecento e i primissimi anni Duemila, tutte le 111 stazioni hanno smesso di funzionare, per cui l’ISAC ha proceduto all’aggiornamento delle serie mediate per l’Italia, ricorrendo a un materiale statistico completamente diverso: i valori forniti dagli enti statunitensi NCDC/NOAA e diffusi in tempo reale mediante il network GSOD. Tutto ciò implica nuovi motivi di incertezza: –– le stazioni italiane coperte dal network GSOD sono in pratica quelle relative all’assistenza al volo e hanno un’affidabilità non molto elevata, soprattutto a riguardo delle misure di precipitazione; –– la distribuzione geografica delle stazioni della rete “attuale” è assai diversa da quella “storica” (nella figura 4.15 si noti la distribuzione dei simboli rossi, in rapporto agli azzurri già citati); unendo i dati, qualche problema di non omogeneità è pertanto inevitabile; –– le statistiche GSOD sono soggette nel tempo a possibili modificazioni, anche di una certa entità. Solo per fare un esempio, il valore del 2010, che nella figura 4.14 è intorno al 29%, nello stesso

4. La presunta “tropicalizzazione” del Mediterraneo 93

diagramma attualmente fornito dall’ISAC (luglio 2019) si è portato a circa 33%. In definitiva credo che, sulla scorta delle varie considerazioni proposte, sia del tutto logico ritenere che, a ogni valore di anomalia pluviometrica dell’Italia, si debba associare un intervallo di incertezza di diversi punti percentuali. Ne deriva quindi l’impossibilità di ottenere una classifica davvero attendibile – dal 1800 a oggi – degli anni più siccitosi o di quelli più umidi. Pure una ricerca molto approfondita ben difficilmente potrebbe arrivare, ad esempio, a stabilire i veri rapporti fra il 2017 e il 1945, anche per le carenze di misure in quest’ultimo, dovute alle vicende belliche. Allora perché il 4 dicembre 2017 è stato emesso quel comunicato stampa di cui parliamo? Non certo per una ragione di tipo scientifico, ma presumibilmente per fini di visibilità mediatica, cercando di venire incontro alla costante richiesta di sensazionalismo. Tutto ciò ha così contribuito a incrementare il mito di quelle drammatiche modificazioni climatiche, che le analisi invece non giustificano.

La distribuzione geografica delle stazioni pluviometriche utilizzate dall’ISAC. In azzurro quelle della rete riferibile all’Ufficio Centrale di Meteorologia, in rosso quelle ricadenti nel network GSOD.

Fig. 4.15 –

94

Il cambiamento climatico

A mio modesto parere, se proprio si fosse voluto dare un’informazione al pubblico che avesse un sentore sensazionalistico, sarebbe stato perlomeno corretto formularla nel seguente modo: “L’esame dei dati di tutto l’anno meteorologico ha confermato che il 2017 è stato nel complesso molto asciutto, tanto che nel nostro database il suo valore risulta, seppur di poco, il più basso di tutta la serie. Le notevoli incertezze in gioco non permettono però di stabilire un’attendibile classifica degli anni più siccitosi, per cui possiamo limitarci a ritenere che il 2017 ricada fra i 5-6 anni più secchi degli ultimi due secoli”. La tropicalizzazione dilaga: una “savana” nell’Inghilterra

Dopo i vari discorsi del 2017, durante l’estate 2018 la questione della siccità conquista nuovi spazi nel panorama dei media italiani, spostando l’attenzione verso latitudini molto più alte di quelle mediterranee e salendo a toni così allarmistici, da arrivare a produrre notizie davvero divertenti; è il caso di un articolo di fine luglio del Corriere della Sera (Ippolito, 2018), nel quale viene tracciato un quadro drammatico della situazione ambientale dell’Inghilterra. Sul quotidiano milanese si potevano leggere queste parole: Nelle chiese di campagna continuano a intonare Jerusalem, l’inno religioso nazionale, che si conclude con l’immagine dell’England’s green and pleasant Land, la terra verde e piacevole d’Inghilterra. Ma fuori c’è quella che gli agricoltori ormai chiamano “Sussex savannah”, la savana del Sussex: perché i prati di smeraldo hanno fatto posto a una distesa arida e desolata, di un colore giallo bruciacchiato […] Sui giornali e in rete è gara a pubblicare immagini di come sono ridotte le campagne. Le più impressionanti sono quelle satellitari: se prima a nord della Manica si collocava una terra verde, ora c’è una macabra chiazza gialla. E dove si distendevano campi fertili adesso si allargano terreni crepati dalla calura.

Più che un normale resoconto dall’estero, pare la descrizione di un’immane catastrofe, una sorta di piaga biblica abbattutasi sulla terra d’Albione, con corredo di un’immagine da satellite che dovrebbe confermare l’entità del disastro (figura 4.16). Il giornalista non si pone, neppur lontanamente, la domanda se quella del 2018 sia una situazione che possa verificarsi con una deter-

4. La presunta “tropicalizzazione” del Mediterraneo 95

minata ricorrenza, perché deve indiscutibilmente essere uno dei tanti segnali di un clima ormai impazzito; si parla infatti di condizioni climatiche mai viste da secoli. Si legge ancora nel testo: «Sì, perché le isole britanniche sono investite da un’ondata di calore come non si era mai vista prima: questa settimana la temperatura toccherà i 35 gradi e ci sono zone che non ricevono una goccia di pioggia da quasi due mesi. Se continua così, si andrà incontro all’estate più arida mai registrata dal 1776». Un controllo dei dati forniti sul sito web del servizio meteo-climatico nazionale britannico (il MetOffice) permette di inquadrare i valori del 2018 rispetto a una serie storica che parte dal 1910. Per quanto concerne le temperature, le medie di giugno e luglio per l’Inghilterra sono state rispettivamente di 15,8° e 18,8°; si tratta di valori decisamente elevati, ma non record. Infatti, il mese di giugno si colloca al quarto posto dei più caldi, preceduto da quelli del 1976 (16,4°) e del 1940 e 2017 (entrambi con 15,9°); luglio è al secondo posto, essendo superato dai 19,3° del 2006. La media 2018 del bimestre (17,3°) è ovviamente fra le più alte del periodo di osservazione, ma anch’essa non record, in quanto inferiore ai 17,5° del 2006. In sostanza un’estate inglese di certo molto calda, ma sul livello di quelle di altre annate.

L’immagine a corredo dell’articolo del Corriere della Sera, intitolato “Sempre più caldo, la verde Inghilterra è diventata gialla”.

Fig. 4.16 –

96

Il cambiamento climatico

A riguardo delle precipitazioni, gli afflussi di giugno-luglio 2018, mediati su tutta l’Inghilterra, ammontano a 50,7 mm. Un dato sicuramente basso, ma deludente per i seguaci del disastro climatico, quando visto all’interno della serie storica di riferimento: per trovare una siccità più marcata, non è infatti necessario risalire al lontanissimo 1776, ma è sufficiente fermarsi a un banale 1976 quando caddero 46,2 mm; sempre nel XX secolo, il 1921 fu ancor più secco con soli 35,2 mm nei due mesi in oggetto. Che i 50,7 mm non siano nulla di straordinario, lo dimostra anche il fatto che sono in totale dieci le annate con valori inferiori a 70 mm. Del tutto inutili sarebbero eventuali discorsi concernenti i mesi precedenti, in quanto le piogge della primavera 2018 sono state ben al di sopra della norma. Il commento che si può fare a un articolo di questo tenore è sempre il solito: i lettori ricevono informazioni palesemente esagerate che contribuiscono a diffondere la convinzione di drammatici cambiamenti in atto, ma il mondo della scienza ben si guarda dall’intervenire pubblicamente per riportare le cose su un piano di serietà.

Capitolo 5

Cicloni tropicali e tornado Una percezione del tutto erronea I tornado e gli uragani occupano di diritto un posto rilevante in ogni discorso sugli eventi estremi, essendo le manifestazioni meteorologiche più violente e potenzialmente più pericolose. Molto diffuse sono le convinzioni a riguardo di un loro incremento (per frequenza e intensità) negli ultimi 40-50 anni, con previsioni di un’ulteriore crescita futura, in relazione al global warming antropogenico. L’analisi dei dati storici non mette però in evidenza degli aumenti significativi e anzi si osservano alcune situazioni di calo; insomma, si nota la solita dissonanza fra certe asserzioni catastrofistiche e una ben diversa realtà dettata dai numeri. 1. Le tendenze dei cicloni tropicali

Per valutare in modo convincente l’andamento temporale del fenomeno dei cicloni tropicali, è necessario studiare la loro frequenza, ma pure l’intensità complessiva, perché è evidente che, se il numero totale annuo rappresenta un dato di grande importanza, è anche vero che 10 uragani di categoria 1 sono ben diversi da 10 di categoria 4. La frequenza

Nella figura 5.1 è riportato l’andamento su scala globale della frequenza di tutti i cicloni tropicali e di quelli che hanno raggiunto la forza di uragano, cioè con vento massimo sostenuto di almeno 65 nodi; entrambe le serie storiche (1972-2011) sono caratterizzate da una certa variabilità interannuale, senza però alcun trend di fondo (Maue, 2011). Assai interessanti i dati riferiti alla parte occidentale del Pacifico boreale, forniti dall’ente nazionale giapponese (JMA). Sia la serie 1951-2016 del numero totale dei cicloni che quella 1977-2016, relativa ai soli uragani, hanno tendenza di segno negativo (figura 5.2).

98

Il cambiamento climatico

Fig. 5.1 – La frequenza globale di tutti i cicloni tropicali e di quelli che raggiungono la forza di uragano. Il grafico chiarisce che, nel periodo 1972-2011, non si è manifestata alcuna crescita nel numero di questi fenomeni.

Fonte: Maue, 2011

Fig. 5.2 – L’andamento della frequenza dei cicloni tropicali nel bacino occidentale del Pacifico boreale; il grafico a destra è relativo a quelli che hanno raggiunto la forza di tifone (uragano). I diagrammi sono tratti da un report sui cambiamenti climatici, disponibile sul sito web dell’ente nazionale giapponese JMA.

Le verifiche statistiche non consentono di parlare di trend significativi, ma, tenendo conto che i livelli di confidenza sono intorno all’85%, ne deriva un certo segnale di decremento e non certamente di crescita. Da rilevare anche che la fase di massimo assoluto non corrisponde a periodi recenti, ma si colloca nella parte centrale degli anni ’60, cioè quando le temperature – sia dell’aria, sia degli oceani – erano considerevolmente inferiori alle attuali.

5. Cicloni tropicali e tornado. Una percezione del tutto erronea99 L’energia complessiva

Varie agenzie internazionali, tra le quali l’americana NOAA, quantificano l’attività complessiva dei cicloni tropicali mediante un indicatore concettualmente assai semplice: ACE (Accumulated Cyclone Energy) = 10-4·∑(Vmax)2

Fig. 5.3 –

cloni.

L’andamento dell’indice ACE, relativo all’attività complessiva dei ci-

Fonte: Maue, 2011

Fig. 5.4 – L’andamento 1950-2015 dell’indice ACE per i cicloni dell’Atlantico set-

tentrionale, secondo l’agenzia americana NOAA.

100

Il cambiamento climatico

In pratica, il calcolo del suddetto indice deriva dalla sommatoria di tutte le rilevazioni della velocità massima del vento (elevata al quadrato), effettuate, con cadenza di sei ore, per ciascun ciclone formatosi durante l’anno. Le misure sono in nodi quadrati e, per rendere più maneggevoli i valori, i totali sono divisi per 10 mila; ne consegue pertanto che l’unità di misura convenzionalmente adottata è 104·kt2. In base quindi ai dati dell’ACE (Maue, 2011), si constata che anche l’energia ha mostrato, su scala globale una notevole variabilità dopo il 1971, senza però manifestare un trend di fondo (figura 5.3). Le osservazioni della NOAA per l’Atlantico settentrionale – in questo caso lungo il periodo 1950-2015 – confermano tale situazione di sostanziale stabilità (figura 5.4). Serie storiche di lunghissimo periodo

Quanto detto finora riguarda ciò che è avvenuto dopo la metà del secolo scorso, ma è evidente che un grande interesse risieda anche nella possibilità di estendere le ricerche e quindi di poter studiare delle serie molto più lunghe. In proposito, è fondamentale il database Hurdat, cioè l’archivio storico degli uragani, che è gestito dall’NHC (National Hurricane Center), una sezione del servizio meteorologico nazionale statunitense; in questo database le informazioni relative al bacino atlantico risalgono fino al 1851. Prima di affrontare un qualsiasi discorso in tal senso, è però indispensabile premettere che ci si dovrà inevitabilmente confrontare con problemi di disomogeneità dei dati, in ragione delle grandi variazioni avvenute nella tecnologia e perciò nella capacità di studiare dei fenomeni quali i cicloni tropicali. È quasi superfluo sottolineare, ad esempio, che, quando non esistevano i satelliti artificiali (e ancor prima, quando gli aerei erano ben poco affidabili per i voli oceanici), le rilevazioni su di un uragano, soprattutto se questo fosse rimasto sempre a grande distanza dalle coste, sarebbero state molto più approssimative rispetto a quelle che vengono effettuate attualmente.

5. Cicloni tropicali e tornado. Una percezione del tutto erronea101 Gli uragani dalla Piccola Età Glaciale a oggi

Un gruppo di ricerca messicano ha unito i dati Hurdat a quelli provenienti da altre fonti storiche tra loro confrontate, ottenendo una serie del numero annuo di uragani che hanno riguardato il Golfo del Messico e il Mar dei Caraibi dal 1749 al 2012 (Rojo-Garibaldi et al., 2016 e 2018). Si osserva un andamento contraddistinto da un moderato trend di fondo di segno negativo, con la fase di maggiore concentrazione corrispondente alla prima metà dell’Ottocento, durante la quale è registrato anche il valore record di 13 eventi (figura 5.5). Fatte le necessarie considerazioni in merito a possibili incertezze di certe fonti, si deve comunque constatare come questo studio rappresenti un ulteriore esempio della dicotomia fra la teoria oggi dominante, da un lato – che vede una correlazione diretta fra incremento delle temperature e aumento degli eventi atmosferici estremi – e dall’altro i risultati provenienti dalle ricerche di climatologia storica, che indicano una situazione inversa.

Fig. 5.5 – La frequenza degli uragani dal 1749 al 2012. A partire dal 1851, i dati pro-

vengono dal database statunitense Hurdat, mentre quelli antecedenti derivano da altre fonti storiche.

Fonte: Rojo-Garibaldi et al., 2018

102

Il cambiamento climatico

Serie relative ai landfall sul territorio statunitense

Soltanto una certa percentuale dei cicloni tropicali interferisce con le terre emerse; il termine landfall sta in proposito a indicare che le coste sono state raggiunte dal punto centrale della struttura ciclonica, mentre quello più generico di strike viene usato quando sulla terraferma si misurano venti con forza di uragano, anche nei casi in cui non si sia verificato un vero e proprio landfall. Nella ricostruzione di serie di lungo periodo, se ci si limita a considerare solo quella parte di cicloni che ha colpito il territorio, si lavora con campioni di dimensione più ridotta, ma che molto probabilmente hanno minori problemi di disomogeneità, visto che, anche per ogni evento del passato, vi è stata la possibilità di effettuare delle misure dirette, quando il ciclone arrivava sulle coste. Per quanto concerne il landfall degli uragani sul territorio continentale degli USA, si osserva che la frequenza del fenomeno ha mostrato una debole tendenza nel senso della diminuzione (Klotzbach et al., 2018); dopo il 1970 si nota infatti che i valori sono nel complesso un po’ inferiori a quelli dei decenni precedenti, salvo qualche annata particolare sulla quale si ritornerà nel successivo paragrafo (figura 5.6).

Fig. 5.6 – Numero annuo di uragani che hanno comportato il landfall sugli USA.

Fonte: Klotzbach et al., 2018

5. Cicloni tropicali e tornado. Una percezione del tutto erronea103

Nel 2017, ho pubblicato sulla Rivista di Meteorologia Aeronautica un articolo nel quale viene proposto un metodo per valutare le variazioni di intensità degli uragani che hanno colpito le coste orientali degli USA, a partire dal 1851. Utilizzando l’archivio Hurdat2, ho considerato per ogni evento i valori, al momento del landfall, della velocità massima del vento e della pressione atmosferica al centro del ciclone. Sulla base di questi due parametri è stato elaborato un indicatore dell’intensità dell’uragano; sommando infine, anno per anno, gli indici dei singoli eventi, si è ottenuto un dato annuale complessivo, la cui serie storica può appunto essere studiata al fine di una valutazione sull’andamento temporale del fenomeno in oggetto. La serie ha un trend lineare di segno negativo, privo di significatività, come evidente dal basso valore del coefficiente di determinazione (figura 5.7); analogamente alla frequenza, anche per l’intensità i valori posteriori agli anni ’60 paiono nel complesso un po’ minori dei precedenti, contrariamente quindi alla percezione pubblica di questi fatti.

La serie storica 1851-2016 dell’indice annuo di intensità degli uragani sulle coste atlantiche degli USA. In rosso l’andamento lisciato; in verde il trend lineare con la relativa equazione.

Fig. 5.7 –

Fonte: Pinna S., 2017

104

Il cambiamento climatico

La sostanziale costanza, nel lungo periodo, dell’intensità di impatto degli uragani sul territorio statunitense dimostra che nel rischio connesso non si è avuto alcun incremento del fattore pericolosità e che perciò l’aumento dei danni nel corso del tempo è da addebitarsi esclusivamente a una forte crescita della vulnerabilità. Ciò è pienamente confermato da uno studio condotto da ricercatori della NOAA in merito ai costi per gli Stati Uniti, dovuti agli effetti dei cicloni tropicali, nel periodo 1900-2010; i valori sono stati riportati a quelli del 2010, tenendo conto dell’inflazione, dell’incremento della densità di popolazione lungo le fasce costiere e dell’aumento del valore esposto, in ragione dello sviluppo dei sistemi economici. L’approccio seguito permette così di eliminare l’influenza delle variazioni di vulnerabilità territoriale, ottenendo una stima dei costi che saranno evidentemente correlati soltanto alle forzanti ambientali (Blake et al., 2011). La figura 5.8 riassume i risultati della ricerca, mostrando una perfetta stabilità lungo il periodo considerato.

Fig. 5.8 – La serie storica 1900-2010 dei danni, espressi in miliardi di dollari, procurati dagli uragani negli USA; i valori devono essere intesi come normalizzati alle condizioni del 2010, tenendo cioè conto dell’inflazione, dell’incremento della densità di popolazione lungo le fasce costiere e dell’aumento del valore esposto. In verde il trend lineare con la relativa equazione.

Fonte: Pinna S., 2017

5. Cicloni tropicali e tornado. Una percezione del tutto erronea105

2. La lunga assenza di uragani maggiori sugli USA

Dal punto di vista degli effetti prodotti dai cicloni tropicali, il biennio 2004-2005 è stato davvero sfortunato per gli Stati Uniti. Ben 12 uragani ne hanno colpito le coste, con 7 di essi classificati come “maggiori”, cioè di categoria non inferiore a 3, secondo la scala Saffir-Simpson (figura 5.6 e 5.9). Tra i 7 maggiori, vi è anche il tristemente noto Katrina, che causò danni giganteschi e più di 1800 vittime a New Orleans e nelle zone vicine. Tutto ciò scatena all’epoca un catastrofismo insensato che, nei fatti appena accaduti, vede – senza la minima incertezza – i chiari segnali di un disastroso cambiamento in atto. Un atteggiamento che guida lo stesso Al Gore nella realizzazione del documentario An Inconvenient Truth (che uscirà nel 2006) e al quale non si sottrae neppure l’IPCC, per poter fare affermazioni altrimenti non giustificabili. In proposito, si ricordi il report del 2007 – citato nel secondo capitolo – nel quale si dice che è probabile che vi sia stata un’intensificazione dei cicloni tropicali dopo il 1970; nessuna delle analisi statistiche sopra discusse sembra però in grado di supportare questa considerazione.

Numero annuo di uragani maggiori che hanno comportato il landfall sugli USA. In verde ho evidenziato la finestra (2005-2017) di assenza del fenomeno, di gran lunga la più estesa dall’inizio delle osservazioni.

Fig. 5.9 –

Fonte: Klotzbach et al., 2018

106

Il cambiamento climatico

Le coste americane avrebbero così dovuto subire continue e crescenti devastazioni e invece, dopo l’arrivo dell’uragano Wilma nell’ottobre 2005, si delinea una situazione che procurerà un progressivo disagio nei ferventi seguaci della religione del clima impazzito: non si verificano per anni dei landfall di uragani maggiori sul territorio continentale. Invece che una pioggia di catastrofi, se ne instaura una vera siccità, così lunga da concludersi addirittura il 26 agosto 2017, per l’impatto sul Texas, con intensità di categoria 4, del ciclone Harvey. Si tratta pertanto di un’assenza protrattasi per quasi 12 anni, risultando quindi la più estesa – e di gran lunga – dall’inizio delle osservazioni nel 1851. Come per la concentrazione di landfall nel biennio 20042005, un fatto casuale, che però ben si prestava per far capire l’assurdità di tante idee catastrofistiche sugli eventi estremi. Invece – a dimostrazione di un approccio di tipo ideologico, unitamente a una scarsissima conoscenza dei dati scientifici – l’arrivo dei due uragani maggiori (Harvey e Irma) nel 2017 è sufficiente a ricondurre le informazioni dei media sui consueti binari; la figura 5.10 ne riporta un chiaro esempio, fornito da uno dei più diffusi quotidiani italiani che chiama subito in causa il clima impazzito.

Una prima pagina de la Repubblica (settembre 2017), nella quale si associa il previsto impatto dell’uragano Irma al clima impazzito.

Fig. 5.10 –

5. Cicloni tropicali e tornado. Una percezione del tutto erronea107 L’uragano Sandy nell’ottobre 2012 colpisce New York

Questo ciclone si era formato il 22 ottobre nell’area caraibica, seguendo poi una traiettoria abbastanza regolare verso Nord che aveva comportato l’attraversamento della parte orientale di Cuba, proprio nel momento di massima intensità. Proseguendo lo spostamento verso latitudini settentrionali, Sandy arriva in prossimità delle coste del New Jersey il giorno 29. Il landfall avviene quando è stato declassato a tempesta, ma il surge marino che ormai si è determinato causa gravi allagamenti nella zona di impatto e in quella vicina di New York, con danni molto seri e decine di vittime. Nonostante che ormai da vari anni si fosse realizzata una situazione di bassa pericolosità per gli USA, questi fatti furono sufficienti a far nascere un’ennesima ondata di idee insensate sui cambiamenti climatici. In particolare, essendo state colpite delle regioni non frequentemente interessate dal problema uragani, si sentì affermare che uno degli effetti del mutamento in atto era anche quello di spostare sempre più verso Nord i pericoli legati ai cicloni tropicali.

Fig. 5.11 – I luoghi dei landfall, con forza di uragano, sulle coste atlantiche degli USA, avvenuti a latitudini maggiori rispetto a quella della zona d’impatto di Sandy; il periodo considerato è 1950-2007. Si noti che 7 dei 9 eventi rappresentati risalgono a prima del 1980, quindi in condizioni di clima assai più fresco dell’attuale.

108

Il cambiamento climatico

In realtà, nessun dato statistico poteva confortare tali asserzioni e anzi un controllo negli archivi ufficiali consente di appurare che in alcuni casi si sono verificati impatti con forza di uragano perfino nel Sud del Canada. La figura 5.11 riporta una sezione di uno schema fornito dalla NOAA, nel quale si può constatare che, nel periodo 1950-2007, vi sono stati ben 9 landfall con forza di uragano (4 di tipo maggiore) a latitudini superiori rispetto a quella del punto di arrivo di Sandy; da notare anche che 7 dei suddetti 9 eventi si sono verificati in epoca antecedente all’ultima fase del global warming. Un articolo scientifico, uscito nel maggio 2016 sul BAMS

Mentre il periodo di assenza di uragani maggiori non si era ancora concluso, ma già era nettamente diventato il più lungo di sempre, viene pubblicato sul Bullettin of the American Meteorological Society un articolo con questo titolo: “L’arbitraria definizione dell’attuale mancanza di landfall atlantici di uragani maggiori” (Hart et al., 2016). Con argomentazioni sulle quali mi pare non vi sia alcunché da eccepire, gli Autori arrivano a dimostrare che la lunghezza del periodo senza questi eventi non era da ritenersi come un dato assoluto, in quanto dipendeva dalle unità di misura utilizzate, dalle soglie scelte e dalla convenzionale definizione di uragano maggiore. Il punto essenziale della questione risiede però nel chiedersi quali fossero i reali obiettivi del lavoro. Invero, nessuno aveva suggerito che si stesse delineando una riduzione dell’intensità dei cicloni tropicali, come anche dimostrato dal fatto che, nel testo dell’articolo e nella bibliografia, non è ricordata alcun’altra ricerca che parli di ciò. Si tratta allora di uno di quei casi in cui, in una sede scientifica, si vuole entrare in un dibattito che si svolge a livello mediatico; con quale finalità? In astratto, si potrebbe ritenere che il fine dell’esperto sia, in casi simili, quello di riportare una certa discussione entro ambiti propriamente scientifici. Le argomentazioni addotte da Hart et al. avrebbero però avuto un’identica validità anche decenni prima, per cui potevano applicarsi a uno dei tanti studi statistici sulla frequenza dei cicloni, prodotti in precedenza; perché allora porsi il problema solo in corrispondenza della fase senza landfall di uragani maggiori?

5. Cicloni tropicali e tornado. Una percezione del tutto erronea109

Se non vi dubbio che nella deontologia dello studioso debba rientrare anche l’impegno a confutare idee o teorie ritenute non aderenti ai corretti canoni della scienza, una perfetta occasione in tal senso si era allora creata anche nel 2006, quando gli effetti degli uragani arrivati sugli USA nel biennio precedente – come già prima sottolineato – avevano generato un profluvio di false affermazioni sul cambiamento climatico; una semplice analisi statistica dei dati disponibili le avrebbe facilmente smentite. Ad esempio, Hall e Hereid (2015) avevano in questo modo voluto dimostrare che la mancanza di landfall maggiori – dal 2005 al 2014 – era un fatto puramente casuale. Purtroppo, né loro, né il gruppo di Hart, né alcun altro componente della scienza ufficiale, si sono interessati a fare analoghe puntualizzazioni nella suddetta precedente circostanza del 2006. In definitiva, mi pare che pure l’articolo uscito sul BAMS sia stato animato anche da una certa componente ideologica, che tende sempre a orientare le idee verso una ben determinata direzione. 3. L’andamento dei tornado (negli USA)

I tornado sono un fenomeno in merito al quale è molto difficile avere delle serie storiche con dati plausibilmente omogenei. Si tratta di eventi imprevedibili e di breve durata, che possono sfuggire all’osservazione, quando si verificano in luoghi poco o nulla popolati. Gli unici archivi in base ai quali si possono fare delle utili statistiche sono quelli statunitensi, poiché una raccolta sistematica dei dati è iniziata già alla metà del XX secolo. Per l’Italia, non c’è una documentazione che consenta delle attendibili valutazioni sull’evoluzione temporale, per cui, ogni volta che qualche sedicente esperto dichiara che il pericolo dei tornado nel nostro Paese sta aumentando, si può essere certi che ci sta dando una notizia priva di senso scientifico. Bisogna poi ricordare che questi fenomeni possono manifestarsi con intensità molto diverse; avremo quindi un’elevata quantità di deboli tornado e un limitato numero di quelli violenti. I minori – classificati dalla NOAA come EF-0 (secondo la scala Enhanced Fujita) – sono ovviamente i più difficili da censire, perché senza una testimonianza diretta e/o il conforto della registrazione operata da un radar meteorologico, possono non lasciare traccia della loro formazione.

110

Il cambiamento climatico

Numero totale annuo (1950-2010) dei tornado negli USA, come registrato negli archivi della NOAA.

Fig. 5.12 –

Fig. 5.13 – Numero totale annuo (1954-2014) dei tornado di intensità non inferiore a EF-1 (il diagramma deriva dal report “Historical Records and Trends” inerente ai tornado e consultato nel luglio 2019 sul sito www.ncdc.noaa.gov.).

Anche negli USA, la capacità di computare tutti gli eventi era in passato decisamente inferiore a oggi, a causa dell’assai minore densità di popolazione in certe regioni centrali e delle differenze nella tecnologia disponibile per le osservazioni. Ne deriva che l’andamento del numero totale di tornado non può certo essere utilizzato per interpretazioni climatologiche. La figura 5.12 mostra che si è passati dai circa 200 eventi registrati all’inizio degli anni ’50 agli attuali oltre 1200; un

5. Cicloni tropicali e tornado. Una percezione del tutto erronea111

incremento molto forte, ma da addebitarsi soltanto alle variazioni nella capacità osservativa e non a cambiamenti climatici. Infatti, eliminando dal conteggio gli EF-0 (come risulta dalla documentazione del sito ufficiale della NOAA), si osserva che, negli Stati Uniti, non vi è stato alcun aumento della frequenza, durante l’ultimo sessantennio (figura 5.13). Molto interessante anche la statistica dei tornado violenti (categoria 3/+): la serie storica del numero annuo è rappresentata nella figura 5.14. L’agenzia statunitense commenta contemporaneamente i due istogrammi (N° degli EF-1/+ e N° degli EF-3/+) con queste parole: «I grafici a barre indicano che negli ultimi 55 anni si è manifestato un leggero trend nella frequenza dei tornado più forti». Non si capisce però perché non venga esplicato il segno negativo della tendenza e soprattutto non pare adeguato l’uso dell’aggettivo “leggero” a proposito dei fenomeni violenti; il loro trend risulta in effetti piuttosto robusto e caratterizzato da un livello di confidenza del 99% (figura 5.14). Invero l’andamento della serie degli EF-3/+ è particolarmente interessante e merita pertanto qualche ulteriore approfondimento.

Fig. 5.14 – Numero totale annuo (1954-2014) dei tornado di intensità non inferiore alla classe 3 (il diagramma deriva dal già citato report “Historical Records and Trends”). Il trend in rosso e la relativa equazione sono stati aggiunti in questa sede.

112

Il cambiamento climatico

Numero totale annuo (1954-2018) dei tornado di intensità non inferiore alla classe 3; in verde è riportata la statistica di Pettitt, che evidenzia un change point nel 1985. A tratteggio le medie dei due sottoperiodi 1954-1985 e 1986-2018.

Fig. 5.15 –

L’analisi, condotta sui dati aggiornati fino al 2018, evidenzia che la riduzione di questi fenomeni è dovuta alla presenza di un change point (con significatività del 99,99%) nell’anno 1985; nel periodo 1954-1985 si è avuta una media annua di 55,8 eventi, mentre nel successivo intervallo 1986-2018 tale valore è sceso a 34,1. A conferma di un calo così sensibile (-39%), si nota come nella seconda fase soltanto il 2011 ha avuto un dato superiore a 70, a fronte di sette annate al di sopra di tale soglia prima del 1985 (figura 5.15). Immagino sia estremamente difficile formulare delle ipotesi sulle cause della suddetta brusca riduzione, ma quello che è del tutto evidente è che, almeno sino a ora, il periodo del global warming recente ha comportato un effetto opposto rispetto a quanto comunemente ritenuto in tema di eventi estremi. È utile anche precisare che, secondo i dati preliminari, gli ultimi due anni, cioè 2017 e 2018, hanno fatto registrare i minimi assoluti di tutta la serie, con soli 15 e 12 eventi rispettivamente; un fatto piuttosto interessante che però è stato ignorato in sede di divulgazione.

5. Cicloni tropicali e tornado. Una percezione del tutto erronea113

Danni (in milioni di dollari) causati dai tornado negli USA; i valori sono normalizzati rispetto a quelli del 2012, considerando le progressive variazioni nei livelli di sviluppo. Il trend e la relativa equazione sono stati aggiunti in questa sede.

Fig. 5.16 –

Fonte: Roger Pielke, Jr. (www.globalwarming.org)

Il calo nel numero dei forti tornado ha avuto effetti evidenti sul territorio statunitense, come dimostrato da uno studio sui danni subiti, normalizzando i valori in dollari rispetto alle recenti condizioni di sviluppo degli USA (Simmons et al., 2013). Nella figura 5.16 – fornita sul web da uno degli autori della ricerca, Roger Pielke, Jr. – si può osservare l’andamento decrescente dei costi sociali, che infatti negli ultimi decenni sono sempre rimasti al di sotto del limite dei 7 miliardi annui, fatta eccezione per il 2011. Studiando questa serie, ho potuto appurare un fatto assai interessante: il trend indicato nella figura deriva dalla presenza di un change point nel 1984 (con significatività del 99,9%), quindi pressoché coincidente con quello della serie dei tornado violenti; il periodo 1950-1984 ha una media di 7,0 miliardi di dollari all’anno, mentre nel successivo 1985-2012 si è scesi a 3,8. I dati quindi suggeriscono che, nella prima metà degli anni ’80, si è verificata una brusca diminuzione nella frequenza dei fenomeni più intensi (-39%), cui è corrisposto un decremento dei danni (-46%). Sarebbe davvero opportuno che tali numeri venissero adeguatamente divulgati, onde evitare che su certe questioni continui a persistere

114

Il cambiamento climatico

quell’erronea percezione generale, di cui al titolo stesso del presente capitolo. Purtroppo, vedendo un ente di prestigio come la NOAA che liquida il tema dell’andamento degli EF-3/+ con un semplice “little trend”, sarà assai difficile che il dibattito possa rientrare entro percorsi più corretti di quelli che oggi vediamo.

Capitolo 6

Il mito della mortalità da calore Chiunque si sia interessato ai temi dei cambiamenti climatici avrà certamente visto che, nell’ambito delle conseguenze previste a seguito del riscaldamento globale, un posto d’onore è sempre riservato all’aumento della mortalità, in ragione della maggiore aggressività delle ondate di calore estive. Ancora una volta è però il caso di una questione trattata con palese approccio dogmatico e spesso pure con una superficialità che sorprende quando riguarda enti ai quali è riconosciuta una generale autorevolezza. Nei paragrafi che seguono cercherò, in modo molto semplice, di spiegare come andrebbe trattato il problema, portando una serie di esempi che riguardano tre stati europei molto popolosi: Italia, Germania e Regno Unito. Il lettore potrà effettuare ogni sua opportuna verifica, sapendo che i dati provengono da siti web liberamente accessibili; quelli demografici sono di Eurostat. 1. Le variazioni stagionali della mortalità

Nei Paesi europei, la mortalità presenta una distribuzione media caratterizzata da differenze stagionali che se non sono ampissime, appaiono comunque significative; i valori massimi competono all’inverno, mentre è l’estate che tende ad avere quelli più bassi (tabella 6.1). Tab. 6.1 – Ripartizione media stagionale (%) dei decessi e coefficienti di variazione (%) delle serie storiche di dati; i valori sono relativi al periodo 1980-2017.

Distribuzione dei decessi

Coefficiente di Variazione

Inv. Pri. Est.

Aut.

Inv.

Pri.

Est.

Aut.

Germania

26,6 25,7 23,6

24,1

6,21

5,31

4,78

4,63

Regno Unito

28,1 25,3 22,7

23,9

8,62

6,83

5,01

5,48

Italia

27,7 25,4 23,5

23,5

6,94

5,57

5,56

5,77

116

Il cambiamento climatico

Oltre alla ripartizione statistica dei decessi, è molto importante anche esaminare i coefficienti di variazione, in quanto esprimono l’entità delle oscillazioni interannuali del fenomeno: pure in questo in caso si osserva che l’inverno ha i dati più elevati. In sostanza quindi, la mortalità, non solo è mediamente più alta in inverno, ma tende a manifestare in questa stagione anche le variazioni più marcate e cioè i picchi più accentuati. Di contro, le possibili oscillazioni nel complesso dei tre mesi estivi appaiono di entità simile a quella delle altre stagioni. 2. Relazioni tra clima e mortalità

Quanto appena detto fa capire che devono sussistere delle relazioni – dirette o indirette che siano – fra il clima e la mortalità. Informazioni più precise, in proposito, derivano da un’analisi di maggiore dettaglio, considerando cioè i decessi mensili e passando dai dati grezzi a degli indici che tengano conto della diversa durata dei vari mesi. Nella figura 6.1 sono riportati, per Italia e Germania, i coefficienti di variazione delle serie mensili dei suddetti indici; si osserva una distribuzione caratterizzata da due massimi: uno principale in gennaio-febbraio e uno secondario in luglio-agosto.

Fig. 6.1 – Coefficienti di variazione (%) delle serie degli indici mensili di mor-

talità.

6. Il mito della mortalità da calore117

Ciò suggerisce che, se è nei mesi più freddi che si verificano i picchi più spinti, anche nel cuore dell’estate vi è la possibilità che si manifestino delle oscillazioni sensibili nel numero dei decessi. Nella stagione estiva, gli eventuali innalzamenti della mortalità sono legati a condizioni meteorologiche ben precise, caratterizzate da una serie di giornate consecutive con temperature al di sopra di una determinata soglia (le cosiddette ondate di calore). In inverno, la situazione è più articolata, in quanto il fattore dominante è costituito dalle epidemie influenzali, il cui livello di aggressività ha un’ovvia influenza sul numero dei decessi. Anche il quadro termico gioca però un ruolo importante, dato che il freddo tende ad aumentare i rischi di chi soffre di patologie dell’apparato cardiocircolatorio e di quello respiratorio; inoltre è presumibile che le basse temperature, anche con meccanismi indiretti, possano rendere complessivamente più forti gli effetti delle stesse epidemie influenzali. Per apprezzare correttamente le relazioni fra estremi climatici e mortalità, sarebbe necessario definire singolarmente le varie ondate di calore o di freddo, mediante i dati giornalieri di molte stazioni. Tale studio esulerebbe ovviamente dal presente contesto, per cui mi limiterò a dare alcune indicazioni – sempre riferite al periodo 1980-2017 – che dovrebbero almeno consentire di inquadrare i termini generali della questione; si tenga conto quindi che ogni discorso sulle temperature si basa solo sui valori medi mensili. Riferendosi al freddo, il mese più indicativo è febbraio, visto che il picco dell’influenza è di norma antecedente a esso e che quindi gli effetti delle basse temperature possono risaltarvi in modo abbastanza chiaro. In Italia ai quattro casi più freddi corrispondono valori di sovramortalità che rientrano tra i primi otto della relativa classifica: nel complesso dei quattro, si stimano circa 23.500 decessi sopra la norma (sulle modalità per queste valutazioni, si discuterà nel prossimo paragrafo). Per la Gran Bretagna si osserva una corrispondenza davvero significativa, con i tre febbraio più freddi che hanno anche i tre picchi maggiori di mortalità (13.900 morti in più). La Germania ha dati meno chiari, ma si può comunque rilevare che ai quattro valori minori di temperatura mensile si associano oscillazioni positive dei decessi che appaiono entro i primi dodici posti, per un’anomalia totale di +14.500 decessi.

118

Il cambiamento climatico

Passando alle conseguenze del calore in estate, si notano delle correlazioni temperature-decessi assai evidenti, almeno a riguardo di Germania e Italia. Nella prima i quattro luglio con le medie termiche maggiori presentano un eccesso di morti intorno a 16.100; nella seconda si riscontra un +12.200 decessi nei quattro mesi d’agosto più caldi. Arrivare a definire delle precise relazioni fra clima e mortalità è assai complesso, perché spesso variano nel tempo anche le condizioni di vulnerabilità della popolazione, sia a causa di possibili cambiamenti socioeconomici, sia soprattutto per il progressivo invecchiamento che riguarda praticamente le popolazioni di tutti gli stati avanzati. A ogni modo, dovrebbe essere evidente che il freddo e il caldo agiscono entrambi in modo rilevante, per cui parlare soltanto di effetti negativi dell’eventuale global warming futuro non sembra giustificato rispetto alla situazione reale. A maggiori pericoli in estate, credo sia infatti del tutto logico pensare che si accompagnerebbero dei vantaggi in inverno, dei quali però non viene mai fatto alcun cenno. 3. L’Atlante dei disastri, pubblicato dal WMO

Per capire come le questioni in oggetto sono affrontate a livello ufficiale, è davvero illuminante leggere il documento, pubblicato online dal WMO nel 2014, che ha come titolo: Atlas of mortality and economic losses from weather, climate and water extremes (1970-2012). Il testo si apre con un vero e proprio ossequio alla teoria del clima impazzito, con qualche immancabile nota di politicamente corretto: I disastri causati dai fenomeni di pericolo meteorologico, climatico e idraulico sono in aumento in tutto il mondo. Sia i paesi industrializzati che quelli non industrializzati stanno sopportando le conseguenze di ripetuti eventi di inondazioni, siccità, temperature estreme e tempeste. Il sempre maggiore impatto delle catastrofi è dovuto, non solo alla loro crescente frequenza ed entità, ma anche all’aumento della vulnerabilità delle società umane, in particolare di quelle che sopravvivono ai margini dello sviluppo.

I dati contenuti nell’atlante derivano da un database creato dal CRED (Centro per le Ricerche sull’Epidemiologia dei Disastri), un ente con sede presso l’Università Cattolica di Lovanio, nel Belgio.

6. Il mito della mortalità da calore119

Fig. 6.2 – Scheda relativa alla classificazione dei tipi di disastri censiti (p. 39 dell’atlante del WMO).

In una scheda è spiegato il tipo di classificazione adottata per gli eventi censiti, che appaiono suddivisi in tre categorie: idrogeologici, meteorologici e climatologici (figura 6.2). Prescindendo dal commentare l’inserimento degli incendi nel terzo gruppo, c’è una questione sostanziale che deve subito essere evidenziata: non ha senso ritenere che le conseguenze delle ondate di calore (o di freddo) possano essere considerate in modo analogo a quelle dovute al verificarsi, ad esempio, di una tempesta o di un’alluvione. Quando si hanno dei periodi con temperature estreme, il numero di persone che muore per patologie da esse direttamente causate è sempre trascurabile, per cui gli eccessi di mortalità di cui si discute vanno intesi solo in senso statistico, in base all’andamento dei dati delle morti nell’ambito delle serie storiche disponibili. Si può dimostrare che, adottando sistematicamente un approccio come quello seguito dal WMO, si arriverebbe a dei veri assurdi; vediamone appunto un semplice esempio. La Cina ha circa 1.400 milioni di abitanti, con una mortalità annua vicina all’8 per mille; ogni mese perciò vi muore poco meno di 1 milione di individui. Considerando una modesta oscillazione positiva del 5%

120

Il cambiamento climatico

(fatto molto frequente), si calcola così un aumento di 50.000 decessi sulla norma; se questi eventi fossero computati a guisa di disastri, avremmo un’enorme catena di catastrofi, che in realtà non esiste. Quando si parla di morti prodotte da un’ondata di caldo/freddo, non si può allora far altro che confrontare i dati dei decessi con dei valori di riferimento, la cui determinazione dipende dalla procedura scelta e non può portare a risultati del tutto oggettivi. Ad esempio, per le valutazioni fatte in queste pagine, ho calcolato un andamento tendenziale delle serie, mediante medie mobili di periodo 3 con 5 iterazioni; le anomalie di ogni mese sono così derivate dalla differenza fra il dato reale e quello dell’andamento lisciato, ottenuto nel modo ora indicato. In base a quanto detto e anche per le possibili oscillazioni “casuali” della mortalità, è quasi superfluo aggiungere che ogni anomalia calcolata dovrà essere ritenuta come piuttosto approssimativa; il lettore avrà notato che i numeri forniti nel precedente paragrafo sono approssimati alle centinaia, ma forse sarebbe opportuno considerare un margine d’errore ancora più ampio. Sull’atlante del WMO i dati sulle morti causate dalle ondate di calore sono invece espressi all’unità, senza alcuna indicazione su come siano stati ottenuti; ne deriva così anche la sensazione che i redattori del testo non abbiano neppure una conoscenza molto spinta della materia trattata. Le pagine 30-33 sono quelle dedicate all’Europa e in esse, non solo emerge nettamente il problema poco prima citato, ma esso è anche accompagnato da un altro non meno importante. I primi dieci disastri, ordinati per numero di vittime prodotte, sono tutti costituiti da ondate di calore, soprattutto con riferimento all’estate del 2003, ormai entrata nella mitologia del cambiamento climatico (figura 6.3). Se tutto ciò è palesemente assurdo per i motivi già esposti, l’ulteriore domanda che una persona dotata di normale senso critico dovrebbe porsi è la seguente: nel periodo 1970-2012 non ci sono state ondate di freddo capaci di procurare conseguenze significative?

6. Il mito della mortalità da calore121

Fig. 6.3 – Tabella e immagine riportate rispettivamente alle pagine 30 e 31 dell’at-

lante. Dalla loro osservazione, un lettore, se non sufficientemente esperto in materia, sarebbe inevitabilmente portato a ritenere che il calore estivo abbia sconvolto la vita in Europa negli ultimi decenni.

122

Il cambiamento climatico

Esempi di effetti del f reddo sulla mortalità nel periodo 1970-2012

Nel febbraio del 1986 la Gran Bretagna è interessata da un’ondata di freddo particolarmente intensa. Dall’osservazione della figura 6.4 si nota che nella stazione di Aberdeen la fase più fredda ebbe inizio nei giorni 17-18 e si protrasse ininterrottamente fino al 3 di marzo, toccando il picco il 28 febbraio, con una minima di -14,4° (figura 6.4). Un’analisi delle serie dei decessi nei mesi di febbraio e marzo – per i cosiddetti effetti di coda – ha permesso di stimare che questo evento di temperature estreme ha causato circa 9.500 morti in più sulla norma. In Germania l’inverno del 1996 è risultato tra i più freddi in assoluto dell’ultimo cinquantennio, presentando una mortalità molto superiore a quella attesa: +23.000 decessi da dicembre a febbraio; un valore impressionante e ascrivibile, almeno in buona parte, alle basse temperature. Il 2003 è sempre citato per l’estate caldissima, ma ben pochi sanno che il suo mese di febbraio era stato assai freddo in vari paesi (figura 6.5), con conseguenze consistenti sulla mortalità. Le anomalie positive nei decessi possono infatti essere valutate in circa 10.000 unità per la Germania, e quasi 6.000 per l’Italia.

Fig. 6.4 – L’andamento delle temperature minime giornaliere ad Aberdeen mette

bene in evidenza l’ondata di freddo del febbraio 1986 nel Regno Unito.

6. Il mito della mortalità da calore123

Fig. 6.5 – Le temperature minime giornaliere del febbraio 2003, nella stazione di Roma Ciampino; sono ben 15 i valori negativi, a dimostrazione che quel mese risultò nettamente più freddo della media.

Nel febbraio 2012 una forte ondata di freddo colpì l’Italia, con diffuse nevicate in gran parte del territorio; l’evento ebbe un chiaro impatto sulla salute pubblica, procurando un aumento dei decessi che, tra il mese stesso e il successivo marzo, può essere stimato intorno a 10.200 unità. Ebbene, tutti gli episodi citati – e non soltanto quelli – hanno comportato un numero di morti in più rispetto alla norma che sarebbe di gran lunga sufficiente a far sì che l’evento dovesse risultare inserito nella tabella riprodotta nella figura 6.3. Del perché questo non sia avvenuto, dalla lettura dell’atlante non se ne trae alcuna spiegazione. A cosa può servire un documento come l’Atlante dei disastri?

In base ai ragionamenti fatti, si arriva inevitabilmente a porsi tale domanda, ricordando anche che il documento è redatto dal WMO, cioè da quell’organizzazione che costituisce la componente scientifica dell’IPCC. L’obiettivo, in teoria, dovrebbe essere quello di fare della divulgazione su argomenti molto trattati dai media, ma il modo insensato col quale sono considerati e poi classificati i cosiddetti “disastri” mi pare che non consenta affatto all’opinione pubblica di inquadrare i problemi in una giusta ottica.

124

Il cambiamento climatico

In realtà l’atlante appare come uno dei vari documenti elaborati con lo scopo di confermare certe verità ufficiali, facendo un uso dei dati davvero non confacente con una corretta procedura scientifica. 4. L’indicatore globale di rischio climatico

Non meraviglia che le modalità seguite dal WMO nel trattare i disastri climatici abbiano fatto scuola, finendo così per generare delle assurdità sempre maggiori; è sicuramente il caso dell’indice GCRI (Global Climate Risk Index), un indicatore elaborato annualmente da un’organizzazione tedesca, Germanwatch, con l’obiettivo dichiarato di contestualizzare i dibattiti in corso sulle politiche climatiche, facendo particolare riferimento ai negoziati internazionali in merito. In base ai valori di questo indicatore, sono classificati i vari stati del mondo, con riferimento sia ai dati dell’anno più recente disponibile, sia a quelli medi del ventennio appena trascorso. Secondo questi ultimi, l’edizione del 2018 ha visto al primo posto del rischio l’Honduras, mentre al 182° e ultimo figurava il Qatar, valutato così come il più sicuro. Ciò che sorprende della classifica è però constatare che quattro paesi europei compaiono nelle prime trenta posizioni: Francia (18°), Portogallo (22°), Germania (23°) e Italia (30°). In situazioni ben migliori si collocano, ad esempio, stati come il Venezuela (59°) – che nel 1999 ha conosciuto un disastro alluvionale gigantesco, con vari centri abitati distrutti e circa 30 mila vittime – oppure l’Indonesia (70°) che, almeno in alcune parti del suo variegato territorio, è interessata dall’azione dei grandi cicloni tropicali. I valori del GCRI derivano da quattro sotto-indicatori, due dei quali relativi ai danni economici subiti e due alla perdita di vite umane. La classificazione effettuata con i valori del numero medio annuo di vittime ogni 100 mila abitanti è senza dubbio la più assurda, in quanto vede la Russia all’ottavo posto e poi Francia, Italia, Spagna, Portogallo e Lussemburgo occupare nell’ordine le posizioni dalla decima alla quattordicesima. Ad esempio, Francia e Italia, con 1,83 e 1,71 vittime medie annue, supererebbero di gran lunga per pericolosità paesi quali India (0,31), Pakistan (0,33), Bangladesh (0,44) e Filippine (0,98); da cosa può derivare una situazione così palesemente ridicola? Dal motivo che soltanto per l’Europa sono stati computati come disastri alcuni incremen-

6. Il mito della mortalità da calore125

ti di mortalità causati dalle temperature estreme. Se questo fosse fatto anche per tutte le altre nazioni, i risultati sarebbero ovviamente del tutto diversi. In sostanza una classificazione che, a mio giudizio, è completamente priva di logica. Ciò che dovrebbe far riflettere – e in un certo modo pure preoccupare – è che Germanwatch gode del supporto fornitogli dal ministero federale tedesco per la cooperazione economica e che i suoi documenti costituiscono davvero una base informativa in molti vertici dedicati alle politiche per i cambiamenti climatici. Tenendo conto che la pressoché totalità dei politici, che discutono di clima e di emissioni nelle grandi riunioni internazionali, non ha la benché minima idea delle questioni scientifiche in gioco, si può ben capire come, leggendo ad esempio le classifiche basate sull’indice GCRI, finisca per dibattere su realtà virtuali, ben lontane dal vero stato delle cose. 5. Una questione veramente emblematica

Mi pare di tutta evidenza che sia l’atlante del WMO, sia la classificazione dell’indicatore di rischio climatico abbiano ben poca utilità pratica, ma si prestino perfettamente a mantenere il mito della mortalità da calore. In effetti, per capire certi presupposti della discussione generale sul riscaldamento globale, il tema dei rapporti fra condizioni climatiche e mortalità è davvero emblematico, in quanto affrontato, a livello ufficiale, con un atteggiamento così condizionato da basi ideologiche da far perdere di vista anche gli ordini di grandezza dei fatti. Per rendersene conto appieno, non è necessario essere degli esperti in materia, ma sarebbe sufficiente riflettere sulle cose, comparando dei semplici dati dei decessi con quelli delle temperature. Anche nei periodi più recenti, si può trovare tutta una serie di esempi davvero chiarificatori; concludo il capitolo mostrandone uno, fornito dal confronto di due episodi concernenti l’Italia. L’estate 2015 è risultata tra le più calde di sempre, con particolare riguardo al mese di luglio che si è avvicinato per temperatura media al famoso agosto del 2003; si pensi che in tale mese di luglio, nella città di Roma, le massime giornaliere non sono praticamente mai scese sotto i 32° e che per nove giorni consecutivi hanno sempre raggiunto i 36~37°.

126

Il cambiamento climatico

Queste ondate di calore hanno comportato un incremento delle morti valutabile in 10.900 unità sul complesso del trimestre estivo. Molto freddo è stato il gennaio 2017, soprattutto nelle regioni settentrionali: considerando l’insieme dell’inverno, i dati suggeriscono un aumento di 13.900 decessi sul dato atteso. Ebbene, se si effettua una ricerca in rete, digitando le parole «mortalità estate 2015» e «mortalità inverno 2017», si constata facilmente che nel primo caso è reperibile una notevole quantità di articoli (epidemiologici e divulgativi) tutti indirizzati sugli effetti del calore nel 2015, mentre per il secondo l’attenzione è assai minore e focalizzata sull’epidemia influenzale, con cenni molto rari al ruolo giocato dalle temperature del gennaio 2017; un ruolo che, quando citato, viene comunque indicato come secondario. In una situazione di tale genere – nella quale il calore è visto come un pericolo crescente, con l’azione del freddo che è di fatto dogmaticamente ignorata – non è pensabile che i problemi possano essere affrontati in modo razionale.

Capitolo 7

Considerazioni conclusive 1. Le mie risposte a tre domande cruciali

Da diversi anni a questa parte, ho cercato di affiancare alla mia attività scientifica un certo impegno nella divulgazione, soprattutto con l’obiet­tivo di spiegare come, nei confronti di molte informazioni climatologiche, si possa costruire un certo senso critico, basato sull’analisi dei dati. Nelle discussioni che ho affrontato, frequentemente mi sono state rivolte varie domande sul mio punto vista; tra di esse credo che le tre cui risponderò di seguito siano le più importanti per sintetizzare quanto espresso nei capitoli precedenti e quindi per chiarire le mie opinioni sul tema del cambiamento climatico. Crede al riscaldamento antropogenico?

Mi pare indubitabile che le attività umane abbiano determinato un potenziale forcing all’incremento delle temperature del Pianeta; basti pensare che la CO2 dalle 280 ppm dell’epoca preindustriale ha oggi superato le 410, potenziando così l’effetto serra atmosferico. Su quale sia il contributo della crescita dei gas serra al riscaldamento globale – quello già avvenuto e soprattutto quello ipotizzato per il prossimo futuro – non sono affatto in grado di esprimere un parere personale, non essendo un esperto nella modellistica, con la quale si cerca di riprodurre i processi che regolano il (complicatissimo) sistema climatico. Detto questo, voglio però aggiungere che, in merito al quadro complessivo proposto dall’IPCC (conosciuto come teoria dell’AGW), non condivido l’atteggiamento di acritica e assoluta accettazione che da tante parti è seguito; questo, per alcune perplessità che derivano da quanto riassumo brevemente: –– la rapidità con la quale, alla fine degli anni ’80, si è passati al nuovo paradigma del clima;

128

Il cambiamento climatico

–– il fatto che non esista ancora un metodo soddisfacente per verificare l’attendibilità delle simulazioni sul futuro, ottenute dai modelli climatici (GCM). Essi sono solitamente provati mediante la capacità di riprodurre adeguatamente l’andamento della temperatura globale negli ultimi 100-150 anni, ma il superamento di tale test non ne garantisce l’affidabilità nell’uso volto a configurare gli scenari evolutivi del clima; –– il persistere di una serie di problemi ancora irrisolti, costituiti da variazioni climatiche, recenti o meno, che le teorie oggi prevalenti non riescono a spiegare. Quali saranno le conseguenze del global warming?

Anzitutto, non sono d’accordo nel porre il problema come viene fatto dall’IPCC, cioè parlando esclusivamente di conseguenze negative del riscaldamento terrestre. Infatti, se si dovesse realizzare quell’incremento di 2° del quale molto si discute, vi saranno delle regioni geografiche che ne soffriranno, ma anche altre che si avvantaggeranno dalla nuova situazione. Presentare la questione in termini di catastrofe mondiale mi pare dettato da preconcetti ideologici, piuttosto che da una (tutt’altro che semplice) valutazione complessiva degli scenari ambientali. Per rispondere a questa domanda, è poi di fondamentale importanza ritornare sull’argomento degli eventi estremi, che è ormai quasi identificato con quello stesso di cambiamento climatico. È infatti pressoché automatico associare il riscaldamento globale a una progressiva crescita della pericolosità meteorologica, ma, in proposito, ritengo ben poco attendibile la teoria ufficiale fondata su una correlazione diretta fra incremento delle temperature da lato e aumento dell’intensità e della frequenza dei fenomeni meteorologici estremi dall’altro. I motivi sono i seguenti: –– tutte le informazioni ricavabili da studi di climatologia storica indicano una situazione opposta, caratterizzata cioè da una concentrazione degli eventi estremi nelle fasi fredde, invece che in quelle calde; –– la teoria ufficiale è, in sostanza, molto semplice, in quanto fondata sul presupposto che una maggiore evaporazione – dovuta

7. Considerazioni conclusive129

alle temperature più alte – determini l’aumento del contenuto energetico in atmosfera e quindi faccia incrementare gli eventi estremi. Non mi pare però che sia sostenuta da una dimostrazione convincente e che possa pertanto essere ritenuta migliore di quella proposta da Lindzen, che porta a conclusioni antitetiche; –– è ben strano che, fino ai primi anni ’90, la scienza fosse su altre posizioni, senza che alcuno avesse suggerito il legame diretto temperature/estremi; –– l’analisi delle serie storiche relative a molteplici fenomeni (uragani, tornado, piogge intense ecc.) non ha nel complesso evidenziato, nel corso del XX secolo, dei trend crescenti che siano davvero significativi dal punto di vista climatologico. Ritiene di essere un negazionista climatico?

In primo luogo, tengo a precisare che l’uso del termine “negazionista” è vergognoso, perché richiama l’idea di chi, col proposito di raggiungere determinati fini, vuole negare dei fatti che sono oggettivamente riconosciuti come veri; tale vocabolo è appunto prevalentemente utilizzato per indicare quanti, con documenti e prove false, cercano di confutare la realtà dell’olocausto. Premesso questo, mi pare che la definizione non funzioni neppure per qualificare coloro che non condividono la complessiva visione dell’IPCC, sulla quale convergerebbe invece il favore della quasi totalità degli esperti del clima. Su questo punto, si sente spesso affermare che il consenso sarebbe circa del 97%; un dato di misteriosa rilevazione, che sembra più che altro adatto a dimostrare un’unanimità di fatto, senza però arrivare a quelle percentuali “bulgare”, che potrebbero apparire eccessive. Tutta la questione è mal posta, perché l’attuale paradigma del clima non è diventato tale seguendo le consuete procedure scientifiche, ma venendo invece energicamente proposto come verità ufficiale. Si è così creata una situazione che ne ha favorito una rapida condivisione, senza che, almeno da parte di tanti, si sviluppasse la necessaria analisi critica. Personalmente non mi reputo affatto un negazionista climatico, per il semplice motivo che non ho alcuna finalità da raggiungere nel mettere in evidenza certi aspetti che giudico dubbi o proprio erronei. Riten-

130

Il cambiamento climatico

go di essere soltanto un geografo-climatologo che tenta di ragionare sui fatti, basandosi il più possibile sui dati disponibili. Penso che sia decisamente meglio agire in questo modo – anche sapendo di poter talvolta sbagliare – piuttosto che aderire, con rispetto quasi dogmatico, a quella che è una vera religione del cambiamento climatico. 2. Il meeting di S. Rossore: un’esperienza davvero significativa

Nel luglio 2004, la Regione Toscana organizzò, presso la tenuta di S. Rossore (Pisa), un meeting internazionale, che aveva come tema i mutamenti del clima. L’evento venne presentato come occasione per un confronto di idee diverse e ottenne una grande attenzione mediatica, anche per la partecipazione di noti personaggi politici, quali Romano Prodi e Al Gore. Per quanto mi riguarda, seguire i lavori del convegno ha rappresentato un’esperienza molto importante, perché è stata la prima occasione nella quale ho cominciato a pensare che si stesse uscendo da un normale campo scientifico, per entrare in quello che si potrebbe definire come “religione laica del clima impazzito”. A una simile manifestazione, oggi andrei – in tutta sincerità – con atteggiamento un po’ prevenuto; all’epoca la mia predisposizione era diversa, visto che solo da poco tempo avevo iniziato a occuparmi di climatologia e non mi ero quindi ancora fatto determinate opinioni. Il confronto di idee differenti, sbandierato dagli organizzatori nei giorni antecedenti il meeting, in pratica fu inesistente, perché, in sostanza, tutto si svolse sulla falsariga di un quadro presentato come già accertato e con gli ovvi contorni di una catastrofe incombente. Dal punto di vista scientifico, il momento saliente era previsto nella prima mattinata, col contraddittorio fra Robert Watson, presidente dell’IPCC fino al 2002, e Richard Lindzen, lo studioso già citato più volte nelle pagine precedenti. La relazione di Watson, tenuta davanti a un pubblico numericamente inusuale per i normali congressi, si aprì in un modo che trovai sorprendente, cioè pronunciando la frase «Nell’ultimo millennio il clima è stato praticamente stabile», mentre su un grande schermo si accendeva l’immagine della cosiddetta Mazza da

7. Considerazioni conclusive131

Hockey, il grafico pubblicato sul Report del 2001 e che aveva scatenato una marea di polemiche. Neanche un minimo cenno al fatto che questo grafico costituisse una rivisitazione drastica delle conoscenze di climatologia storica accettate dalla comunità della scienza fino a pochi anni prima; tutto presentato come se si trattasse di questioni assodate. Invece che un’introduzione a tematiche ancora ben difficili da interpretare correttamente, l’inizio del discorso di Watson sembrava l’enunciazione di un teorema, dal quale poi sarebbe derivato il resto. Analoghe perplessità mi destarono le dichiarazioni di Giampiero Maracchi, il direttore dell’IBIMET-CNR di Firenze, che dipinse una situazione già catastrofica per l’Italia centrale e nello specifico per la Toscana, asserendo che era cresciuto fortemente il pericolo di alluvioni, a causa di un aumento di ben tre volte degli eventi pluviometrici estremi. I dubbi derivavano, non solo dall’entità dei cambiamenti dichiarati, ma anche dal fatto che avevo appena terminato, per una cinquantina di stazioni toscane, l’esame delle serie storiche delle piogge massime annue sugli intervalli di 1-3-6-12-24 ore, constando che non era individuabile alcun aumento e che semmai pareva delinearsi qualche segnale di debole calo (in pratica, sono gli stessi risultati che nel 2009, con un numero ancora superiore di località censite, hanno ottenuto Fatichi e Caporali). Alla fine del convegno mi fu chiaro che si era trattato, piuttosto che di una discussione ai massimi livelli, di una sorta di celebrazione di verità precostituite, svolta davanti a un’ampia massa di partecipanti, in netta maggioranza priva di adeguata preparazione in climatologia e pertanto impossibilitata a ragionare scientificamente su quanto gli veniva riferito. 3. Alcuni “riti” della religione del clima

Se ogni religione si esplica attraverso un insieme di dogmi, precetti e riti, lo stesso vale per una religione laica, come ho pensato di definire quella del cambiamento climatico. Quanto è stato trattato nel presente libro è, in massima parte, concernente ai “dogmi” e ai relativi precetti; merita però di fare anche un cenno ad alcuni di quei “riti”, tramite i quali la religione del clima si manifesta continuamente e si consolida all’interno della società.

132

Il cambiamento climatico

Le grandi riunioni internazionali

Ogni anno si organizzano le COP (Conference of the Parties), riunioni tra i rappresentanti di tutti gli Stati che sono parte delle convenzioni internazionali sulle politiche per il clima. Lo scopo ufficiale di tali riunioni è di esaminare gli inventari delle emissioni presentati dai singoli componenti, considerando gli effetti delle misure adottate, onde valutare i progressi compiuti e, in ultima analisi, prendere le decisioni ritenute necessarie al raggiungimento degli obiettivi stabiliti. Considerando, da un lato, i tempi di risposta di determinate azioni e, dall’altro, l’incertezza dei dati provenienti da varie del mondo, la cadenza annuale delle COP mi pare davvero eccessiva e perciò scarsamente utile. In effetti, a fronte di un’immancabile solennità con la quale sono attuate, producono in genere dei risultati poco rilevanti. Resta allora la netta sensazione che queste conferenze siano in prevalenza autoreferenziali e che mirino in realtà a ottenere una sempre crescente attenzione mediatica verso le teorie ufficialmente proposte. Trovare sempre eventi “straordinari” ed “eccezionali”

La diffusione delle idee sull’aumento degli eventi estremi ha avuto un impatto così forte, da far sì che sia nata una vera mania nel cercare a ogni costo di individuare fenomeni ed episodi con la caratteristica dell’eccezionalità se non addirittura del “mai visto prima”. Gli esempi in proposito sarebbero innumerevoli, ma credo che quelli che riporterò di seguito siano davvero significativi per poter apprezzare il livello di assurdità al quale si è arrivati. Si tratta di due temporali che hanno interessato la città di Firenze in tempi recenti, scatenando sui giornali un inspiegabile catastrofismo, sempre centrato sull’uso del (penoso) termine di “bomba d’acqua”. Il 22 maggio 2018 il Corriere della Sera dedicava una delle sue pagine fiorentine a un evento meteorologico che il giorno precedente aveva colpito il capoluogo toscano, delineando il verificarsi di una situazione molto seria e facendo ricorso a toni drammatici; il titolo era: “Ore 13, bomba d’acqua sulla città”.

7. Considerazioni conclusive133

Fig. 7.1 – Pluviogramma dei giorni 21 e 22 maggio 2018. Con tratteggio in rosso sono evidenziate le piogge relative al temporale di cui nel testo.

Una verifica sul sito web del Servizio Idrologico permetteva però di appurare che la stazione urbana di misura, ove si erano realizzati i valori più alti, aveva totalizzato meno di 20 mm, con un’intensità istantanea massima valutabile in 18-19 mm/h (figura 7.1). Ebbene, sono dati che non definiscono affatto una pioggia eccezionale, ma che invece connotano una situazione che può ripetersi varie volte in un anno. Il secondo esempio, ancor più grottesco del primo, è riferito al 30 agosto 2019, quando un temporale aveva causato la caduta di tre alberi, procurando alcuni disagi al traffico veicolare. Il giorno seguente il Corriere della Sera ne dava notizia quasi a pagina intera con un titolo normalmente catastrofistico: “Tempesta a Firenze: giù tre alberi. Cantine allagate e un’auto distrutta”. Era però La Nazione ad abbandonare ogni minima traccia di buon senso, riservando più pagine all’evento e utilizzando titoli cubitali di questa fatta: “Firenze equatoriale”, “Bomba d’acqua fa strage di alberi” (figura 7.2). Entrambi i quotidiani riportavano questi dati: piogge totali = 9,4 mm; vento massimo = 25 km/h; sì, sono proprio i valori corretti, come da verifica effettuata sul sito del Servizio Idrologico (figura 7.3).

134

Il cambiamento climatico

Fig. 7.2 – Uno degli incredibili titoli che La Nazione ha utilizzato il 31 agosto 2019,

per descrivere un piccolo temporale del giorno precedente, su Firenze.

Ho ritenuto allora opportuno telefonare a uno dei giornalisti che si erano occupati dell’episodio, per spiegargli che descrivere un modestissimo temporale a guisa di un uragano finiva per far coprire di ridicolo la redazione de La Nazione, almeno agli occhi di quei lettori in grado di valutare ragionevolmente i numeri prima citati. Il colloquio è stato però utile, perché l’interessato mi ha chiarito che la brama dei media nel cercare lo scoop sul clima impazzito è ormai tale da aver generato dei sistemi pressoché automatici di produzione di articoli folli, ogniqualvolta arrivi una notizia di danni, anche irrisori, dovuti a eventi meteorologici. Qualche lettore si potrà domandare quale sia il comportamento degli enti scientifici di fronte a buffonate come quelle ora descritte; ebbene, sempre il solito: un silenzio totale di propria iniziativa, oppure, quando consultati dai media per un commento, il pronunciamento di frasi generiche che non dicono nulla sulla realtà dei fatti.

7. Considerazioni conclusive135

Fig. 7.3 – Pluviogramma dei giorni 30 e 31 agosto 2019. Sono evidenziati col trat-

teggio in rosso i dati del secondo temporale descritto nel testo. Le ormai innumerevoli “allerte meteo”

Come tutti sanno, la riduzione di vari tipi di rischio si realizza anche attraverso la possibilità di avvertire la popolazione sull’eventualità che si verifichino situazioni pericolose, cosicché vengano attuate azioni tali da evitare certe potenziali conseguenze negative. Nell’applicazione pratica di questo concetto, devono però essere valutate: a) l’effettiva probabilità (in termini statistici) di prevedere l’evento, con sufficiente dettaglio; b) l’entità dei danni ipotizzati; c) i costi sociali delle azioni preventive. Solo basandosi su tale presupposto, un sistema di difesa può funzionare davvero, garantendo nel medio-lungo periodo dei reali vantaggi. Purtroppo, nel caso dei rischi legati a certe manifestazioni meteorologiche, si sta invece consolidando una prassi irrazionale, fondata da un lato sulla continua emanazione di “allerte meteo” molto generiche, e dall’altro sulla messa in campo di illogici provvedimenti difensivi, che si richiamano a un principio di precauzione interpretato indefinitamente. Praticamente per ogni perturbazione in arrivo, vengono emessi molteplici avvisi di allerta gialla, che in sostanza non significano quasi nulla. Se poi viene ritenuto che possano verificarsi dei fenomeni tem-

136

Il cambiamento climatico

poraleschi intensi, il colore passa dal giallo all’arancione, oppure al rosso, quando si stima una loro maggiore probabilità/entità. Pure in questi casi, bisogna però sapere che è impossibile prevedere – ancora con un solo giorno d’anticipo – dove si verificheranno gli ipotetici eventi violenti (piogge torrenziali, forti venti ecc.) e quale effettiva intensità raggiungeranno. Ne deriva pertanto che bisognerebbe avere una grande attenzione nello stabilire provvedimenti, quali la chiusura di scuole e altri uffici pubblici, il cui costo sociale è sovente sproporzionato rispetto alla dimensione reale del rischio. Al contrario, è diventato normale vedere, sempre più spesso, varie amministrazioni pubbliche prendere questo tipo di decisioni in circostanze che non le giustificherebbero affatto. Tutto il sistema risulta così ben più funzionale a sollevare da eventuali responsabilità chi lo mette in atto, piuttosto che a difendere concretamente la popolazione. Credo però che, oltre a questo poco edificante motivo, vi sia anche il desiderio di apparire ben allineati coll’imperante politicamente corretto, per dimostrare così la propria partecipazione a un dilagante rito sociale. La formazione e l’operato di movimenti popolari

Ogni volta che una questione ambientale catalizza l’attenzione pubblica fino al punto quasi di monopolizzarla, si assiste alla nascita di movimenti popolari che si riconoscono nel compito di salvare la comunità dal disastro e di sensibilizzare sui loro obiettivi quanti (politici o normali cittadini) appaiano ancora distratti o poco interessati. Nel caso dei cambiamenti climatici, l’esempio recente senza dubbio più noto è dato da Fridays for Future, un’organizzazione internazionale studentesca, nata nel 2015 in concomitanza con l’inizio della conferenza COP 21. Il movimento ha ottenuto un grande interesse generale a partire dal 2018, grazie alle iniziative della ragazzina svedese Greta Thunberg, diventata rapidamente un personaggio di (inspiegabile) fama mondiale, al punto da essere ricevuta ed elogiata da molti grandi del Pianeta, nonostante sia portatrice di varie istanze poco sensate e prive di effettive basi scientifiche.

7. Considerazioni conclusive137

Fig. 7.4 – Uno dei manifesti creati per propagandare lo sciopero scolastico inter-

nazionale del venerdì 15 marzo 2019.

Le azioni di Fridays for Future si concretizzano nel chiamare i giovani a scioperi scolastici, organizzati appunto nelle giornate di venerdì, col fine di far riflettere sui pericoli del riscaldamento globale. Il maggior successo è stato ottenuto il 15 marzo 2019, quando si ritiene che abbia aderito all’iniziativa oltre un milione di studenti, in tante regioni del Mondo (figura 7.4). Milano pare che sia stata la città con la partecipazione più alta in assoluto (circa 100 mila ragazzi); da molte parti in Italia la cosa è stata salutata come un fatto altamente positivo, ma la mia opinione in proposito è del tutto diversa. Il costante ricorso a una ben determinata iconografia

Il consolidamento pubblico di una teoria può sovente essere aiutato anche da un’iconografia che ne rappresenti l’essenza. Pure a riguardo del cambiamento climatico, è facile constatare che la divulgazione dei vari messaggi è costantemente accompagnata da immagini, tese a chiarirli e a rafforzarli.

138

Il cambiamento climatico

Fig. 7.5 – Tipici esempi di immagini utilizzate in tema di cambiamenti climatici;

in tutti i casi si tratta comunque di eventi estremi, molto pericolosi.

Tali immagini sono sempre orientate verso un ben preciso tipo di argomenti: gli eventi estremi (figura 7.5). Un’iconografia che, in modo molto pervasivo, tende così a far associare al riscaldamento globale l’idea che esso stia determinando un progressivo aumento di vari fenomeni di pericolo; sono infatti costantemente utilizzate fotografie (o filmati) che rappresentano alluvioni devastanti, lunghi periodi di siccità, violenti tornado, bufere di vento, uragani ecc. 4. L’idea del clima impazzito: i motivi della diffusione

Per apprezzare quanto, e in quale modo, la questione del cambiamento climatico abbia permeato la nostra società, possono essere significativi i risultati di un sondaggio condotto dall’ARPA del Friuli-Venezia Giulia, negli ultimi mesi del 2017; il campione che ha risposto ai quesiti formulati è stato di oltre 3400 soggetti.

7. Considerazioni conclusive139

Alla richiesta di esprimere con un punteggio da 1 a 10 quale fosse il grado di gravità assegnato al problema dei cambiamenti climatici, un 75% ha indicato i tre valori più alti. Un 87% ha dichiarato poi di aver riscontrato di persona che il clima sta mutando. Tra gli effetti più temuti del cambiamento, la percentuale maggiore (oltre il 70%) è andata all’aumento degli eventi estremi. Sono numeri che mi pare fotografino perfettamente come l’opinione pubblica stia ragionando, non in merito a qualcosa di effettivo, ma su di una realtà virtuale. Infatti, le persone affermano di aver già sperimentato i mutamenti, cosa di per sé molto difficile, vista l’entità degli incrementi di temperatura lungo un periodo sul quale si può avere memoria; concentrando poi i loro timori sull’aumento degli eventi estremi – di fatto inesistente o comunque inavvertibile – dimostrano che la loro ritenuta esperienza diretta è in verità qualcosa che si è costruito ben diversamente. In merito a quali siano i motivi che hanno portato alla diffusione di questa religione del clima, è evidente che si possano avere idee differenti, a seconda anche di certi presupposti soggettivi, derivanti dal dare maggiore o minore importanza a vari aspetti sociali; di seguito citerò alcuni punti che, a mio personale giudizio, sono molto rilevanti. Una massiccia propaganda effettuata a vari livelli

Definire martellante il modo col quale, da vari anni a questa parte, vengono diffuse le informazioni sul cambiamento climatico non è davvero eccessivo; in tale azione di propaganda, gli agenti sono molteplici: gli enti scientifici mondiali e gran parte di quelli di rilievo locale, tutti i movimenti ambientalisti, le varie branche del sistema mediatico e tanti personaggi di pubblica notorietà (attori, artisti ecc.) che oggi traducono il loro desiderio di “impegno” nell’attenzione ai mutamenti del clima. Gli effetti sono resi ancor più forti dal fatto che quasi sempre l’operato dei suddetti agenti è sinergico, nel senso che ogni occasionale argomento introdotto nel dibattito pubblico da una data fonte viene riproposto, con enfasi via via crescente, dalle altre componenti, conferendo così pure una sorta di sicura veridicità. Ne risulta in definitiva

140

Il cambiamento climatico

che qualsiasi notizia assume l’apparente significato di un’ennesima conferma delle teorie ufficiali, anche quando la situazione non lo giustificherebbe affatto. Un esempio di simili meccanismi lo si è visto nei primi giorni dell’agosto 2019, quando è stato divulgato che: «il luglio 2019 è il mese più caldo di sempre». Nel giro di una giornata il messaggio è stato ripreso da tantissime parti, così da arrivare a un’ampissima platea che, come ovvio, lo ha recepito nei termini di una nuova prova certa del cosiddetto “surriscaldamento terrestre”. A parte che non era stato affatto precisato che l’informazione derivava da un determinato archivio e che il dato era provvisorio, nessuno ha speso una parola per spiegare una questione essenziale, per poter arrivare a una corretta comprensione di quanto divulgato: la temperatura globale ha un ben preciso regime annuo, con massimo in luglio e minimo in gennaio (circa 3,8° di escursione annua). Dal punto di vista dell’evoluzione termica, non si possono quindi raffrontare i valori assoluti delle temperature mensili, bensì le loro anomalie rispetto alle rispettive medie di riferimento. Valutato in questo modo, il luglio 2019 risulta al quindicesimo posto dei mesi più caldi (alla pari anche con altri) e pertanto non costituisce più quel record ripetutamente sbandierato. Mi pare un ottimo esempio di come un modo di informazione ripetuta e mirata abbia trasformato un fatto di solo interesse statistico e/o climatologico in una notizia di notevole impatto sensazionalistico, ma sostanzialmente fuorviante. L’efficacia della propaganda poggia anche sulla sua azione selettiva, tendente a oscurare quanto non sia confacente con la verità ufficiale. Un esempio molto recente di ciò può essere visto nell’assenza di comunicazione dei risultati di un programma di ricerca, condotto da studiosi del Politecnico di Torino e volto alla ricostruzione di un completo database italiano delle piogge annue massime in 1-3-6-12-24 ore, nel periodo 1928-2014. L’analisi delle 1346 serie temporali con almeno 30 anni di estensione ha mostrato che, alla scala del territorio nazionale, non emerge alcuna tendenza apprezzabile; infatti, una stragrande maggioranza dei trend è risultata non significativa e, tra i rimanenti, il numero di quelli positivi è grosso modo equivalente a quello dei negativi (Libertino et al., 2018 e 2019). Si tratta pertanto di un’indagine

7. Considerazioni conclusive141

esaustiva per chiarire come tutte le informazioni sugli aumenti delle piogge intense in Italia, ripetutamente fatte circolare da vari anni a questa parte, siano in pratica false; ebbene, neppure un cenno di questo sul web e negli altri media. Un’assurda etica ambientale, fondata sulla natura

In una società nella quale certi principi e ideali dominanti nel secolo scorso sono ormai scomparsi, ha trovato facile terreno di diffusione una sorta di pseudocultura che tende a mitizzare ogni cosa che appaia come “naturale”, vedendo al contempo sotto una cattiva luce tutto quanto è “antropico”. Per quanto riguarda i rapporti tra uomo e ambiente, ha così preso corpo un’etica basata sulla natura, che si fonda cioè sul ritenere che essa abbia dei valori intrinseci; valori che quindi la comunità umana dovrebbe rispettare, secondo una morale di origine quasi divina. Sorprende come anche persone di buon livello culturale non si rendano conto che i suddetti rapporti non possono invece che essere guidati da un’etica antropocentrica, perché quei valori cui diamo importanza sono creati dal nostro pensiero filosofico, senza il quale non esisterebbero. Si è arrivati a un punto tale che una visione distorta delle relazioni uomo-natura ha finito per contagiare perfino la dottrina cattolica; per rendersene conto, possiamo leggere il VII paragrafo del primo capitolo dell’enciclica Laudato si’ di papa Francesco: Diversità di opinioni – Infine, riconosciamo che si sono sviluppate diverse visioni e linee di pensiero in merito alla situazione e alle possibili soluzioni. Da un estremo, alcuni sostengono ad ogni costo il mito del progresso e affermano che i problemi ecologici si risolveranno semplicemente con nuove applicazioni tecniche, senza considerazioni etiche né cambiamenti di fondo. Dall’altro estremo, altri ritengono che la specie umana, con qualunque suo intervento, può essere [e il congiuntivo?] solo una minaccia e compromettere l’ecosistema mondiale, per cui conviene ridurre la sua presenza sul Pianeta e impedirle ogni tipo di intervento. Fra questi estremi, la riflessione dovrebbe identificare possibili scenari futuri, perché non c’è un’unica via di soluzione. Questo lascerebbe spazio a una varietà di apporti che potrebbero entrare in dialogo in vista di risposte integrali. Su molte questioni concrete la Chie-

142

Il cambiamento climatico

sa non ha motivo di proporre una parola definitiva e capisce che deve ascoltare e promuovere il dibattito onesto fra gli scienziati, rispettando le diversità di opinione. Basta però guardare la realtà con sincerità per vedere che c’è un grande deterioramento della nostra casa comune. La speranza ci invita a riconoscere che c’è sempre una via di uscita, che possiamo sempre cambiare rotta, che possiamo sempre fare qualcosa per risolvere i problemi. Tuttavia, sembra di riscontrare sintomi di un punto di rottura, a causa della grande velocità dei cambiamenti e del degrado, che si manifestano tanto in catastrofi naturali regionali quanto in crisi sociali o anche finanziarie, dato che i problemi del mondo non si possono analizzare né spiegare in modo isolato. Ci sono regioni che sono già particolarmente a rischio e, aldilà di qualunque previsione catastrofica, è certo che l’attuale sistema mondiale è insostenibile da diversi punti di vista, perché abbiamo smesso di pensare ai fini dell’agire umano: «Se lo sguardo percorre le regioni del nostro Pianeta, ci si accorge subito che l’umanità ha deluso l’attesa divina».

Ebbene, non ho davvero delle competenze in campo teologico, ma presentare la folle teoria di chi ritiene l’uomo un male per il Pianeta solo come una posizione estrema di un dibattito attuale (cioè nell’ambito di una «diversità di opinioni»), invece che condannarla con la massima forza, credo che equivalga a minare certe basi dottrinali della religione che il papa rappresenta. Non c’è appunto alcun richiamo al fatto che l’uomo sia posto da Dio al centro del mondo, ma solo una serie di affermazioni molto generiche che denotano un inspiegabile relativismo a riguardo degli argomenti trattati. Tutto quanto detto ha grande importanza anche in relazione al cambiamento climatico, dato che esso è visto da molti, non nei termini di un problema da affrontare scientificamente, ma come una reazione della Terra alle varie nefandezze commesse dalla comunità umana. Quell’insensata idea – cui ho fatto cenno nel secondo capitolo – che gli eventi estremi aumenteranno soltanto perché il riscaldamento globale è antropogenico, mi pare proprio che nasca nel quadro dell’etica ambientale centrata su una natura ormai considerata quasi come una divinità. Il politicamente corretto

È mia convinzione che tutto quanto rientra nella dizione di “politicamente corretto” sia diventato un problema molto serio per le nostre

7. Considerazioni conclusive143

società occidentali. Esso le ha permeate in larghissima parte, diventando, nei confronti di molte questioni pubbliche, una sorta di sentire comune che condiziona la mentalità delle persone, le strutture stesse del loro pensiero, e in conseguenza anche i comportamenti pratici delle nostre comunità. Gli aspetti fortemente negativi derivano per un verso dal fatto che il suddetto comune sentire si spande in maniera quasi sempre irriflessa, e per un altro perché instaura delle idee dominanti che tendono a precludere ogni possibilità di non allinearsi ai loro canoni, a meno di non accettare di apparire come avversari del giusto. Tutto ciò è avvenuto anche per il cambiamento climatico, rispetto al quale è diventato politicamente corretto asserire che il riscaldamento terrestre è sempre più rapido, che gli eventi estremi stanno palesemente aumentando e che si stia ormai viaggiando verso una catastrofe globale. Un atteggiamento mentale che ha finito per interessare anche ampi settori della scienza, al punto che pare divenuto normale che degli studiosi possano additare dei loro colleghi in modo spregiativo, definendoli “negazionisti”, solo perché sostenitori di idee non conformi a quelle ufficiali. Le manifestazioni per salvare il clima – oggi sempre più frequenti – sono un perfetto esempio dell’azione del politicamente corretto, in quanto, pur coinvolgendo masse di persone pressoché prive di una anche vaga base scientifica sui temi dibattuti e risultando al contempo veicolo di varie istanze ben poco sensate, vengono però accolte come fatti molto positivi, stante le grosse difficoltà di formulare su di esse un qualunque giudizio critico, visto che un simile atteggiamento comporterebbe automaticamente una specie di status di esclusione per quanti lo avessero tenuto. Il fascino del disastro apocalittico

I timori sul disastro climatico incombente affondano le loro radici anche in profonde influenze culturali legate ad ancestrali culti apocalittici che sempre hanno colpito l’immaginazione delle persone. Tali influenze credo abbiano giocato un ruolo significativo pure nel 2012, quando non sono stati in pochi a dare un qualche credito alla presunta profezia dei Maya, secondo la quale il 12 dicembre sarebbe stato il gior-

144

Il cambiamento climatico

no di epocali sconvolgimenti. Una vicenda davvero estrema per carenza di buon senso, eppure evidentemente dotata di un recondito “fascino” capace di attrarre le menti più riluttanti al ragionamento logico. Oggigiorno in merito al clima, si è individuato un Satana capace di portare il mondo alla catastrofe: si tratta, come tutti sanno, dell’anidride carbonica, il nemico contro il quale ci viene detto che si dovrà combattere una battaglia decisiva per le sorti dell’umanità. Tutto ciò richiama alla memoria alcune vicissitudini del passato che può essere utile citare, per poter meglio giudicare quanto avviene attualmente. Nel 1962 la statunitense Rachel Carson pubblicò un libro (Silent Spring) che è considerato uno dei punti di partenza del pensiero ambientalistico; tema centrale del volume erano i pericoli del DDT, l’insetticida che nei due decenni precedenti era stato l’arma utile a debellare la piaga della malaria in varie regioni del globo. L’allarme lanciato dal libro scatenò una vera crociata nei confronti del DDT, al cui uso si associavano devastanti impatti sull’ambiente globale, anche con gravi effetti per l’uomo (cancerogenicità e proprietà anti-androgeniche), e di tipo mutagenico e teratogeno per molte specie animali. Nel 1972 il prodotto venne bandito negli Stati Uniti per decisione dell’Agenzia sulla protezione dell’ambiente (EPA), una scelta quasi contemporaneamente seguita da tutti gli altri Paesi sviluppati. Quella decisione, spinta da una forte pressione generale, si è dimostrata corretta? La risposta sintetica è «no», perché ha procurato una recrudescenza della malaria in tante aree a rischio, a fronte di una riduzione di pericoli, apparsi poi assai più contenuti di quanto si dichiarava negli anni ’60 e ’70. In proposito, J.G. Edwards, professore emerito di entomologia alla San Jose State University, ha voluto dimostrare in un lavoro del 2004 come la messa al bando del DDT si era basata su ricerche erronee e/o fraudolente e come gli effetti sopra citati, creduti veri da un’ampissima maggioranza di persone, erano in realtà falsi o comunque fortemente esagerati. Secondo Edwards pertanto, si è trattato di una sorta di guerra di religione per evitare un’ipotetica catastrofe, dimostratasi pressoché inesistente alla resa dei conti, e che ha impedito la lotta contro l’anofele, finendo così per causare indirettamente milioni di morti, che potevano invece essere evitate. Un secondo esempio di attrazione indotta da una paventata catastrofe globale è dato, a mio giudizio, dal celeberrimo rapporto “I limiti

7. Considerazioni conclusive145

dello sviluppo”, pubblicato nel 1972 e contenente i risultati di uno studio condotto da ricercatori del MIT e commissionato da un’associazione culturale denominata Club di Roma. Applicando una prima modellistica al computer, gli studiosi vollero prevedere quale sarebbe stata l’evoluzione del sistema mondo nei decenni a venire, arrivando alla conclusione che l’aumento di popolazione, unitamente al quadro di crescita economica perseguito dai paesi avanzati, avrebbe condotto a una situazione insostenibile e perciò a una crisi generale irreversibile. I contenuti del rapporto vennero subito considerati a guisa di vangelo negli anni ’70, tanto da influenzare pesantemente ogni dibattito sull’ambiente di quel periodo. Ancora oggi alcuni sostengono che questo studio del 1972 sia un punto di riferimento, ma è bene spiegare che le previsioni disastrose che esso conteneva si sono dimostrate del tutto lontane da ogni realtà. Nonostante infatti un incremento di popolazione superiore, all’anno 2000, di circa mezzo miliardo di individui rispetto a quello ipotizzato nel rapporto, non si è affatto manifestato quel crollo del sistema che i modelli indicavano per l’inizio del XXI secolo (figura 7.6), ma anzi la produzione di beni è sempre cresciuta e la percentuale di persone che soffre la fame è oggi assai minore di quanto lo fosse alcuni decenni or sono.

L’evoluzione del sistema mondo, come prevista nel 1972 dallo studio condotto da un gruppo di ricercatori del MIT. È evidente che si paventava una catastrofica crisi, a partire dal secondo decennio del XXI secolo.

Fig. 7.6 –

146

Il cambiamento climatico

Gli enti che si occupano di meteorologia

Come ultimo argomento, merita un cenno l’azione svolta da numerosi enti privati, ma anche da non pochi tra quelli pubblici, che si occupano di meteorologia. Che le previsioni del tempo siano di fondamentale importanza per tantissime attività è cosa del tutto ovvia, ma è pure indubbio che sulla questione sia ormai nata una sorta di mania, spesso anche legata alla convinzione che l’evoluzione atmosferica possa essere definita con un dettaglio spazio-temporale, che invece è ancora impossibile da raggiungere, soprattutto in regioni geografiche di grande complessità, quale il Mediterraneo. Si è così creato un circuito tra domanda e offerta che ha portato alla nascita di un gran numero di società private, che cercano di aumentare i loro profitti, operando in un mercato del web, caratterizzato ovviamente da forte competitività. È allora divenuto normale il cercare di attrarre il pubblico con un’informazione marcatamente sensazionalistica, basata sul riproporre i tipici temi dello sconvolgimento del clima causato dall’uomo, con toni talmente forti da risultare spesso un po’ ridicoli. Ci si dovrebbe aspettare quindi che fossero gli enti pubblici per la meteorologia a dover tenere un comportamento più moderato, cosa che purtroppo in molti casi però non avviene, perché il timore di non apparire allineati alle teorie politicamente corrette spinge i loro dirigenti verso il catastrofismo tanto di moda. Gli enti più seri infine, pur non tenendo in genere atteggiamenti votati al sensazionalismo, comunque quasi mai si espongono pubblicamente per smentire le frequenti assurdità diffuse da altri.

Bibliografia

Alley R.B., 2000, “The Younger Dryas cold interval as viewed from central Greenland”, Quaternary Science Reviews, vol. 19, pp. 213-226. Alpert P. et al., 2002, “The paradoxical increase of Mediterranean extreme daily rainfall in spite of decrease in total values”, Geophysical Research Letters, vol. 29, n. 11, pp. 311-314. Arnold E. (a cura di), 1992, World Atlas of Desertification, United Nations Environment Programme. Barredo J.I., 2010, “No upward trend in normalised windstorm losses in Europe: 19702008”, Natural Hazards and Earth System Sciences, vol. 10, pp. 97-104. Behringer W., 2013, Storia culturale del clima, Bollati Boringhieri, Torino. Ben-Gai T. et al., 1998, “Spatial and Temporal Changes in Rainfall Frequency Distribution Patterns in Israel”, Theoretical and Applied Climatology, vol. 61, pp. 177-190. Berberi L., 2017, “L’effetto deserto dopo 100 giorni”, Corriere della Sera, mercoledì 30 agosto, p. 9. Berner R.A., Kothavala Z., 2001, “GEOCARB III: a revised model of atmospheric CO2 over phanerozoic time”, American Journal of Science, vol. 301, pp. 182-204. Blake S. et al., 2011, The deadliest, costliest, and most intense United States tropical ciclone from 1851 to 2010, NOAA Technical Memorandum NWS NHC-6. Boer G.J. et al., 1992, “Some results from an intercomparison of the climates simulated by 14 atmospheric general circulation models”, Journal of Geophysical Research, vol. 97, n. 12, pp. 771-786. Bouziotas D. et al., 2011, “Long-term properties of annual maximum daily river discharge worldwide”, European Geosciences Union General Assembly, Vienna. Brunetti M. et al., 2002, “Droughts and extreme events in regional daily Italian precipitation series”, International Journal of Climatology, vol. 22, n. 22, pp. 543-558. Brunetti M. et al., 2006, “Temperature and Precipitation variability in Italy in the last two centuries from homogenised instrumental time series”, International Journal of Climatology, vol. 26, pp. 245-381. Carson R., 1962, Silent Spring, Boston, Houghton Mifflin. Caillon N. et al., 2003, “Timing of atmospheric CO2 and Antarctic temperature changes across Termination III”, Science, vol. 299, pp. 1728-1731. Charney, J.G., et al., 1979, Carbon Dioxide and Climate: A Scientific Assessment, National Academy of Science, 22 pp.

148

Bibliografia

Colombo T. et al., 2007, “Study of temperature and precipitation variations in Italy based on surface instrumental observations”, Global and planetary change, vol. 57, p. 308-318. Cortemiglia G.C., 1998, “Il contributo dell’analisi geomorfologica nella ricerca delle cause esplicative dell’evento alluvionale del 6.11.1994 in provincia di Alessandria”, in Studi in onore di Mario Pinna, Mem. Soc. Geogr. Ital., vol. LV, pp. 53-65, Roma. Cortesi N. et al., 2012, “Daily precipitation concentration across Europe 1971-2010”, Natural Hazards and Earth System Sciences, n. 12, pp. 2799-2810 Crichton M., 2004, State of Fear, New York, HarperCollins, p. 641. Crisci A. et al., 2002, “Extreme rainfall in a changing climate: regional analysis and hydrological implications in Tuscany”, Hydrological Processes, vol. 16, pp. 1261-1274. Dansgaard W., 1964, “Stable isotopes in precipitation”, Tellus, vol. 16, pp. 436-468. Dansgaard W., et al., 1993, “Evidence for general instability of past climate from a 250-kyr ice-core record”, Nature, n. 364, pp. 218-220. Delworth T.L., Mann, M.E., 2000, “Observed and simulated multidecadal variability in the Northern Hemisphere”, Climate Dynamics, vol. 16, pp. 661-676. Di Baldassare G. et al., 2010, “Flood fatalities in Africa: From diagnosis to mitigation”, Geophysical Research Letters, vol. 37. Diodato N. et al., 2019, “A millennium-long reconstruction of damaging hydrological events across Italy”, Nature – Scientific Reports, pubbl. online il 10 luglio. Dourte D.R. et al., 2015, “Exploring changes in rainfall intensity and seasonal variability in the southeastern U.S.: stakeholder engagement, observations, and adaptation”, Climate Risk Management, Elsevier, vol. 7, pp. 11-19. Eckstein D. et al., 2017, Global Climate Risk Index 2018, Germanwatch. Edwards J.G., 2004, “DDT: A Case Study in Scientific Fraud”, Journal of American Physicians and Surgeons, vol. 9, n. 3, pp. 83-88. Fatichi S., Caporali E., 2009, “A comprehensive analysis of changes in precipitation regime in Tuscany”, International Journal of Climatology, vol. 29, pp. 1883-1893. Fujibe F., 2008, “Long-term changes in precipitation in Japan”, Journal of Disaster Research, vol. 3, n. 1, pp. 51-60. Gandolfi S., 2018, “Chi salverà la Terra?”, Corriere della Sera, martedì 4 dicembre, p. 17. Gates W.L. et al., 1999, “An Overview of the Results of the Atmospheric Model Intercomparison Project (AMIP I)”, Bulletin of the American Meteorological Society, vol. 80, n. 1, pp. 29-55. Grove J.M., 1988, The Little Ice Age, Methuen, Londra. Gwynne P., 1975, “The Cooling World”, Newsweek, 28 aprile.

Bibliografia149 Hansen J., 1988, “Global climate changes as forecast by Goddard Institute for Space Studies 3-dimensional model”, Journal of Geophysical Research, vol. 93, n. 9, pp. 341-364. Hall T., Hereid K., 2015, “The frequency and duration of U.S. hurricane droughts”, Geophysical Research Letters, vol. 42, pp. 3482-3485. Hart R.E. et al., 2016, “The Arbitrary definition of the current atlantic major hurricane landfall drought”, AMS Bullettin of American Meteorological Society, pp. 714-722. Herschy R., 2003, World Catalogue of Maximum Observed Floods, IAHS Press. Hidore J.J., Oliver J.E., 1993, Climatology: an atmospheric science, Macmillan, New York. Humulum O. et al., 2012, “The phase relation between atmospheric carbon dioxide and global temperature”, Global and Planetary Change, n. 100, pp. 51-69. Hurrell, J.W., 1995, “Decadal trends in the North Atlantic Oscillation and relationships to regional temperature and precipitation”, Science, n. 269, pp. 676-679. IISD, 2009, World Climate Conference Bulletin. A Summary Report of the World Climate Conference-3 (WCC-3), Reporting Services, vol. 165, n. 1. Indermuhle A. et al., 2000, “Atmospheric CO2 concentration from 60 to 20 kyr BP from the Taylor Dome ice core, Antarctica” Geophysical Research Letters, vol. 27, pp. 735-738. Ippolito L., 2018, “Sempre più caldo, la verde Inghilterra è diventata gialla”, Corriere della Sera, martedì 24 luglio, p. 15. Johnsen S.J. et al., 1989, “The origin of Arctic precipitation under present and glacial conditions”, Tellus, vol. 41B, pp. 452-468. Jones, P.D. et al., 1997, “Extension to the North Atlantic Oscillation using early instrumental pressure observations from Gibraltar and South-West Iceland”, International Journal of Climatology, vol. 17, pp. 1433-1450. Jouzel J., Merlivat L., 1984, “Deuterium and oxygen-18 in precipitation: modelling of the isotopic effects during snow formation.”, Journal of Geophysical Research, vol. 89, pp. 11749-11757. Jouzel J. et al., 1987, “Vostok ice core: a continuous isotope temperature record over the last climatic cycle (160,000 years)”, Nature, vol. 329, pp. 403-408. Jouzel J. et al., 1996, “Climatic interpretation of the recently extended Vostok ice records”, Climate Dynamics, vol. 12, pp. 513-521. Jouzel J., 2013, “A brief history of ice core science over the last 50 yr”, Climate of the Past, vol. 9, pp. 2525-2547. Karl T.R., Knight R.W., 1998, “Secular Trends of Precipitation Amount, Frequency, and Intensity in the United States”, Bulletin of the American Meteorological Society, vol. 79, n. 2, pp. 231-241. Klotzbach P.J. et al., 2018, “Continental U.S. hurricane landfall frequency and associate damage”, Bullettin of American Meteorological Society, pp. 1359-1376.

150

Bibliografia

Kiehl J.T., 2007, “Twentieth century climate model response and climate sensitivity”, Geophysical Research Letters, n. 34, L22710. Lamb H.H., 1982, Climate, History and Modern World, Methuen, Londra. Le Roy Ladurie E., 1982, Tempo di festa, tempo di carestia. Storia del clima dall’anno Mille, Einaudi, Torino. Libertino A. et al., 2018, “Technical note: Space-time analysis of rainfall extremes in Italy: clues from a reconciled dataset”, Hydrology and Earth System Science, vol. 22, pp. 2705-2715. Libertino A. et al., 2019, “Evidence for increasing rainfall extremes remains elusive at large spatial scales: the case of Italy” Geophysical Research Letters, vol. 46, pp. 7437-7446. Linacre E., Geerts B., 1997, Climates and Weather explained, Routledge, London. Lindzen R., 2017, “Straight Talk about Climate Change”, Academic Questions, Springer. Liu Z. et al., 2014, “The Holocene temperature conundrum”, PNAS, August 11, pp. 35013505. Marcott S.A. et al., 2013, “A Reconstruction of Regional and Global Temperature for the past 11,300 years”, Science, vol. 339, pp. 1198-1201. Matthews S.W., 1976, “What’s happening to our climate?”, National Geographic, novembre, pp. 576-615. Maue R.N., 2011, “Recent historically low global tropical cyclone activity”, Geophysical Research Letters, vol. 38. Mudelsee M., 2001, “The phase relations among atmospheric CO2 content, temperature and global ice volume over the past 420 ka”, Quaternary Science Reviews, vol. 20, pp. 583-589. Norrant C, Douguédroit A., 2006, “Monthly and daily precipitation trends in the Mediterranean (1950-2000)”, Theoretical and Applied Climatology, vol. 83, pp. 89-106. Peterson T.C. et al., 2008, “The myth of the 1970s global cooling scientific consensus”, Bullettin of American Meteorological Society, pp. 1325-1337. Petit J.R. et al., 1999, “Climate and Atmospheric History of the Past 420,000 years from the Vostok Ice Core, Antarctica”, Nature, vol. 399, pp. 429-436. Piervitali et al., 1998, “Rainfall over the Central-Western Mediterranean basin in the period 1951-1995. Part I: precipitation trends”, Il Nuovo Cimento, vol. 21 C, n. 3, pp. 331-344. Pilkey O.H., Pilkey-Jarvis L., 2007, Useless Arithmetric: Why Environmental Scientists Can’t predict the Future, Columbia University Press, New York. Pinna M., 1984, La storia del clima. Variazioni climatiche e rapporto clima-uomo in età postglaciale, Memorie della Società Geografica Italiana, Roma. Pinna M., 1996, Le variazioni del clima, FrancoAngeli, Milano.

Bibliografia151 Pinna S., 2006, Le Piogge Intense in Toscana, Felici Editore, Pisa. Pinna S., 2014, La falsa teoria del clima impazzito, Felici Editore, Pisa. Pinna S., 2017, Lineamenti di Climatologia, Aracne, Roma. Pinna S., 2017, “Sulle tendenze degli uragani nel bacino atlantico”, Rivista di Meteorologia Aeronautica, n. 4, pp. 5-13. Pinna S., 2018, L’andamento del clima in Italia dopo il 1950, Aracne, Roma. Roberts W.O., Lansford H., 1981, Il ruolo del clima, Zanichelli, Bologna. a

Rohli R.V., Vega A.J., 2013, Climatology (3 ed.), Jones & Bartlett Learning Titles in Physical Science. Rojo-Garibaldi B. et al., 2016, “Hurricanes in the Gulf of Mexico and the Caribbean Sea and their relationship with sunspots”, Journal of Atmospheric and Solar-Terrestrial Physics, vol. 148, pp. 48-52 Rojo-Garibaldi B. et al., 2018, “Nonlinear analysis of the occurrence of hurricanes in the Gulf of Mexico and the Caribbean Sea”, Nonlinear Processes in Geophysics, n. 25, pp. 291-300. Romero R. et al., 1998, “A 30-year (1964-1993) daily rainfall data base for the spanish mediterranean regions: first exploratory study”, International Journal of Climatology, vol. 18, pp. 541-560. Rothman D.H., 2002, “Atmospheric carbon dioxide levels for the last 500 million years”, PNAS, vol. 99, n. 7, pp. 4167-4171. Schlesinger M.E., 1994, “An oscillation in the global climate system of period 65-70 years”, Nature, vol. 367, n. 6465, pp. 723-726. Schneider S.H., 1976, The Genesis Strategy. Climate and Global Survival, Springer Science+Businnes Media, New York. Simmons K.M. et al., 2013, “Normalized tornado damage in the United States: 19502011”, Environmental Hazards, vol. 12, n. 2, pp. 132-147. Soon W.H. et al., 1996, “Inference of solar irradiance variability from terrestrial temperature changes, 1880-1993: an astrophysical application of the sun-climate connection”, Astrophysical Journal, vol. 472, pp. 891-902. Svensson C. et al., 2005, “Trend detection in river flow series: 2. Flood and low-flow index series”, Hydrological Sciences Journal, vol. 50, n. 5. Tucker A., 1974, “Space satellites show new Ice Age coming fast”, The Guardian, 29 gennaio. Stephens G.L., 2005, “Cloud feedbacks in the climate system: a critical review”, Journal of Climate, vol. 18, pp. 237-273. Vittori O., 1989, Clima e storia, Editori Riuniti, Roma.

152

Bibliografia 87

86

13

18

Veizer J. et al., 1999, “ Sr/ Sr, δ C and δ O evolution of Phanerozoic seawater”, Chemical Geology, vol. 161, pp. 59-88. Veizer J. et al., 2000, “Evidence for decoupling of atmospheric CO2 and global climate during the Phanerozoic eon”, Nature, vol. 408, pp. 698-701. Wetter et al., 2011, “The largest floods in the High Rhine basin since 1268 assessed from documentary and instrumental evidence”, Hydrological Sciences Journal, vol. 56, pp. 733-757. Wilhelm B. et al., 2012, “1400 years of extreme precipitation patterns over the Mediterranean French Alps and possible forcing mechanisms”, Quaternary Research, vol. 78, pp. 1-12. World Meteorological Organization, 1979, Proceedings of the World Climate Conference, Ginevra 12-23 febbraio, WMO – N. 537. World Meteorological Organization, 1986, Scientific plan for the world ocean circulation experiment, WMO/TD – N. 122. World Meteorological Organization, 2014, Atlas of mortality and economic losses from weather, climate and water extremes (1970-2012), WMO – N. 1123. Xie P., Arkin P., 1997, “Global precipitation: a 17-year monthly analysis based on gauge observations, satellite estimates, and numerical model outputs”, Bulletin of the American Meteorological Society, vol. 78, pp. 2539-2558. Yiou P. et al., 2006, “Statistical analysis of floods in Bohemia (Czech Republic) since 1825”, Hydrological Sciences Journal, vol. 51, n. 5, pp. 930-945. Zachos et al., 2001, “Trends, Rhythms, and Aberrations in Global Climate 65 Ma to Present”, Science, vol. 292, pp. 686-693.

Sitografia

Climate4you; numerose tematiche di climatologia e meteorologia (http://www.climate4you.com/). European Climate Assessment & Dataset; la maggiore banca europea di dati climatologici (http://eca.knmi.nl/). Eurostat; ampissimo archivio statistico per i vari Paesi europei (https://ec.europa.eu/eurostat/data). il Meteo.it; previsioni, carte meteo, archivio dati per varie stazioni dell’Italia (http:// www.ilmeteo.it/). Ipcc; tutti i report pubblicati dal Panel (https://www.ipcc.ch/reports/). Ispra, Dip. tutela acque interne e marine; consultazione online degli Annali Idrologici (http://www.acq.isprambiente.it/annalipdf/). Japan Meteorological Agency; meteorologia, climatologia, terremoti, vulcani, ampio archivio climatico per il Giappone (http://www.jma.go.jp/jma/indexe.html). Meteo France, previsioni, statistiche climatologiche, bollettini mensili (http://www.meteofrance.com/accueil). MeteoSvizzera, Uff. federale di meteorologia e climatologia; previsioni, archivio (http://www.meteoschweiz.admin.ch/web/it.html). MetOffice; meteorologia, climatologia, serie storiche di dati (http://www.metoffice.gov.uk/). Noaa-Gsod; archivio di dati climatici globali, aggiornato continuamente (https://www1. ncdc.noaa.gov/pub/data/gsod/). Rimfrost; archivio internazionale di dati di temperature mensili (http://www.rimfrost.no/). Scia (Ispra); ampio archivio di dati meteorologici di vari enti italiani (http://www.scia. isprambiente.it/). SergioPinna-Clima; argomenti di climatologia ed alcune serie storiche di dati (https:// sergiopinna-clima.jimdo.com/). Servizio Idrologico Regionale della Toscana; dati in tempo reale, archivio dati per la Toscana (http://www.sir.toscana.it/). Servizio Meteorologico Aeronautica Militare; previsioni meteo, medie climatiche, bollettini (http://www.meteoam.it/). TuTiempo.net; previsioni meteo, grande archivio internazionale (http://www.tutiempo.net/). WeatherOnline; previsioni, modelli, carte meteo, archivio internazionale (http://www. weatheronline.co.uk/).

154

Sitografia

Wetterzentrale; previsioni, modelli, carte meteo, dati climatici (http://www.wetterzentrale.de/). World Meteorological Organization; climatologia e meteorologia (http://www. wmo.int/pages/index_en.html).

Spazi geografici è una collana diretta da Sergio Pinna (Università di Pisa); nel comitato scientifico Margherita Azzari (Università di Firenze) e Giuseppe Scanu (Università di Sassari)

Il cambiamento climatico. La religione del XXI secolo di Sergio Pinna direttore editoriale: Mario Scagnetti editor: Giulia Ferri progetto grafico e redazione: Giuliano Ferrara