:: SCIENZA  
 

STORIA ED EVOLUZIONE DEL CLIMA TERRESTRE

     
 

Convegno: svoltosi a Padova il 28 ottobre 2015

Prof. Ing. Alberto Mirandola, Chairman del convegno

Il clima terrestre è un insieme di fenomeni le cui manifestazioni, a volte benefiche, a volte terribili e catastrofiche, hanno intimorito e affascinato gli uomini fin dalle origini della storia. Padrone delle acque, dei pascoli, delle foreste e delle messi, il clima determinava la vita dei popoli, i luoghi in cui essi si insediavano, le loro migrazioni; ed era perciò ritenuto segno della benevolenza o dell’ira degli dei.

I nostri avi scrutavano il cielo e cercavano di interpretarne i segnali per prevedere il tempo atmosferico, dal quale dipendevano le loro giornate. Nel corso della storia il clima ha subito mutamenti importanti, a volte epocali, modificando radicalmente l’assetto delle terre e le condizioni di vita degli animali e dei popoli.

In mezzo a tutti questi mutamenti l’umanità, dapprima presente con pochi individui e solo recentemente sviluppatasi in modo esponenziale, ha subito vicende molto varie, a volte catastrofiche, legate anche alle variazioni climatiche, cosa spesso trascurata dai libri di storia. In generale i periodi relativamente caldi (“interglaciali”) sono stati più favorevoli di quelli freddi (“glaciali”) allo sviluppo delle civiltà: le civiltà sono figlie delle epoche interglaciali; però le condizioni climatiche che hanno favorito certe zone sono state avverse per altre.

Ma anche l’uomo, reagendo alle variazioni climatiche e cercando di migliorare le proprie condizioni di vita, ha influito in modo molto sensibile sull’assetto delle terre e delle acque, sulla distribuzione delle foreste e dei terreni coltivabili, sulla flora e sulla fauna. In definitiva, l’uomo e la natura hanno interagito continuamente nel corso della storia. Oggi, con la nascita della coscienza ambientale, ci siamo resi conto che è necessario agire in modo più conservativo rispetto al recente passato, sfruttando con parsimonia le risorse e limitando l’impatto delle nostre azioni sull’ambiente; cosa resa difficile dal grande aumento della popolazione.

Ma se l’azione dell’uomo influisce in modo marcato sulla disponibilità di risorse e sull’inquinamento ambientale, fino a che punto incide sugli eventi climatici? La scienza e la tecnologia oggi ci aiutano a individuare i parametri che interagiscono con il clima, a interpretare il passato e il presente, a cercare di prevedere il futuro. Però comprendere a fondo i meccanismi che regolano il clima è una sfida molto impegnativa, perché le interazioni di un grande numero di parametri sono difficilmente esprimibili mediante sistemi di equazioni matematiche. Inoltre i valori e le tendenze di questi parametri nel passato, che dovrebbero costituire i dati di partenza, non sono ben noti, perché soltanto recentemente le tecniche di rilevazione delle corrispondenti grandezze fisiche, combinate con dati di tipo indiretto (i cosiddetti dati “proxy”), hanno incominciato a fornire risultati attendibili. Perciò nell’elaborazione dei modelli climatici si è tentati di basarsi soprattutto sui dati degli ultimi 100-150 anni, per i quali si hanno riscontri abbastanza precisi ed attendibili. In questo modo si rischia di effettuare previsioni sulla base di modelli che non tengono nel dovuto conto la precedente millenaria storia del clima. Ma è credibile che il contributo della natura, la quale è stata il motore dei fenomeni climatici in tutta la storia del pianeta, sia diventato irrilevante nel giro di pochi decenni? Ed è credibile che si pretenda di poter influenzare in modo determinante il clima con provvedimenti politici, prevedendone addirittura le conseguenze in modo quantitativo su periodi di parecchi decenni?

Vi sono, in realtà, molte incertezze; e gli uomini di scienza, consci del fatto che la conoscenza è in continuo divenire, dovrebbero muoversi con cautela. I mezzi di comunicazione e i politici, invece, tendono spesso a semplificare e ad esprimere “certezze”, magari attribuendo le attuali variazioni del clima globale soltanto alle conseguenze delle azioni umane.

Le incertezze dovrebbero non soltanto suggerire cautela nell’esprimere valutazioni e interpretazioni degli eventi climatici, ma anche spingere a proseguire le ricerche, con l’obiettivo di giungere a migliori conoscenze sugli eventi del passato, cosa che costituisce un presupposto indispensabile per interpretare il presente e giungere alla formulazione di previsioni per il futuro. La scienza del clima è piuttosto recente: c’è ancora molto da studiare per comprendere appieno i fenomeni climatici, che nel passato sono stati dominati dalle vicende del sistema solare con le sue variazioni e le sue oscillazioni periodiche; variazioni ed oscillazioni che sono ancora in atto e alle quali le azioni umane si sovrappongono.

E’ sensato cercare di contrastare gli andamenti del clima? Oppure è più ragionevole pensare di affrontarne i cambiamenti, senza dimenticare che dobbiamo comunque adoperarci per non esercitare pressione eccessiva sulle risorse e limitare l’impatto ambientale del nostro agire? Ricordiamo che gli uomini non sono come gli animali, i quali subiscono passivamente le vicende climatiche, le quali causano la scomparsa di alcune specie e la nascita di altre. La nostra storia ci insegna che l’uomo ha sempre reagito ai cambiamenti, magari con sofferenza, e ne è uscito più forte di prima. Se il clima cambierà, come ha sempre fatto; ci prepareremo e ci adatteremo.

Il convegno svoltosi il 28 ottobre 2015, organizzato dalla Sezione Veneto-Trentino dell’Associazione Termotecnica Italiana, aveva l’obiettivo di illustrare le conoscenze maturate in diversi settori disciplinari nell’ambito generale delle vicende climatiche. Infatti le ricerche sul clima coinvolgono molti settori scientifici e sono quindi tipicamente interdisciplinari. Pertanto sono stati invitati relatori molto qualificati appartenenti a settori di ricerca diversi. Essi, nel breve tempo a loro disposizione, hanno fornito un quadro sintetico delle attuali conoscenze sulla storia del clima e delle relative incertezze, mettendo in luce come il dialogo tra competenze scientifiche diverse possa dare un contributo significativo alla conoscenza, che costituisce il motore del progresso scientifico ed umano.

 

 

 

CAMBIAMENTI CLIMATICI E RISPOSTE SOCIALI: PER UNA STORIA CULTURALE DEL CLIMA

Emanuela Guidoboni

Centro euro-mediterraneo di documentazione EVENTI ESTREMI E DISASTRI, Spoleto e Bologna

Del clima degli ultimi duemila anni non abbiamo solo una storia, intesa come insieme delle variazioni verso il caldo o verso il freddo, costruita attraverso vari tipi di dati proxy, ma anche una storia culturale vera e propria. Con questi termini si intende ciò che le varie società nel tempo hanno pensato del clima e dei suoi mutamenti, ossia come le diverse culture hanno interpretato i cambiamenti climatici. E’ una storia poco nota, ma che mette in luce le risposte umane, gli adattamenti, le difficoltà e le opportunità innescate dalle variazioni climatiche nel passato e che può far riflettere sul presente.
I cambiamenti climatici, come è noto dagli studi sul clima del passato, hanno una lunga vicenda di raffreddamenti e riscaldamenti, determinanti per le forme di vita terrestri. In epoca storica i cambiamenti sono stati i motori di vicende per un’umanità, che da sempre vive e sopravvive in situazioni che cambiano e che ha imparato a convivere anche con fenomeni naturali potenzialmente molto pericolosi, come i terremoti e le eruzioni vulcaniche.
Numerose ricerche, studi e riflessioni sul clima storico, disponibili da vari decenni, aiutano a comprendere il significato di una prospettiva di lungo periodo. L’approccio culturale e storico al tema del clima evidenzia anche luoghi comuni secolari, e pregiudizi che spesso si ripropongono nel tempo in vesti diverse. Uno di questi è il mito, o se si vuole il pregiudizio, dell’equilibro con la natura. La Terra è sempre stata “squilibrata” e i cambiamenti climatici hanno mostrato nel passato geologico estremi assai rilevanti e hanno richiesto adattamenti anche molto forti dell’ambiente e delle specie (Vai 2015).
Si può affermare che la storia delle civiltà si è svolta in un grande trambusto climatico, trovando o non trovando vie d’uscita, pagando costi altissimi, come fame, guerre, malattie; oppure entrando in periodi di benessere, quando il clima era favorevole e le coltivazioni si espandevano in nuove terre e aprivano nuove vie per i commerci e gli scambi.
Se prendiamo in considerazione gli ultimi duemila anni si osservano dei cicli naturali, su cui gli storici del clima sono per lo più concordi. Farò qua solo una rapidissima sintesi per trarre poi alcune considerazioni e mi scuso per la estrema brevità degli accenni (per un excursus storico rimando a Guidoboni et al. 2008; Berhinger 2013).
Si ritiene che il periodo della grande espansione romana fu un periodo caldo, a cui seguì un raffreddamento iniziato nel periodo tardo-antico e culminato nell’alto medioevo: il periodo compreso fra il VI e l’VIII secolo è detto anche il periodo fresco alto-medievale. I penitenziali di quei secoli citano con disapprovazione i “maghi tempestari”, ossia persone ritenute capaci di produrre o far cessare le tempeste e il cattivo tempo. Costoro erano additati come residui della cultura pagana che la Chiesa combatteva, ma ciò ci mostra una risposta culturale importante da parte delle popolazioni della campagna: ci si chiedeva “di chi è la colpa del maltempo?”. La risposta era di tipo magico, e additava l’uomo – non la natura– come la causa del peggioramento climatico.
Seguì poi una lenta transizione verso il caldo, con tutti gli alti e bassi di questi mutamenti, per arrivare a un picco caldo attorno al Mille: è l’optimum climatico medievale, di cui oggi i climatologi discutono da punti di vista diversi e con proxy diversi. Faceva più caldo di oggi? Di quanto? Non lo sappiamo con certezza, ma il caso della Groenlandia, divenuta una terra di espansione per le coltivazioni dei Vichinghi, e dove la Chiesa istituì subito una nuova diocesi attorno all’XI secolo, depone a favore di un innalzamento sensibile della temperatura cambiata in varie parti del pianeta.
Queste variazioni però non favorirono o sfavorirono tutti gli abitanti della Terra nello stesso modo, come rilevano i dati storici sul riscaldamento medievale, i cui effetti furono molto diversi nell’Europa transalpina e nel sud del Mediterraneo. Mentre le coltivazioni al nord d’Europa risalirono verso quote non più coltivate dopo, come i 400 m in Scozia, grandi siccità colpirono il sud del Mediterraneo. Testimonianze di fonti siriache del X secolo indicano gravissime carestie, perdita di raccolti prolungate, disperazione delle popolazioni ridotte alla fame.
Poi la temperatura ridiscese: già nei primi decenni del XIII secolo si ricordano picchi freddi eccezionali. Per esempio, gli anni 1234-35 in Italia ci furono intense ondate di freddo, i cui effetti impressionarono i contemporanei, tanto da trovare ampio spazio nelle fonti documentarie coeve, in particolare nelle più importanti cronache italiane del Duecento. Dal nord al sud della nostro Paese gli effetti furono più o meno gli stessi: gelate di fiumi e lagune (Po e Laguna veneta), morte di persone, di animali selvatici e domestici, distruzione di raccolti (ulivi e viti) e alberi da frutto. Il fiume Po gelò in più tratti e in modo cospicuo, tanto che il suo alveo poteva essere attraversato con cavalli e carri carichi di mercanzie, alla pari di quelli di molti suoi affluenti. A Reggio Emilia, nella piazza comunale, si trovarono lupi morti congelati, mentre in Puglia a morire per il freddo e per gli stenti della fame furono migliaia di pecore, la cui perdita inferse un duro colpo alla pastorizia, motore trainante dell’economia locale in quel tempo.
Anche per l’agricoltura gli effetti furono distruttivi: nella Pianura Padana gelarono vigneti, ulivi, fichi e in genere ogni sorta di alberi da frutto. Inoltre, gran parte degli alberi della famosa pineta di Ravenna perirono. Ciò successe perché il freddo fece morire un insetto che si cibava di un micro fungo, che divenne poi infestante. E’ curioso osservare che successe una cosa simile nell’inverno del 1985, benché in questo caso il fenomeno di disseccamento sia stato attribuito prima all’inquinamento industriale dell’area; poi i botanici spiegarono meglio il fenomeno.
Il 1257 sembra essere stato un altro anno particolarmente freddo in Europa, tanto che è stato definito da alcuni l’anno “senza estate” e descritto come una vera e propria catastrofe planetaria. Dalle carote di ghiaccio sembra ci sia una correlazione con qualche grande eruzione vulcanica. Questa congiuntura è ancora oggetto di studio da parte di ricercatori storici (in particolare, Martin Bauck 2015, che rileva tuttavia un quadro delle fonti piuttosto esile).
Il clima peggiorò decisamente nel XIV secolo. Nel 1348, forse per penuria alimentare e sottoalimentazione diffusa, il contagio della Peste nera fu devastante in tutta Europa. Anche il XV secolo subì alti e bassi e lentamente si avviò verso un raffreddamento consistente, definito dai climatologi storici piccola età glaciale. Questa fase decisamente fredda durò dal XVI alla metà del XIX secolo.
Nella seconda metà del XVI secolo sono ricordati dalle fonti inverni freddissimi in tutta Europa, come quello del 1571, uno dei più rigidi, a cui seguirono decenni di maltempo, raffreddamenti intensi alternati a siccità, che culminarono nella grande carestia del 1590, risultato di persistenti cattivi raccolti e crisi inflazionistiche (queste ultime dovute all’immissione nei mercati europei di enormi quantità d’oro dal nuovo mondo).
Il Cinquecento fu un secolo tormentato, prevalentemente freddo e di guerre continue. Le popolazioni erano stremate, i poveri crebbero a dismisura, tanto che il pauperismo fu un fenomeno che interessò quasi tutte le città europee. Masse enormi di affamati spingevano alle porte delle città per entrare. Vari pittori europei del Cinquecento hanno dato una testimonianza molto eloquente di quel periodo durissimo e disperato, in cui fattori naturali e fattori sociali ed economici determinarono un netto peggioramento delle condizioni di vita di intere popolazioni e per vaste aree.
Non stupisce che nel Cinquecento si fosse messo in moto di nuovo una riflessione sulle cause del peggioramento climatico: ci si chiese nuovamente: di chi è la colpa? La cultura del tempo identificò nelle Streghe (come già nell’alto medioevo nei maghi tempestari) persone specializzate a creare tempeste e altre dannose condizione atmosferiche, oltre a sortilegi di ogni genere. Anche in questo caso, la risposta culturale al peggioramento del clima accentuò gli elementi magico-religiosi, e in questo caso anche misogini, piuttosto che gli elementi sociali ed economici – come le guerre, le epidemie, la fluttuazione dei prezzi delle merci, e le crisi demografiche.
Nel Seicento la fase fredda proseguì: in alcune zone delle Alpi i ghiacciai crebbero enormemente, rendendo necessario l’abbandono di alcuni villaggi. L’abitato umano sempre si è contratto o esteso secondo le situazioni ambientali.
Il Settecento si aprì con picchi di freddo di grande impatto: nel 1706 ci fu un inverno terribile, che causò circa un milione di morti in Europa. Anche gli ultimi decenni del Settecento furono caratterizzati da prevalente mal tempo, e conseguenti cattivi raccolti. Secondo Le Roy Ladurie, alle tensioni esasperate che precedettero la Rivoluzione francese (1789) contribuirono anche le pessime rese agricole del quinquennio precedente, a causa del clima avverso.
Proprio nel XVIII secolo furono scritti trattati in cui si temeva la fine dei sistemi umani dovuti a spopolamento e freddo. Emerge dal nostro passato culturale la tendenza occidentale a estremizzare le conseguenze di fenomeni naturali lenti, ma transitori nel lungo periodo, come il clima. All’inizio dell’Ottocento ci fu un altro anno “senza estate”, questo ben noto e descritto dagli storici del clima e dell’economia (Luterbacher e Pfister 2015): anche questo pur breve raffreddamento fu il risultato di una grande esplosione vulcanica, ossia quella del Tambora, in Indonesia, avvenuta il 10 aprile 1815. Anche se circoscritto nel tempo, ebbe conseguenze drammatiche.
Le temperature iniziarono a risalire alcuni decenni dopo. La fase espansiva dell’industrializzazione europea era già iniziata, ma per l’Italia si avviò solo all’inizio del Novecento. L’espansione dell’economia industriale non fu certo dovuta al miglioramento del clima (affermarlo sarebbe antistorico), ma a una molteplicità di fattori sociali, economici e demografici.
All’inizio del XX secolo in Italia ci furono grandi siccità, magre straordinarie di alcuni fiumi, che causarono un acuto problema per l’approvvigionamento dell’acqua. All’interno del periodo di riscaldamento, ci sono ovviamente delle oscillazioni naturali verso il freddo, che possono apparire contradditorie nel breve periodo, ma nel lungo periodo non modificano la tendenza generale.
Dopo la seconda metà del Novecento iniziò infatti una fase che abbiamo quasi tutti dimenticato, benché molto vicina nel tempo: il decennio freddo del 1960-70. Le temperature calarono sensibilmente e subito fu posto il problema del raffreddamento globale. Il Global Cooling segnò un allarme paragonabile per alcuni aspetti a quello attuale del Global Worming, ma non ebbe una fama planetaria, perché la discussione rimase piuttosto circoscritta fra esperti e governi.
In quegli anni i climatologi temevano che fosse arrivata la fine del periodo interglaciale e che iniziasse quindi una nuova glaciazione. Ancora una volta ci si chiese: di chi è la colpa? Le cause che acceleravano il raffreddamento globale furono individuate nell’inquinamento e nelle emissioni dei gas di scarico, che in quegli anni erano notevolmente cresciute per l’avanzare della motorizzazione e delle industrie che usavano energia fossile.
E’ interessante oggi ricordare che furono indicati dei rimedi per “fermare” il raffreddamento globale, non molto diversamente da quanto si indica oggi per “fermare” i riscaldamento globale. Ma quei rimedi rimanevano nei piani riservati dei governi e dei militari. Ne elenco qui alcuni perché a mio parere dicono molto di come si formino le risposte ai problemi climatici. Traggo questo breve ma significativo elenco dallo storico Wolfang Behringer (2013), a cui dobbiamo essere grati per lo studio che ha fatto in questo settore, per lo più ignoto al grande pubblico. Ecco i rimedi che furono condivisi dal governo degli Stati Uniti e in parte da quello sovietico, come proposte e progetti d’intervento:
1) per abbassare l’albedo fu proposto di stendere pellicole nere sulle calotte terrestri;
2) si idearono piani per costruire una diga in grado di sbarrare lo stretto di Bering, fra l’Alaska e la Siberia con lo scopo di regolare il clima mondiale. Il progetto fu appoggiato dai governi Kennedy, Nixon e Ford, e vide favorevole anche il presidente dell’Unione sovietica, Breznev;
3) fu presa in esame la possibilità di aumentare le emissioni di CO2 in modo da rafforzare l’effetto serra, frenare il raffreddamento e fare salire la temperatura;
4) si discusse della possibilità di proiettare polvere di metallo nell’atmosfera, e di far orbitare attorno alla Terra degli enormi specchi come surrogati del sole; qualcuno propose anche di far orbitare attorno alla Terra un anello di polvere di potassio.
Anche i militari non furono da meno e proposero varie e brillanti soluzioni: far esplodere bombe atomiche sottomarine per distruggere delle montagne sottomarine al fine di modificare le correnti oceaniche; riscaldare la Groenlandia con appositi reattori nucleari o, in alternativa, sciogliere i ghiacci del Polo con bombe all’idrogeno.
Come osserva Behringer, ci sembrano progetti più del dottor Stranamore che di governi e scienziati. Solo alla fine del decennio ’70 del Novecento i climatologi furono d’accordo nel ritenere che l’atmosfera si stava invece riscaldando. I diversi rapporti dell’IPCC, iniziati nel 1990, mostrano questa prima fase, che fu poi suffragata da alcuni decenni più caldi del solito, e mostrano anche la progressiva radicalizzazione sul riscaldamento globale. Non entro qui nel merito dei dati scientifici, in cui il contrasto fra sostenitori e oppositori del riscaldamento globale (oggi sbrigativamente indicati come “apocalittici” e “scettici”) può rilevare la complessità del tema, né mi inoltro ad illustrare gli interessi politici ed economici in gioco, che delineano una nuova geopolitica. Mi limito a riflettere sul senso degli allarmismi per le cause antropiche del riscaldamento, e su come si riverberano nei mass-media e nella percezione diffusa.
E’ indiscutibile che interventi speculativi di deforestazione, l’estensione indiscriminata delle monocolture, la crescita demografica, le politiche di accaparramento delle risorse idriche in vaste aree del pianeta (che hanno comportato anche la deviazioni di grandi fiumi) peggioreranno sempre più la qualità della vita delle popolazioni coinvolte, accelerando o causando disastri ambientali. Questo è un problema molto serio, che chiama in causa i modelli economici di sviluppo attuali e del prossimo futuro, la conoscenza degli ecosistemi naturali e del loro uso, le connessioni fra ambiente, politica e attività economiche e tecnologiche. E’ un grande tema, che interpella anche gli aspetti culturali e di mentalità riguardo a cosa si intende per “natura”.
Diversi autori ritengono che le trasformazioni ambientali dell’ultimo milione di anni siano state determinate da cause naturali e che solo in questa nostra epoca si stia invertendo questo rapporto, per cui le trasformazioni indotte dalle attività antropiche sarebbero il motore di nuovi e irreversibili cambiamenti, in ultima analisi la causa del riscaldamento globale. Ma questa tesi, che pone al centro l’uomo, affermando quindi un antropocentrismo totale, non è priva di incertezze persino nei dati di base, come è stato fatto notare anche da alcuni interventi che mi hanno preceduta.
Occorrerebbe quindi chiarire bene e distinguere i diversi fattori del riscaldamento, antropici e naturali. E ciò, a mio parere, sarebbe auspicabile attraverso seri contributi multidisciplinari (gli storici, per esempio, sono scarsamente presenti nel dibattito attuale e la storiografia italiana segna un grave ritardo). Ma penso anche che occorra l’umiltà intellettuale di sentirsi parte di una “natura”, o per meglio dire, di un sistema globale terrestre e solare, di cui non si conosce tutto il funzionamento. Ciò non esclude che sia sacrosanto battersi per migliorare la qualità della vita, dell’aria che respiriamo nelle nostre città, del modo di produrre.
Il tema dei cambiamenti climatici è sterminato se la scala è globale e se si assume la prospettiva di lungo periodo, ma ogni considerazione, per essere compresa, andrebbe ricondotta a un contesto specifico. La Terra è percepita nella nostra contemporaneità più piccola rispetto a quanto era sembrata alle società del passato, e anche molto più comunicante e controllabile, grazie alla tecnologia e ai mezzi di informazione. Ma questo, invece di indurre una maggiore sensibilizzazione ai problemi della conoscenza e di mettere in gioco più saperi, ha accentuato l’aspetto antropocentrico dell’interpretazione del riscaldamento globale: è stato fatto, a mio parere, in modo piuttosto dogmatico e con un’enfasi sconosciuta ad altri potenziali disastri, pur di grande impatto sociale ed economico.
Se una riflessione finale può essere posta, tenendo conto anche dei dati e delle indicazioni emersi in questo incontro, è quella riguardante nel suo complesso la previsione. Forse dovremmo divenire più consapevoli che la previsione in genere, e quindi anche quella climatica, ha notevoli difficoltà, perché i risultati dipendono dalle aspettative e dagli schemi di chi compie la previsione, nonché dalle variabili e dai dati che sono inseriti nei processi di calcolo di un modello. Benché questo limite dovrebbe suggerire una grande cautela, siamo invece di fronte alla divulgazione di dogmatismi o di esasperati scontri, quasi ideologici.
Non va sottaciuto poi che mai prima d’ora i finanziamenti per un solo settore di ricerca sono stati così sbilanciati a scapito di altri settori, che studiano eventi estremi che mettono in gioco in modo molto più prevedibile la vita delle popolazioni: mi riferisco sia ai disastri di origine naturale – come i terremoti, le eruzioni vulcaniche, i maremoti, le grandi alluvioni – sia a quelli antropici. Riguardo solo ai terremoti, vorrei ricordare che in Italia avviene in media un disastro sismico ogni 4-5 anni e che la spesa media annuale che grava sui cittadini per tali danni supera i 4.5 miliardi di euro (Guidoboni e Valensise 2014) e ciò perché non si fa nulla per prevenire le distruzioni.
Riguardo poi ai disastri di origine solo antropica, incombono rischi altissimi per pandemie, guerre, estese migrazioni. Per entrambe queste tipologie di disastri ci sono scenari inquietanti, non generiche previsioni, e precise responsabilità di chi amministra e governa: eppure per questi tipi di disastri la mobilitazione informativa ed economica non è minimamente paragonabile a quella che è stata fatta e si fa per il riscaldamento globale.
Il cambiamento climatico ha una storia molto lunga, in cui l’uomo non è l’attore principale al centro della scena (come dimostrano i geologi e gli storici del clima). Ma questo non è forse un equivoco culturale che si ripete nella storia dell’Occidente?

Autori citati
Bauch M. (2015) Anni senza estate alla metà del Duecento? Un contributo medievistico per la storia del clima, lezione-conferenza tenuta all’Institutum Romanum Finlandiae il 16 nov. 2015, in corso di stampa.
Behringer W. ( 2013) Storia culturale del Clima. Dall’era glaciale al riscaldamento globale, Bollati Boringhieri.
Guidoboni E., A.Navarra e E.Boschi (2008) Nella spirale del Clima. Culture e società mediterranee di fronte ai cambiamenti climatici, BUP -Bononia University Press.
Guidoboni E. e Valensise G. (a cura di ) (2014) L’Italia dei disastri. Dati e riflessioni sugli impatti degli eventi naturali (1861–2013), BUP.
Luterbacher J. e Pfister C. (2015) The year without a summer, Nature Geoscience, vol. 8, April 2015, pp. 246-250.
Vai G. (2015) Tempo umano e tempo geologico: i cambiamenti climatici sono un capro espiatorio? in “Prevedibile /Imprevedibile. Eventi estremi nel prossimo futuro” a cura di E.Guidoboni, F.Mulargia e V.Teti, Rubbettino, pp. 31-52.

 

 

IL RUOLO DELL’OCEANO NEI CAMBIAMENTI CLIMATICI

Vincenzo Artale
ENEA C.R. Frascati, Roma

Introduzione
Il sistema climatico fu definito, in un documento prodotto dal Global Atmospheric Research Programme (GARP) del World Meteorological Organization nel 1975, come “ un sistema composto da: atmosfera, idrosfera, criosfera, litosfera e biosfera”; successivamente, nel 1992, la Framework Convention on Climate Change delle Nazioni Unite (FCCC) definisce il sistema climatico come “l’insieme dell’atmosfera, dell’idrosfera, della biosfera e della geosfera, e le interazioni tra di esse”.
Queste due definizioni sono simili, ma l’enfasi attribuita alle “interazioni”, sia nella definizione che nella letteratura, è cresciuta molto negli ultimi trenta anni e, nella rappresentazione schematica delle componenti del sistema climatico che gli scienziati del clima devono considerare, ciò che viene enfatizzato sono proprio le interazioni non lineari tra componenti del sistema climatico e i processi che li guidano, piuttosto che le scale di spazio e di tempo da esplorare. Quindi per affrontare il problema dei cambiamenti climatici è necessario essere pienamente consapevoli che si tratta di un “problema di fisica molto complicato”; per quanto possa sembrare paradossale, oggi abbiamo una migliore comprensione del nucleo atomico che non di un centimetro cubo di atmosfera turbolenta.
Il sistema climatico non è, pertanto, un sistema deterministico ma, al contrario, è un sistema caotico e fortemente dipendente dalle condizioni iniziali: è sufficiente anche una piccola incertezza o lieve perturbazione alle condizioni di partenza per far sì che il comportamento del sistema climatico tenda a divergere in modo irregolare, secondo quello che il famoso meteorologo Lorenz definì “effetto a farfalla”. La profonda alterazione dell’attuale stabilità del sistema climatico non passa necessariamente attraverso ampie perturbazioni, ma anche disturbi di relativa lieve entità hanno la potenzialità di raggiungere i “punti deboli” (tipping points) del sistema e, pertanto, incidere direttamente nella sua complessa dinamica; e come vedremo l’oceano rappresenta pienamente tale complessità.

L’oceano globale
E' noto come il sistema climatico terrestre sia costituito, oltre che dal sole che gli fornisce l'energia, dall'atmosfera, dall'oceano, dalla criosfera (i ghiacci) e dalla biosfera (il mondo vivente). Il clima terrestre è determinato dagli scambi termodinamici interni e dagli scambi di acqua all'interno di questi settori. L'atmosfera e l'oceano sono i principali responsabili del trasporto e della distribuzione del calore sulla terra. Si stima che il trasporto di calore dalle regioni tropicali verso i poli si distribuisca in parti uguali tra l'oceano e l'atmosfera. Per esempio nell'Oceano Atlantico il calore immagazzinato negli strati superficiali delle zone tropicali è trasportato verso nord attraverso grandi correnti oceaniche (e.g. la Corrente del Golfo), il cui principale effetto è di mitigare il clima dell'Europa Occidentale. Queste correnti durante il loro percorso verso nord non cessano mai d’interagire con l'atmosfera, attraverso scambi di massa e di calore. Lo stesso fenomeno si produce nell'Oceano Pacifico, ma con un trasporto di calore sud-nord meno efficiente; il calore arriva a latitudini minori, tanto da produrre in media una differenza di circa quattro gradi in meno rispetto alla regione più settentrionale del Nord Atlantico. I processi d’interazione tra l’oceano e l’atmosfera sono estremamente complessi. In media l’atmosfera fornisce all’oceano il 43% della sua energia interna; il resto proviene direttamente dal sole (35%) e dagli scambi con i continenti (22%). In seguito, il calore assorbito dall’oceano è acquisito e ridistribuito orizzontalmente e verticalmente all'interno delle masse d'acque oceaniche ed infine restituito all'atmosfera. I tempi di risposta del sistema oceanico sono circa due ordini di grandezza maggiori di quelli atmosferici. La corrente del Golfo, sempre attraverso misure sperimentali, che purtroppo sono state eseguite in modo sistematico solo negli ultimi cinquanta anni, ha mostrato una notevole variabilità dal 1950 in poi; parte di questa variabilità si può spiegare con la variabilità e l’avvezione dei “gyres” (vortici oceanici) subtropicali. Alcuni suggeriscono che questa variabilità può essere associata alla variabilità climatica in generale, ed un indicatore climatico molto potente, specialmente per l’area del Nord Atlantico, ma funziona bene anche per il Mediterraneo, è il NAO. Il NAO è definito semplicemente come la differenza di pressione tra Stykkishohnur (Islanda) e Ponta Delgata (Isole Azzorre); il suo funzionamento è un po’ simile a quello di un’altalena, dove all’estremo nord e sud ci sono le anomalie di pressione del nord atlantico e dell’atlantico sub-tropicale rispettivamente, le cui differenze generano il moto alterno dell’altalena, o parallelamente i relativi moti atmosferici. L’indice corrispondente varia di anno in anno, ma mostra anche delle tendenze a rimanere in una stessa fase prevalente anche per lunghi periodi: quando sta in una fase negativa (alta pressione al nord) le perturbazioni atmosferiche portano molta più aria umida nel Mediterraneo ed aria fredda nel nord Europa; invece durante la fase positiva (come quella dell’anno 2006/7) si ha un inverno caldo ed umido in Europa e freddo e secco in Canada e Groenlandia. Tuttavia, il NAO, ossia la variabilità naturale, non spiega tutto; per esempio non ci spiega perché la corrente del Golfo si sta indebolendo. Si sa che il Nord Atlantico riceve energia termica equivalente a circa un Pwatt (1015 watt): questa enorme quantità di calore non è trasportata solo dalle correnti indotte dallo stress del vento sulla superficie marina, ma soprattutto dalle correnti indotte dalla cosiddetta circolazione termoalina, la quale s’instaura in virtù delle differenze di temperatura e salinità (e quindi di densità) tra le diverse masse oceaniche. E’ importante considerare che l'intensità della circolazione termoalina, e proporzionalmente anche la quantità di calore trasportato, dipende da piccole differenze di densità, le quali dipendono a loro volta da un delicato equilibrio nel Nord Atlantico tra raffreddamento alle alte latitudini e l’apporto d’acqua dolce (meno densa) dovuta a pioggia, neve e fiumi. Un maggior apporto d’acqua dolce riduce l'intensità della circolazione termoalina ma non in modo lineare. Infatti all'inizio il meccanismo convettivo continua ad essere attivo e la circolazione relativa continua a rimuovere l'acqua meno salata superficiale ed a sostituirla con quella più salata proveniente da sud. Tuttavia questo meccanismo ha dei punti critici (tipping points), sorpassati i quali la circolazione termoalina incomincia ad oscillare tra diversi stati d'equilibrio, tra cui è compreso quello compatibile con un suo eventuale blocco. Il riscaldamento superficiale che si sta osservando negli ultimi venti anni causa lo scioglimento dei ghiacci, non solo quelli marini del Polo Nord, ma anche terrestri, in particolare quelli della Groenlandia, e ha un effetto simile.
L’immissione di acqua dolce proveniente dallo scioglimento dei ghiacciai comporterà, infatti, un indebolimento dei complessi meccanismi che sono alla base del trasporto di calore dall’Equatore alle alte latitudini (50-60N), attualmente solo accennati come si desume dalla letteratura scientifica recente. In particolare, è possibile che questa immissione di acqua dolce condizioni fortemente i processi di convezione nel Labrador Sea e nei mari della Groenlandia e dell’Islanda, che si possono considerare come il “volano” dell’intera circolazione oceanica. A tale proposito vale la pena di ricordare che, nel lungo periodo, tra i vari comparti del sistema climatico, l’oceano è quello più decisivo per definire il tipo di clima che si instaura. Non a caso Brocker, in un suo famoso articolo sulla rivista Science, definì l’insieme di questi processi il “tallone d’Achille” del sistema climatico terrestre e, all’interno di questa problematica, anche il nostro piccolo mar Mediterraneo gioca un ruolo “positivo” di contrasto in quanto, tramite lo Stretto di Gibilterra, immette alla profondità di circa 1000 metri un’acqua dolce e salata che contrasta l’effetto di indebolimento della circolazione termoalina dovuto allo scioglimento dei ghiacci polari (Artale et al., 2006) .
Se la circolazione termoalina si bloccasse completamente, nelle aree del Nord Atlantico la temperatura si abbasserebbe di più di 10°C. Cosa che, infatti, è già successa nel passato, come si può constatare dalle analisi sui sedimenti oceanici e dalle carote di ghiaccio in Groenlandia, dalle quali si è evidenziato che la circolazione termoalina si è interrotta bruscamente diverse volte a causa di flussi anomali d’acqua dolce, provocando dei lunghi periodi freddi, in Europa Nord Occidentale, per centinaia d’anni (Heinrich events). L’ultimo di questi eventi è accaduto circa 12000 anni fa. Lo studio di questi eventi, pur non fornendo alcuna indicazione certa sul clima futuro, è importante perché ci dà la consapevolezza che eventi catastrofici nella circolazione oceanica con fortissimi impatti sulla variabilità climatica globale possono avvenire indipendentemente da fattori antropici, ossia possono essere considerati come delle instabilità insite al sistema accoppiato oceano-atmosfera. Tuttavia il riscaldamento globale, dovuto per esempio ai gas–serra, può contribuire ad aumentare sia la temperatura superficiale dell'oceano che la piovosità alle alte latitudini ed entrambi i fattori danno un contributo negativo sulla densità superficiale riducendo così il motore della circolazione termoalina (Bindoff et al., 2007) .

Il Mar Mediterraneo
Il Mar Mediterraneo, nonostante abbia dimensioni trascurabili in confronto ai grandi oceani, è un bacino in cui avvengono, a scala più piccola, una varietà di processi ed interazioni atmosfera-oceano tipiche dei grandi oceani. Il Mediterraneo consuma per evaporazione più acqua di quella che riceve dalla pioggia e dai fiumi; in media il deficit è di circa un metro l’anno, e quindi il generoso Atlantico tramite lo stretto di Gibilterra fornisce ciò di cui il bacino ha bisogno.
Analizzando nel dettaglio la temperatura superficiale dell’oceano globale dal 1854 ad oggi ottenuta dall’analisi di dati in situ si evince un aumento continuo della temperatura media con sovrapposte delle deboli oscillazioni. In particolare, la prima fase di aumento della temperatura (1910-1935) sarebbe dovuta ad un aumento della costante solare e alla diminuzione dell’attività vulcanica mentre la seconda fase, a partire dal 1970-1975, non sarebbe giustificata se non inserendo nel bilancio termico il riscaldamento dovuto all’accumulo di gas serra, almeno secondo i risultati di simulazioni numeriche. Invece nel caso del Mar Mediterraneo le oscillazioni multi-decennali sono molte vistose: l’andamento della temperatura sembra risentire della sovrapposizione di un’oscillazione, la cui ampiezza delle anomalie di temperatura è pari a 0.3-0.6°C e con un periodo temporale di circa 60-70 anni (analogo a quello dell’AMO, Atlantic Multidecadal Oscillation); tuttavia è molto evidente, a partire dall’inizio del XX secolo (minimo del 1910), una tendenza al riscaldamento con un aumento della temperatura di quasi 1.0°C e con una accelerazione del riscaldamento negli ultimi vent’anni e questo coincide con quanto osservato a livello globale. In particolare, dopo l’ultimo minimo di temperatura della metà degli anni ’70, la temperatura è aumentata con un tasso pari a 0.026±0.005°C/anno. Infine, il raffreddamento della SST del Mediterraneo osservato tra il 1965 ed il 1975 appare associato ad una fase di aumento dell’indice NAO (vedi paragrafo sopra per maggiori dettagli), ovvero NAO e SST sono anticorrelati.
Se la temperatura superficiale, recando la ‘firma’ quasi istantanea delle interazioni con l’atmosfera, è per sua natura soggetta ad una grande variabilità, l’analisi della variabilità del contenuto di calore e di sale nell’intero volume della massa d’acqua fornisce sicuramente un indice climatico più adatto a monitorare eventuali variazioni su tempi lunghi. Possiamo definire l’andamento spaziale e temporale di questo indice come uno dei segnali più robusti ai fini climatici.
In un recente lavoro il dataset MEDAR è stato analizzato per ricostruire la variabilità dei campi di temperatura e salinità nel Mediterraneo dal 1950 al 2000. L’analisi è stata effettuata suddividendo l’intero bacino in tre strati definiti da quote fisse: 0-150 m, 150-600 m e 600 m fondo. Tale studio mostra che i primi due strati mostrano un alternarsi di fasi di riscaldamento/raffreddamento e salinificazione/desalinificazione. Il quadro generale che ne consegue mostra che nel corso del XX secolo le acque intermedie e profonde nel Mediterraneo Occidentale, hanno subito un riscaldamento ed aumento della salinità che può essere diviso in tre diverse fasi. Infatti, l’iniziale tasso di crescita osservato nei primi anni del secolo subisce un incremento intorno al 1960 passando da circa 0.5 10-3 °C/anno a 2-4 10-3 °C/anno per la temperatura e da circa 0.5 10-3 psu/anno a 1-2 10-3 psu/anno per la salinità. Parallelamente, il tasso di crescita di T e S per le acque intermedie risulta essere comparabile e leggermente superiore. Dopo il 1990 tali tassi di crescita aumentano di più di un ordine di grandezza e le acque profonde nel Mar Tirreno e nel Mar Ligure mostrano un aumento della temperatura e della salinità pari a qualche centesimo di grado e psu per anno. Tale improvviso aumento è dovuto alla produzione di acque di fondo provenienti dal Mar Egeo invece che dal Mar Adriatico, così come è avvenuto normalmente almeno negli ultimi 50 anni, con caratteristiche fisiche completamente diverse, quindi i cambiamenti climatici legati all’apporto umano non dovrebbero aver dato alcun contributo

 

(1) - Artale V., and Coauthors, 2006: The Atlantic and Mediterranean Sea as connected systems. Mediterranean Climate variability,P. Lionello, P.Malanotte-Rizzoli, and R.Boscolo,Eds., Elsevier,283–323.

(2) - Bindoff, N., J. Willebrand, V. Artale, A. Cazenave, J. Gregory, S. Gulev, K. Hanawa, C. Le Quere, S. Levitus, Y. Nojiri, C. K. Shum, L. Talley, and A. Unnikrishnan, 2007: Observations: oceanic climate change and sea level. Climate Change 2007: The Scientific Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, Solomon, S., Ed., Cambridge Univ. Press, New York, 2007.

 

 

 

CAUSE NATURALI DEL CAMBIAMENTO CLIMATICO A LIVELLO GLOBALE

Chiara Bertolin1

1Associate Professor at Norwegian University of Science and Technology (NTNU) – Department of Architectural Design, History and Technology.Trondheim, Norway

Concetti come global warming (o riscaldamento globale), variabilità climatica, meccanismi di feedback climatico (o retroazioni climatiche) sono entrati a far parte del nostro vocabolario quotidiano ma spesso le nozioni vengono usate in modo ripetitivo senza capirne a fondo il significato. Lo scopo dell’intervento: “cause naturali del cambiamento climatico a livello globale” è stato quello di introdurre, in modo semplice, alcuni dei concetti chiave utili alla comprensione del sistema climatico e di fare chiarezza su concetti di base che spesso sentiamo citati.

Qual è la differenza tra il concetto di variabilità climatica e meteorologica? Cos’ è un “cambiamento climatico” e come si manifesta? Quali sono le principali componenti del sistema climatico e come interagiscono tra loro attraverso meccanismi di feedback? Quali driving factors (o forzanti) “guidano” i cambiamenti Climatici? Come si possono distinguere le forzanti interne da quelle esterne al sistema?

Andiamo per ordine; spesso si sente parlare di variabilità meteorologica e climatica, ma qual è la differenza? Il TEMPO METEOROLOGICO riflette le condizioni a breve termine dell’atmosfera mentre il CLIMA definisce le condizioni medie (e la variabilità) del tempo meteorologico giornaliero su un periodo di tempo più esteso e/o su una certa area geografica. Con una visione “pratica” si può pensare che Il clima ti dice che vestiti comprare (a seconda della stagione), ma il tempo meteorologico ti dice quali vestiti indossare in quel preciso momento a causa delle condizioni di temperatura e/o alla presenza o meno di precipitazioni.

Quindi è chiaro che con il termine CLIMA si indica l’insieme delle proprietà che caratterizzano il tempo meteorologico di una regione geografica. Alcune di queste proprietà descrivono ad esempio come varia la temperatura nel corso delle stagioni, la quantità e la distribuzione (sia temporale che spaziale) delle precipitazioni, il regime dei venti, etc. Ma anche eventi estremi come la frequenza della siccità, delle grandinate anomale o delle trombe d’aria. Tutte queste caratteristiche influenzano la vita biologica e quindi sono fondamentali nel determinare il tipo di flora e fauna che si possono trovare in una determinata regione (IPCC WGI AR5. 2013). Molti dei fenomeni che nel loro insieme definiscono il clima si verificano come parte di sistemi organizzati su larga scala.

Se si sente parlare di CAMBIAMENTO CLIMATICO, si sta parlando quindi di cambiamenti del tempo meteorologico giornaliero su lungo periodo.

In una determinata area geografica, il tempo meteorologico può variare di minuto in minuto, ora in ora, giorno in giorno e stagione in stagione. Il clima tuttavia è la media del tempo meteorologico su un più ampio intervallo temporale e/o su una più ampia area spaziale.

Il clima, in una scala temporale, può definire una variabilità inter-annuale fino ad una variabilità che può ricoprire un arco temporale paragonabile al tempo di vita del nostro pianeta. Su una scala spaziale, il clima può variare da un versante all'altro nelle valli di montagna fino a variazioni su scala continentale. Tali cambiamenti possono riguardare variazioni nelle variabili climatiche (ad es. temperatura, quantità di precipitazione) in termini della loro quantità media e/o variabilità e/o frequenza di eventi estremi.

Una delle chiavi utili a comprendere come il clima stia mutando, e così anche la meteorologia locale, è l’analisi delle medie e delle varianze delle variabili meteorologiche e/o degli eventi meteo cosiddetti “intensi” (ad esempio inondazioni, onde di calore, siccità, trombe d’aria,..). In Figura 1 è ben spiegato il concetto della “manifestazione” del cambiamento climatico in termini di evento meteorologico ed in particolare del suo effetto sulla modificazione della frequenza di eventi cosiddetti estremi.

 

 Figura 1: Esempio di Cambiamento Climatico riguardante la temperatura. Esso si puo’ manifestare in termini di aumento dei valori medi di temperatura (a); di aumento nella varianza (o variabilitá del fenomeno) delle temperature registrate (b) o in termini di aumento sia della media che della varianza (c).

 

Quando un EVENTO METEO può definirsi ESTREMO?  I termini evento intenso ed evento estremo non sono affatto sinonimi, ma nascondono una fondamentale differenza: un evento meteo intenso è un qualsiasi fenomeno atmosferico che mette a rischio vite umane, mentre un evento meteo estremo è sì intenso quanto raro, in base alla statistica che descrive la probabilità che possa accadere in un determinato luogo. Un evento estremo si definisce come un record di temperature elevate o di quantità di precipitazioni.

Come si può vedere dai concetti espressi in Figura 1, il cambiamento climatico sta variando la statistica degli eventi estremi e la tendenza sembra portare verso un aumento della loro frequenza e/o intensità. Naturalmente il cambiamento climatico può “affliggere” in maniera diversa le diverse variabili meteorologiche; ad esempio ci si può aspettare un aumento, in termini di frequenza di inverni miti, ma al contempo ci si può attendere una diminuzione in frequenza di precipitazioni abbondanti nello stesso periodo temporale. La valutazione dell’effetto del cambiamento climatico in termini di occorrenza di eventi estremi dipende quindi dalla variabile che si sta prendendo in esame. L’effetto visibile può essere al contempo di eventi più o meno frequenti e/o più o meno intensi.

Procedendo con l’excursus nei concetti cardine per comprendere il sistema clima, ci si chiede: Quali sono le Componenti del sistema climatico?

 

Il SISTEMA CLIMATICO rappresenta tutte le componenti che contribuiscono al clima. Esso è un sistema dinamico altamente complesso. Un approccio per comprendere, analizzare e modellizzare il clima come sistema è quello di dividerlo in componenti di più facile comprensione. Uno schema di questa semplificazione è dato in Figura 2.

Il sistema evolve a causa delle proprie dinamiche interne e a causa di cambiamenti in fattori esterni. Si hanno interazioni e cambiamenti tra tutte le componenti sia interne ed esterne al sistema.

 

 

Al suo interno il sistema climatico è composto da componenti quali:

  • l' atmosfera che rappresenta l'insieme dei gas che circondano la terra, le cui molecole sono trattenute dalla forza di gravità del corpo stesso,
  • l'idrosfera che è costituita dall'insieme delle acque presenti nel sottosuolo e nella superficie del pianeta,
  • la criosfera che è la porzione di superficie terrestre coperta dall'acqua allo stato solido e che comprende le coperture ghiacciate di mari, laghi e fiumi, le coperture nevose, i ghiacciai, le calotte polari ed il suolo ghiacciato in modo temporaneo o perenne (permafrost),
  • la litosfera (cioè parte rigida esterna del pianeta Terra) e
  • la biosfera, definita in biologia come l'insieme delle zone della Terra in cui le condizioni ambientali permettono lo sviluppo della vita, e le interazioni tra esse.

Processi e dinamiche interne sono ad esempio circolazioni atmosferiche e oceaniche e meccanismi interni di feedback.

Variazioni in fattori esterni sono principalmente di tipo naturale dovuti a:

  • Processi tettonici, cambi nella distribuzione di terra ed oceani, caratteristiche geografiche terrestri, la topografia del fondo degli oceani, temperature degli oceani e correnti oceaniche.
  • Cambi nella composizione di base dell’atmosfera e degli oceani a causa delle attività naturali, ad esempio eruzioni vulcaniche che arricchiscono l’atmosfera di polveri e di gas. Le eruzioni esplosive più importanti possono portare ad un temporaneo raffreddamento in zone del pianeta anche distanti dal luogo dell’eruzione vulcanica.
  • Cambi nella composizione dell’atmosfera dovuti all’azione antropica, (quindi forzanti di tipo antropico) dovuti ad esempio a: urbanizzazione, deforestazione, agricoltura intensiva, industrializzazione ed utilizzo delle risorse come combustione di combustibili fossili. Nel periodo recente si è appurato come l’origine antropica dell’inquinamento atmosferico possa modificare la composizione stessa dell’atmosfera. Ad esempio, l’aumento della concentrazione atmosferica dei gas-serra porta ad un generale riscaldamento a livello planetario. Anche le particelle emesse (aerosoli o aerosols) contribuiscono a questo bilancio radiativo.
  • Le attività umane possono inoltre modificare le caratteristiche del territorio in termini di albedo (cioè del potere riflettente di una superficie) ad esempio distruggendo foreste (attraverso la deforestazione si ha quindi una modificazione nella vegetazione e quindi nell’albedo del suolo), creando laghi artificiali, facendo spazio a pascoli e campi coltivati, o a piste da sci, dove un tempo c’erano foreste. Queste azioni possono portare a cambiamenti nel sistema climatico globale o locale.
  • cambi orbitali terrestri nella geometria terra-sole
  • cambi nell’intensità dell’attività solare, variazioni di radiazione solare (in particolare dipendente dalla latitudine) entrante l’atmosfera, cambi naturali di insolazione

La risposta dell’intero “sistema climatico” dipende dalle forzanti, dalle caratteristiche delle diverse sfere o componenti, dai cicli e meccanismi di retroazione o feedback. La Comprensione del sistema climatico come si può quindi immaginare è assai complessa e richiede l'interazione di molte discipline scientifiche diverse e di diversi approcci.

Ma qual è il ‘motore’ di questo sistema climatico? Il motore è il sole.

Tuttavia, non tutta la radiazione solare che entra nell’atmosfera partecipa alla dinamica del clima. Una parte di questa radiazione viene riflessa. La riflessione (albedo) dipende dalle caratteristiche locali della superficie terrestre: i ghiacci e la neve fresca sono molto riflettenti, mentre la vegetazione o il mare lo sono poco.

La rimanente radiazione è assorbita dall’atmosfera terrestre e riscalda la terra. Tuttavia i meccanismi non sono così semplici poiché vi sono altri contributi:

la superficie terrestre irradia verso lo spazio energia in forma di radiazione infrarossa (IR) (al di fuori dello spettro visibile); le nubi contribuiscono ad aumentare sia la radiazione solare che viene riflessa nello spazio, sia la radiazione terrestre emessa nell’IR che viene trattenuta in atmosfera anche dai cosiddetti gas serra, (biossido di carbonio, metano, fluorocarburi, …), che definiremo più avanti nel testo, che, intrappolando la radiazione IR emessa, riscaldano gli strati atmosferici più bassi e la superficie stessa.

Come appare quindi la distribuzione spaziale della RADIAZIONE SOLARE NETTA sulla superficie terrestre? Dai meccanismi sopra descritti si capisce come la radiazione solare netta assorbita dalla terra alla cima dell’atmosfera (misurata in W m-2) sia anti correlata all’albedo, risultando maggiore ai tropici per via del basso angolo zenitale solare e della maggior presenza degli oceani, e minore ad alte latitudini a causa della bassa insolazione, del grande angolo zenitale solare, della maggior presenza di nubi e ghiaccio. All’opposto la radiazione IR emessa dalla terra alla cima dell’atmosfera (sempre misurata in W m-2) è funzione della superficie terrestre (i.e. minimi valori ai poli, massimi valori sopra zone calde e secche come i deserti subtropicali) con aree equatoriali umide che emettono meno radiazione delle aree secche tropicali.

Conseguentemente il bilancio netto illustrato in Figura 3 mostra i valori annuali della radiazione netta a lunghezze d’onda corte (colore blu) e lunghe (colore rosso) dal polo sud al polo nord. Si vede che queste aree non hanno lo stesso valore. Da 0-35° di latitudine Nord e Sud, la radiazione solare entrante in atmosfera supera la radiazione uscente (i.e. la radiazione emessa dalla terra a lunghezze d’onda IR). Esiste quindi in queste zone un surplus di energia. Il contrario è invece vero a latitudini comprese tra 35-90° N ed S dove si osserva un deficit in energia. Nell’insieme, il surplus di energia a basse latitudini ed il deficit di energia ad alte latitudini, risulta in un trasporto di energia dall’equatore verso i poli. Il trasporto di energia avviene lungo i meridiani ed innesca la circolazione atmosferica e oceanica. Se questo trasporto non esistesse, i poli sarebbero 25°C più freddi, e l’equatore 14°C più caldo e la vita sul nostro pianeta non sarebbe possibile.

 
Figura 3: Distribuzione spaziale della radiazione solare netta sulla superficie terrestre misurata in W*m-2. In rosso valori positivi di surplus di energia all`equatore ed ai tropici; in blu, valori negativi con deficit di energia ai poli.

 

Le circolazioni atmosferiche ed oceaniche (processi di trasporto all’interno del sistema climatico) trasportano energia verso i poli e la distribuiscono attorno alla terra; esse agiscono quindi per compensare il surplus di radiazione netta presente nelle regioni equatoriali e tropicali ed il deficit nelle regioni polari, (Figura 3) riducendo in questo modo il gradiente di temperatura tra equatore e polo.

Quali sono i meccanismi attraverso i quali si realizza il TRASPORTO ATMOSFERICO?

I meccanismi della circolazione atmosferica differiscono a latitudini tropicali ed extratropicali (Walker, G. 2009). Ai tropici, la maggioranza del trasporto di calore atmosferico verso i poli è dato dalla circolazione di Hadley (vedi Figura 4), tipicamente convettiva che genera:

  • Moto ascendente vicino all’equatore
  • a 10 km di altezza dal suolo, vicino alla tropopausa, moto verso i poli 
  • Moto discendente nella zona subtropicale e
  • Flusso che ritorna verso l’equatore vicino alla superficie terrestre

 

All’opposto, a latitudini maggiori, il trasporto di energia è svolto da cicloni e anticicloni che fanno in modo che l’aria relativamente calda si muova verso i poli e l’aria fredda si muova verso l’equatore (Figura 4).

  
Figura 4: Schema della circolazione atmosferica con i meccanismi di trasporto dati dalla circolazione di Hadley (ai tropici) ed i meccanismi svolti da cicloni ed anticicloni nelle zone a latitudini maggiori.

 

L’altro grande processo globale di trasporto di energia e materia all’interno del sistema climatico è svolto dalla CIRCOLAZIONE OCEANICA. Le correnti oceaniche superficiali (calde che si muovono verso i poli) sono guidate da:

  • venti con schemi determinati dalla direzione del vento,
  • Forza di Coriolis
  • posizione dei continenti

Le correnti superficiali guidate dai venti (come la Corrente del Golfo) viaggiano verso i poli dall’oceano atlantico equatoriale, raffreddandosi lungo la strada ed infine “affondando” verso latitudini maggiori andando a formare così l’acqua profonda Nord Atlantica (cioè la North Atlantic Deep Water). L'acqua sprofonda, a queste latitudini, sia per la bassa temperatura, che per l'elevata salinità causata dalla formazione della banchisa (i.e. una massa di ghiaccio marino galleggiante di al massimo 3m che si forma per il congelamento dell'acqua dell'oceano). Questa acqua quindi densa fluirà nel fondo degli oceani.

La maggior parte di queste masse d’acqua, ritornerà in superficie negli Oceani a Sud poiché l'acqua di fondo, muovendosi verso l'equatore, interagirà con altre masse d’acqua diminuendo così la propria densità. Invece, le acque più vecchie e profonde ritorneranno in superficie (con un tempo di transito di circa 1000 anni) nel Nord Pacifico come rappresentato in Figura 5. Lungo il loro viaggio, le masse d’acqua trasportano sia energia (in forma di calore) che materia (solidi, sostanze disciolte e gas) attorno al globo. In questo modo, lo stato della circolazione ha un grande impatto sul clima terrestre. Si intuisce quindi che le correnti oceaniche profonde, caratterizzate da tempi scala molto lunghi, da decine a migliaia di anni, sono guidate dalla circolazione Termoalina cioè dalla variazione nella densità dell’acqua marina, densità che varia appunto come dice il termine (termoalina) in funzione di temperatura e salinità.

 
Figura 5: Schema della circolazione oceanica con l`esteso “nastro trasportatore” della circolazione termoalina.

 

Giunti a questo punto ci si potrebbe chiedere quale potrebbe essere l’effetto sull’intero sistema climatico se ad esempio il ghiaccio della banchisa si sciogliesse magari per effetto dei cambiamenti climatici. La risposta a questa domanda richiede l’introduzione di un altro concetto che ritorna spesso quando si parla di clima e di cambiamenti climatici e cioè il concetto di retroazione o feedback. Un feedback è Un meccanismo di interazione tra i processi nel sistema climatico in cui il risultato di un processo iniziale innesca cambiamenti in un secondo processo che a sua volta influenza quella iniziale (IPCC WGII AR5 2014, Glossary).

Un meccanismo che mentre avviene un cambiamento iniziale in un processo, tenderà a rinforzare il cambiamento è un feedback positivo, se invece tenderà ad indebolire lo stesso è un feedback negativo.

 
Figura 6: Esempi di meccanismi di retroazione o feedback positivo con effetti diversi in termini di impatto climatico.

 

Ritornando all’esempio della banchisa, sebbene sottile, la superficie assai riflettente, contribuisce di molto all’albedo terrestre cioè alla radiazione solare riflessa nello spazio. Quindi se la banchisa si sciogliesse, ciò comporterebbe una minor riflessione dei raggi solari con effetto di feedback positivo che aumenterebbe il riscaldamento (Figura 6a)

 

All'opposto durante un raffreddamento climatico con conseguente aumento dei ghiacci, si avrebbe una maggiore albedo e quindi riflessione; ciò farebbe diminuire la temperatura con effetto di feedback positivo e conseguente ulteriore aumento dei ghiacci (Figura 6b).

Parlando del sistema climatico abbiamo distinto in Figura 2 tra interazioni interne tra le sue componenti, di cui abbiamo già parlato, e forzanti esterne. Una volta che si applica una forzante esterna, i feedback interni complessi determinano la risposta finale del sistema climatico, in termini di riscaldamento o raffreddamento, che differiscono da una semplice risposta lineare. Qual è quindi la forzante esterna più importante per il nostro sistema climatico? La FORZANTE ESTERNA più importante è la luce solare che fornisce una fonte di energia “costante”. Il bilancio radiativo terrestre è la relazione tra l’energia proveniente dal sole in atmosfera e quella uscente. Se il risultato è positivo, ci sarà del riscaldamento, se il risultato è negativo ci sarà del raffreddamento. Oltre alla forzante solare, altre forzanti naturali e antropiche che possono indurre un cambiamento climatico sono: i vulcani, gli aerosols, i gas cosiddetti serra. E’ tuttavia complesso calcolare il bilancio radiativo terrestre poiché questi fattori hanno ognuno la propria incertezza. Ad esempio, le particelle AEROSOLS, affliggono il bilancio radiativo in maniera complessa. Possono avere un effetto di interazione diretto con la radiazione solare che può causare sia raffreddamento che riscaldamento. Nel caso di aerosol solfati, chiari e brillanti, questi riflettono la radiazione solare, diminuendo la radiazione incidente con conseguente effetto di raffreddamento della superficie terrestre; nel caso invece di aerosol scuri, come ad esempio la cenere, questi assorbono la radiazione solare provocando riscaldamento. Spesso questi aerosol sono di origine antropica, emessi da veicoli ed incendi boschivi ed eiettati in troposfera. Aerosol di origine antropica (derivanti da inquinamento antropico) possono avere anche un effetto indiretto poiché possono agire come nuclei di condensazione nella formazione di nubi. Questo porta ad accrescere l’effetto albedo delle nubi che appaiono più riflettenti, bianche e grandi portando ad un raffreddamento di -0.3 and -1.8 Wm−2.

Tuttavia rimane il sole il principale “motore” che determina il clima. Lo studio dell’interazione tra attività solare e variazioni climatiche terrestri ha portato all’osservazione dell’attività sulla superficie del sole e alla misurazione, fin dal 1700, del numero di macchie che apparivano sulla sua superficie. Successivamente si è scoperta la periodicità della comparsa di queste macchie in un ciclo di 11 anni. Il clima è influenzato dal numero medio annuo delle Macchie Solari. Si stima che le fluttuazioni normali dovute ai cicli solari aumentino o diminuiscano la radiazione solare che raggiunge la terra di circa 0.1-0.2 %. Nei periodi in cui l’attività solare è stata minima, vi è stato una maggiore frequenza di eventi estremi quali inverni molto rigidi come durante la Piccola Età Glaciale (nota come Little Ice Age) che ha compreso tre periodi minimi di attività solare (Camuffo et al. 2014): il minimo di Spoerer (1416-1534), il minimo di Maunder (1645-1715) ed il minimo di Dalton (1800-1830).

Altri fattori Astronomici che modificano l’irraggiamento solare sulla Terra sono costituiti dalle forzanti orbitali, descritti da Milankovich nella sua Teoria (Zachos et al. 2001). In questo caso, i cambiamenti climatici sono dovuti alla variazione di parametri orbitali nei moti terrestri, quali: eccentricità, inclinazione dell’asse terrestre, e precessione dell’orbita terrestre.

ECCENTRICITÀ: L’effetto del cambiamento dell’eccentricità dell’orbita terrestre (nel tempo, l'eccentricità dell'orbita terrestre varia lentamente) è su lungo termine con periodo dominante di 100000 anni ed è una delle cause che contribuiscono all’alternanza delle glaciazioni poiché influenza l’apporto solare variando la forma dell’orbita terrestre. Infatti, a seconda dell'eccentricità dell'orbita, la massima distanza terra-sole e quella minima possono essere più o meno differenti dalla distanza media, rispettivamente 152,1 milioni di km (2,5 milioni di km più della sua distanza media) all’afelio (dal greco αφήλιον, da από, apò = "lontano" e ήλιος, èlios = "sole") e 147 milioni di chilometri dal Sole, (2,5 milioni di chilometri meno della distanza media) al perielio (dal greco perì = intorno, helios = sole).

L'eccentricità dell'orbita della Terra oggi è 0,0167. Nel tempo, varia e passa da quasi 0 a circa 0,05 come risultato dell'attrazione gravitazionale con gli altri pianeti. Quando l’eccentricità è prossima allo 0, l’orbita è circolare e mantiene la Terra sempre alla stessa distanza dal Sole; quando invece l’eccentricità aumenta a valori compresi tra 0 e 1, l’orbita ellittica la fa alternativamente avvicinare e allontanare dal sole, variando la quantità di radiazione in arrivo sulla Terra.

L’INCLINAZIONE DELL’ASSE TERRESTRE: La pendenza dell’asse di rotazione terrestre, cambia la radiazione solare che raggiunge la Terra e permette l’alternarsi delle 4 stagioni. Tuttavia, l’angolo di inclinazione dell’asse terrestre non è costante nel tempo e cambia con un periodo di circa 41000 anni. Con minor inclinazione dell’asse terrestre le regioni polari ricevono meno energia dal Sole, mentre, con un’inclinazione maggiore, l’aumentano. Quindi questo tipo di variazione ha un grande impatto alle alte latitudini (poli) ed un impatto minore ai tropici.

LA PRECESSIONE DEGLI EQUINOZI: L’attrazione gravitazionale della luna e del sole tende a modificare la direzione dell’asse di rotazione terrestre e l’esposizione ai raggi solari nei due emisferi e nelle 4 stagioni. Il risultato di questo effetto combinato sulla distanza dal Sole e l’inclinazione dell’asse terrestre può accrescere o ridurre la stagionalità. Il periodo di precessione varia tra 19000 e 23000 anni. La sommatoria di tutti questi effetti può aiutare a spiegare le variazioni del clima terrestre causate dalla forzante solare come ad esempio gli stadi delle glaciazioni rappresentate in Figura 7.

 
Figura 7: La sommatoria di tutti gli effetti dei cambiamenti delle forzanti orbitali terrestri aiutano a spiegare le variazioni del clima terrestre causate dalla forzante solare come ad esempio gli stadi delle glaciazioni.

 

Un'altra forzante esterna naturale è costituita dalle ERUZIONI VULCANICHE. Durante le eruzioni vulcaniche sono rilasciate una grande quantità di gas (vapor acqueo, anidride carbonica e diossido di zolfo) e particelle solide iniettate in atmosfera fino alla stratosfera (i.e. lo strato di atmosfera che si trova al di sopra la tropopausa ad una altezza tra i 12 ed i 50 chilometri). Le particelle solide come la cenere vulcanica cadono rapidamente a causa delle proprie dimensioni e massa, quindi grandi volumi di ceneri bloccano la radiazione solare entrante ma l’effetto è meno significativo in termini di impatto sul sistema climatico poiché è a più breve termine.

I gas invece sono quelli che forzano maggiormente la risposta del sistema climatico. Il vapor acqueo e l’anidride carbonica non cambiano di molto i livelli ambientali. Invece il gas solforoso SO2, in combinazione con l’acqua, forma acido solforico che poi condensa su particelle per formare aerosol di solfati. Gli aerosol solfati sono chiari e riflettono la radiazione incidente quindi aumentano la brillantezza (albedo) delle nubi riducendo la radiazione solare che raggiunge la terra e causando in questo modo una grande perturbazione nella radiazione solare netta. Gli aerosol nella stratosfera, che bloccano all’esterno la radiazione solare, richiedono un tempo di deposizione maggiore.

Ad esempio, grandi eruzioni come quelle del monte Pinatubo sono state collegate a significanti episodi di raffreddamento del clima terrestre. Tre mesi dopo l’eruzione di questo vulcano nelle Filippine, evento accaduto in giugno 1991, gran parte dei 20 milioni di tonnellate di biossido di zolfo, espulse, si erano dirette grazie ai venti zonali stratosferici e depositate verso le regioni equatoriali.

Cambi nelle temperature registrate nei secoli passati indicano le influenze delle eruzioni vulcaniche sul clima. Un esempio di cui si parlerà in questi Atti è l’anno 1816, definito l’anno senza estate (anno in cui Mary Shelley scrisse Frankenstein), anno in cui si ebbero abbondanti nevicate e gelate in giugno in centro Europa. Questi eventi climatici coincisero con il periodo successivo alla massiccia eruzione vulcanica del vulcano Tambora.

Tra le FORZANTI ANTROPICHE invece vi sono i Gas cosiddetti serra. Che cos’è quindi l’effetto serra? Dai concetti esposti fino adora abbiamo compreso come i raggi solari riscaldino la superficie della Terra e come a sua volta, la Terra irradi energia nuovamente verso lo spazio nelle lunghezze d’onda IR. L’atmosfera terrestre è trasparente alla luce visibile ma non completamente all’ infrarosso. Infatti i gas atmosferici cosiddetti serra o Greenhouse Gases (i.e. vapor acqueo H20, anidride carbonica CO2, Ossido di diazoto N2O, metano CH4, ozono 03, Clorofluorocarburi CfC…) intrappolano parte dell'energia uscente, conservandone il calore, comportandosi proprio come i vetri di una serra. Senza questo "effetto serra naturale", le temperature sarebbero più basse, di 33°C, rispetto quelle attuali e la nostra vita non sarebbe possibile. Invece, grazie ai gas serra di origine naturale, la temperatura media della Terra è di 15,5°C anziché -18°C. Nonostante quindi le piccole concentrazioni, CO2, vapor acqueo e metano sono componenti fondamentali per l’equilibrio radiativo del sistema climatico poiché intrappolano la radiazione infrarossa rimettendola nuovamente nell’intervallo termico infrarosso portando così ad un riscaldamento.

Tuttavia oggi si sente parlare di GAS SERRA con accezione negativa: per quale ragione? Quando si sente parlare di gas serra inoltre si sente parlare spesso di anidride carbonica che è una sostanza fondamentale nei processi vitali delle piante e degli animali ed è indispensabile per la vita e per la fotosintesi delle piante, ma è anche responsabile dell'aumento dell'effetto serra e del riscaldamento cosiddetto globale. Si ipotizza che la concentrazione atmosferica di diossido di carbonio prima della rivoluzione industriale fosse 280 parti per milione in volume (ppmv), e che quindi la sua concentrazione sia aumentata fino a 390 ppmv nel 2010. La causa di tale aumento è da ricercarsi nell’uso intensivo di combustibili fossili (carbone, petrolio) nelle economie mondiali e nella deforestazione. https://it.wikipedia.org/wiki/Anidride_carbonica - cite_note-8 Tuttavia come abbiamo visto la CO2 non è il solo gas serra; il vapor acqueo è infatti il più importante gas serra in termini di contributo all’effetto naturale (circa il 60%). Circa il 99.13% di questo gas è contenuto nella troposfera (i.e. i primi 10 km di strato atmosferico al di sopra della superficie terrestre). La condensazione del vapor acqueo in fase liquida o solida (sotto forma di ghiaccio) è responsabile per l’idrosfera e la criosfera. Infine a titolo esemplificativo, l’altro gas serra che spesso si sente citato e che può essere ancora una volta sia di origine naturale che antropica è il metano. Il metano è un gas serra presente nell'atmosfera terrestre in concentrazioni molto inferiori a quelle della CO2.

Le principali fonti di emissione di metano nell'atmosfera sono:

  • decomposizione di rifiuti solidi urbani nelle discariche
  • fonti naturali (paludi): 23%
  • estrazione da combustibili fossili: 20%
  • processo di digestione degli animali (bestiame): 17%
  • batteri trovati nelle risaie: 12%
  • riscaldamento o digestione anaerobica delle biomasse.

Tra il 60% e l'80% delle emissioni mondiali di questo gas è di origine umana, derivanti principalmente da miniere di carbone, discariche, attività petrolifere, gasdotti e agricoltura.

La sua concentrazione in atmosfera è aumentata da 700 ppb (parti per miliardo) nel periodo 1000-1750 a 1.750 ppb nel 2000, con un incremento del 150%.

 

CONCLUSIONI:

La comprensione del sistema climatico è assai complessa, richiede l'interazione di molte discipline scientifiche e di diversi approcci. Ancora molti aspetti rimangono da studiare approfonditamente per migliorare l’attendibilità degli scenari futuri in termini di determinazione della variabilità climatica, di stima dell’incremento delle temperature e delle relative incertezze così da migliorare le proiezioni e la conseguente comprensione dei rischi e degli impatti del clima sulla società.

Punti chiave in cui migliorare la comprensione e modellizzazione riguardano:

- gli aspetti degli scambi atmosfera – oceani;

- gli aspetti della dinamica della turbolenza; la convezione atmosferica infatti è un classico esempio di fenomeno fisico che un modello climatico ha dei limiti a simulare, poiché intense correnti ascensionali convettive hanno dimensione orizzontale di pochi km e non possono essere adeguatamente risolte dai modelli;

- gli aspetti dello studio delle interazioni (e delle conseguenti propagazioni di incertezze) attraverso le scale globale (Global Climate Model) e regionale (Regional Climate Model);

- gli aspetti nella rappresentazione fisico-matematica delle interazioni delle componenti interne al Sistema Climatico (i.e. meccanismi di retroazione o feedback) al fine di ottenere livelli di confidenza maggiori nelle proiezioni climatiche future ed infine la comprensione degli effetti degli aerosol sul clima.

 

 

BIBLIOGRAFIA:

Camuffo, D., Bertolin, C., Schenal, P., Craievich, A. and R. Granziero. 2014. The Little Ice Age in Italy from documentary proxies and early instrumental records. Journal of Mediterranean Geography 122 : 17-20.

IPCC WG I AR5. 2013. Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. “Climate Change 2013: the physical science basis” Edited by Stocker F.T., Qin, D., Plattner, G-K. Tignor, M., Allen, S., Boschung, J., Nauels, A.,  Xia Y., Bex, V. and P. Midgley. Cambridge University Press.

IPCC WGII AR5 Glossary. 2014. Glossary of Terms used in IPCC Fifth Assessment Report 2014.

Walker, G. "Un oceano d'aria" - ed. codice, 2009, op. cit. p.102

Zachos, J.C., Shackleton, N.J., Revenaugh, J.S., Palike,H. and B. P. Flower. 2001 Climate Response to Orbital Forcing Across the Oligocene-Miocene Boundary. Science, 292, 5515: 274-278. DOI: 10.1126/science.1058288

 

 

IL CLIMA DELL’ULTIMO MILLENNIO: METODI, CERTEZZE E INCERTEZZE

Dario Camuffo

CNR, Istituto di Scienze dell’Atmosfera e del Clima, Padova

La nostra conoscenza del clima si basa su osservazioni oggettive dirette e indirette. Le osservazioni sono alla base di ogni ipotesi: dei meccanismi e delle relazioni tra le cause forzanti e gli effetti che regolano le vicende del clima; delle equazioni che le descrivono l’evoluzione; dello sviluppo, della taratura e della verifica dei modelli di simulazione numerica che hanno lo scopo di chiarire e sviluppare interpretazioni e previsioni a seconda dei parametri scelti o delle supposizioni che possono venire avanzate. Le osservazioni dirette sono di tipo strumentale, e costituiscono l’informazione più precisa. In assenza di misure strumentali dirette si possono utilizzare indicatori indiretti sostitutivi, chiamati “proxy” (che significa “dati per procura”). Vi sono vari tipi di osservazioni indirette, che possono derivare da archivi naturali (es. anelli di crescita degli alberi (dendrocronologia), il ritiro dei ghiacciai, il livello di corpi d’acqua) o documentari (es. fonti scritte, arti visive). Le documentazioni scritte sono costituite da dati d’archivio con descrizione di fenomeni e del loro impatto, cronache, diari ecc. Particolari rappresentazioni pittoriche eseguite con la “camera oscura” possono essere usate per ricostruire il livello del mare a Venezia (Veronese, Canaletto, Bellotto), o documentare il congelamento di fiumi e della laguna veneta. I dati di tipo Proxy possono sostituire le osservazioni strumentali purché siano suffragati da fattori valutabili oggettivamente come a es. l’impatto sull’ambiente o sulla società. Le ricostruzioni climatiche su lungo periodo si basano necessariamente sulla combinazione di osservazioni strumentali e di proxy di vario tipo. Tuttavia, occorre tener presente che tutte le osservazioni, dirette e indirette, sono affette da incertezze (errori) di vario tipo, con bande d’incertezze variabili col tempo e con l’osservatore, e molto spesso sottovalutate. Lo scopo di questo intervento è di illustrare il problema con qualche esempio.

Le osservazioni strumentali dirette
Le osservazioni dirette sono di tipo strumentale, e le prime in assoluto risalgono alla Rete del Granduca di Toscana, dal 1654 al 1570 cui si deve l’invenzione del termometro a liquido e l’istituzione della prima rete internazionale di misura, con osservazioni omogenee secondo un preciso protocollo di misura, e effettuate a intervalli regolari sia di giorno che di notte (Camuffo e Bertolin, 2013). I termometri fiorentini erano identici fra loro, con la stessa scala. Erano costruiti interamente in vetro, a parte il liquido sensibile (alcol) e potevano resistere alle intemperie. Alcuni di questi termometri, del tipo noto come “Piccolo Termometro Fiorentino” continuarono ad essere usati come nella serie di Parigi (Builleau) o per la determinazione sperimentale delle leggi dei gas (Boyle).
Dopo il periodo critico determinato dal processo di Galileo e la persecuzione da parte dell’Inquisizione degli Accademici del Cimento e delle osservazioni meteorologiche in generale, in Italia le serie meteorologiche ripresero timidamente dopo la prima decade del XVIII secolo. Una di queste importanti serie è quella di Padova, iniziata da Giovanni Poleni nel 1716, e poi regolarmente nel 1725 (Camuffo e Jones, 2002), e protratta sino a oggi (Fig.1).


Fig.1 Temperatura media annua nell’Emisfero Nord (in alto, dati IPCC 2007) e a Padova. La linea spessa costituisce la media mobile su 11 anni. I dati sono espresso in termini di “anomalia”, vale a dire di differenza rispetto al period di riferimento 1961/90.

Dopo il primo successo delle misure meteorologiche, l’elevato costo di strumenti di buona qualità causarono una svolta: dalla seconda metà del 1600 alla fine del 1700 le misure vennero per la maggior parte effettuate all’interno degli edifici o con brevi esposizioni manuali all’aperto in quanto i termometri erano basati su una tecnologia povera che non resisteva all’aperto, soprattutto perché i tubicini in vetro erano fissati con fil di ferro su tavolette di legno che si deformava con l’umidità ambiente. A questo contribuì anche il fatto che le persone vivevano in case malsane e le misure climatiche indoor erano considerate importanti ai fini della salute pubblica. Tuttavia, dalle origini al 1860 i dati sono generalmente scarsi e con varie interruzioni.
Nel 1860 George Biddel Airy (dell’Osservatorio di Greenwich Observatory) e Urbain Jean-Joseph Le Verrier (dell’Osservatorio di Parigi) stabilirono la prima collaborazione internazionale per la previsione delle tempeste. Nel 1873, sotto la direzione di Christoph Buys Ballot, fu fondato il Comitato Meteorologico Internazionale che coordinò l’azione dei vari servizi meteorologici nazionali da poco istituiti. Nel 1950, il Comitato divenne l’Organizzazione Meteorologica Mondiale formata da 160 paesi membri, sotto la direzione delle Nazioni Unite (WMO, 2009).
Nel corso dei secoli si sono via via sviluppati la conoscenza della meteorologia, la costruzione degli strumenti tradizionali o le misure da satellite, i protocolli e le modalità di osservazione. Queste vicende hanno introdotto forti discontinuità nella risposta strumentale, nell’esposizione o negli schermi applicati agli strumenti, nell’effettuare la lettura e la media delle osservazioni, cambiando punto di misura, livello rispetto al suolo, alterando le caratteristiche fisiche dell’ambiente attorno alla stazione mete, e passando da città a aperta campagna. Occorre ricordare che il termometro misura la temperatura del proprio bulbo. Non è detto che questo sia esattamente rappresentativo della temperatura dell’aria. Siamo noi che assumiamo lo sia, prendendo qualche precauzione contro i fattori di disturbo, come raccomandato da guide internazionali (WMO, 2008).
Il problema non va riferito solo alle prime osservazioni pionieristiche, ma anche in tempi relativamente moderni, quando lo sviluppo della tecnologia o il cambiamento di protocolli per le osservazioni ha introdotto deviazioni anche consistenti ai valori medi delle variabili osservate, con effetto simultaneo su tutte le stazioni (Camuffo e Jones, 2002). Per esempio, nel coso del tempo la media venne effettuata in modi diversi: media fra gli estremi (semisomma tra Min e Max (Fig.2a); tra due letture di cui una al mattino e una a mezzogiorno o di primo pomeriggio, poi 3 letture: mattina pomeriggio e sera, poi 4 letture intervallate (Fig.2b), poi 24 letture, infine la registrazione continua. L’indicazione di quando fare le letture e come fare le medie venivano date dalle autorità competenti a livello nazionale o internazionale. Ogni cambiamento di protocollo ha le stesse apparenze di un forte cambiamento climatico.


Fig.2 (a): Errore per le medie di temperatura giornaliera a Padova calcolate come (Tmax+Tmin)/2, come frequentemente in uso nel XVII e nel XVIII secolo. (b): Errore per le medie di temperatura giornaliera a Padova (per una stazioncina a 2 m e una a 10 m) basate su tre osservazioni alle ore 8, 14, 20, come prescritto dall’Ufficio Centrale di Meteorologia e Geodinamica, Roma, nel periodo tra il 1868 e il 1920.

Lo schermo termometrico, necessario per riparare i termometri dalla radiazione solare diretta era inizialmente assente e ha avuto la sua evoluzione. La prima notizia di consapevolezza di uno schermo risale a un’osservazione di Toaldo a Padova, nel 1785. Gli schermi cominciarono a essere usati verso il 1830, e divennero d’obbligo a partire dal 1860 (Middleton, 1966). La capannina standard bianca a gelosie in legno, nota come Stevenson Screen, può causare un surriscaldamento di +1.5°C di giorno e un raffreddamento di -0.5°C di notte (Cicala A., 1970). In casi di assenza di vento e forte insolazione il surriscaldamento può giungere a +2.5°C (WMO, 2008). Durante i temporali estivi lo schermo che si bagna e evapora può abbassare la temperatura di vari gradi sino a raggiungere il livello di bulbo bagnato. I moderni schermi a dischetti metallici o in PVC sovrapposti danno una risposta ancora diversa. Vanno evitate le perturbazioni da corpi vicini e l’influenza del suolo (va posto su un prato ad erba verde, a 2 m d’altezza, lontano da edifici, piante o altri oggetti di grandi dimensioni). Una capannina posta a un’altezza diversa sopra un terreno brullo o uno spiazzo pavimentato darà indicazioni fortemente diverse da quelle standard.
La taratura dei termometri è sempre stato un punto delicato e carente, specie agli inizi della meteorologia. Per oltre un secolo solo il sensore veniva immerso nel ghiaccio o nel vapore, lasciando il cannello in condizioni termiche diverse. I punti riferimento erano incerti e non realizzati a pressione standard, il che poteva generare un errore di ±1°C per la scala Celsius o anche ±5°C per la Fahrenheit. Importanti errori erano dovuti alla non-linearità dell’espansione dei fluidi. I gradi intermedi tra i punti fissi erano calcolati per interpolazione lineare; il problema era trascurabile per i termometri a mercurio, ma non per quelli ad alcol dove l’errore di linearità è molto forte (raggiunge -2°C a 20°C temperatura ambiente), come riportato in tabella .

Tabella I: deviazione dalla linearità di un termometro a a mercurio (Hg) e uno ad alcol.

L’idea di tarare il termometro Fahrenheit con la temperatura corporea (32°C) come punto superiore, ispirata a Santorio, non era malvagia: nei paesi dell’Europa settentrionale, il limite superiore era quello realistico della temperatura estiva. L’errore di non-linearità scendendo dal punto di ebollizione dell’acqua sarebbe stato senz’altro superiore.

I proxy: le osservazioni indirette
I dati proxy, specie quelli di natura documentaria-archivistica, sono per loro natura qualitativi. Per essere utilizzati devono essere trasformati in indici numerici e, grazie a periodi con simultanea presenza di osservazioni strumentali e osservazioni proxy è possibile tarare la scala e attribuire un valore quantitativo a dei dati che inizialmente ne avevano uno qualitativo soltanto. Tuttavia, anche i proxy sono affetti da limiti e incertezze. Ad esempio i dati documentari scritti e la dendrocronologia sono molto utili a decifrare le fluttuazioni e la variabilità sul breve periodo, ma non i trend. Altri hanno invece caratteristiche opposte.
Tipicamente, i dati proxy danno un’informazione qualitativa o un’indicazione classificabile quantitativamente (indice) che può essere trasformato in unità meteorologiche moderne. In questo caso l’indice proxy deve essere calibrato con le moderne osservazioni strumentali per dare una ricostruzione quantitativa del clima passato (Camuffo et al., 2013). La classificazione degli eventi viene fatta attribuendo 7 livelli di severità compresi tra ±3. Il livello Zero (0), per definizione, è quello più ricorrente (cioè la moda) che al tempo della scrittura era (soggettivamente) considerato il più normale e pertanto non faceva notizia. Più che da informazioni dirette, si ricava dall’assenza di informazione. Poiché il livello di base 0 è soggettivo e legato all’esperienza del testimone, non è possibile determinare trend o cambiamenti sul lungo periodo. I livelli ±1 e ±2 sono livelli di severità intermedia. L’estremo superiore +3 è costituito da casi di eccesso eccezionale e ben documentato (esempio: caldo) e -3 è il caso opposto (es. freddo estremo). Per ogni indice si applica un criterio basato sulle distribuzione delle frequenze che corrisponda alle osservazioni strumentali, come per es. la distribuzione percentile. Per rendere più semplice l’esemplificazione, la temperatura (non la precipitazione!) segue una distribuzione Gaussiana, centrata sulla media e simmetrica. Una Gaussiana può essere definita in termini di deviazione standard (DS) e di popolazione geometrica. Se si classificano le osservazioni strumentali e i dati proxy in termini di classi di severità, ogni classe è compresa negli intervalli di popolazione ±0.5 DS, ±1 DS, ±2 DS e valori esterni a ±2 DS, come rappresentato in Fig.3.


Fig. 3. Come passare da indice a unità moderne: confronto tra la distribuzione delle osservazioni indicizzate in classi di severità (istogrammi), e l’analoga distribuzione delle classi per una distribuzione Gaussiana.

Per passare da un indice descrittivo a unità moderne (per esempio una temperatura espressa in °C), occorre passare attraverso quattro fasi operative, come segue (Fig.4).
(i) Periodo comune: E’ necessario disporre di dati proxy e osservazioni strumentali per un periodo in comune. Gli oggetti contenuti nell’intervallo comune delle due serie devono coincidere perché rappresentano gli stessi eventi, solo che sono espressi in unità diverse.
(ii) Calibrazione: I valori delle osservazioni strumentali (espresse in °C) vengono attribuiti ai valori proxy corrispondenti, rendendo in chiaro i valori che appartengono alle classi ±0.5 DS, ±1 DS, ±2 DS, <±2 DS<
(iii) Validazione: Una volta che l’esercizio di calibrazione sia stato fatto su un periodo comune, la metodologia deve essere verificata su un altro periodo indipendente comune facendo l’esercizio inverso: ricreando i dati strumentali partendo dai proxy.
(iv) Estensione. Se il risultato della verifica è stato positivo, il risultato della calibrazione viene esteso alla parte precedente della serie di dati proxy.

Fig.4. Schema di come una serie proxy (rosso) e una strumentale (blu) vengono confrontate in un loro periodo comune, per realizzare la calibrazione della serie proxy e verificare la bontà dell’operazione (validazione). La freccia nera in basso indica lo scorrere del tempo.
La metodologia presuppone omogeneità fra tutti i dati di ogni serie Proxy. Questa è una necessità, ma anche una distorsione dello spirito delle fonti. In genere, possiamo avere dei periodi comuni nel 1700, nel 1800 o nel 1900. Ma estendere il risultato di una calibrazione fatta nell’illuminismo o in età moderna a quanto scriveva un uomo del medioevo, è una forzatura che introduce un margine di incertezza (=errore) all’interpretazione di quanto scritto.
Anche i dati proxy soffrono di ben determinati limiti. Il livello Zero di base è soggettivo e legato all’esperienza del testimone. Pertanto non è possibile determinare trend o cambiamenti sul lungo periodo. Si prestano a evidenziare i cambiamenti brevi, o interannuali, ma la linea di base è necessariamente piatta (Fig.5) a meno che non si ricorra all’artificio di trasformare le frequenze in ampiezza. Ma questo altera profondamente la realtà delle cose.


Fig.5 Differenza tra i valori stagionali della temperatura in Italia centro-settentrionale ricostruiti tra il 1500 e il 1800 e il periodo di riferimento 1961/90. Tale differenza è chiamata “anomalia”. La linea spessa costituisce la media mobile su 11 anni e in presenza di picchi si discosta dal valore di base 0. Essa costituisce un filtro matematico dei picchi e non sostituisce l’andamento temporale che rimane a livello indeterminato.

I dati proxy sono affetti da un ampio margine di incertezza. Le condizioni dell’ambiente e delle tecnologie del passato sono diverse rispetto a quelle moderne. Questo costituisce una difficoltà nel confrontare l’intensità degli eventi sulla base degli effetti provocati. Un esempio con le precipitazioni. Si hanno notizie di nevicate abbondanti che hanno fatto crollare il tetti. La stima della quantità di neve caduta cambia con la solidità e la pendenza del tetto, specie quando il problema si riscontra in zone in cui la neve non è troppo frequente. Si può supporre che le esondazioni dei fiumi siano un indice di piogge intense, ma ogniqualvolta si sono rinforzati o alzati gli argini dei fiumi, le esondazioni sono diminuite. Quando nel medioevo il territorio era abbandonato a sé stesso e i fiumi erano contornati da paludi, una piena non cambiava gran che le cose e non veniva in alcun modo registrata. Quando sono stati costruiti centri abitati attorno ai fiumi, ogni esondazione causava danni irreparabili e entrava nella tradizione. Quando furono introdotti i mulini a acqua su zattere galleggianti ancorate a pali infissi nel letto del fiume, questi riducevano fortemente la portata e favorivano le esondazioni. Supponiamo che tra qualche secolo vengano persi i dati pluviometrici e che qualcuno voglia ricostruire l’intensità delle piogge dalla frequenza e dalla severità dei danni dovuti alle esondazioni: Pioggia = F(esondazioni). Costui cercherà e raccoglierà tutte le notizie scritte, e classificherà i fenomeni in ordine crescente basandosi sugli effetti sul territorio e sulla società presupponendo una semplice legge di progressione parallela tra causa e effetto. Se però scoprirà che delle esondazioni sono state peggiorate o causate da abusivismo edilizio condonato, da mancata manutenzione degli argini e del territorio, da cementificazione ecc., questo metterà in crisi la relazione “naturale” tra quantità di precipitazione necessaria per produrre esondazioni, estensione dell’area allagata e danno causato.
Conclusioni
Si è visto che il problema non è solo raccogliere i dati, ma effettuarne un’accurata correzione, omogeneizzazione e validazione per darne un’interpretazione corretta che sarà però affetta da certi limiti di incertezza che vanno chiaramente definiti e indicati. In mancanza di questo si rischia di interpretare come segnale climatico quanto è semplicemente un errore strumentale o un cambiamento nelle modalità operative o nell’ambiente.
Non è semplice disporre di lunghe serie omogenee e corrette, e l’incertezza aumenta con l’allontanarsi nel tempo. Purtroppo la ricerca in tale campo non è incoraggiata.
La precisione dei dati strumentali viene troppo spesso sopravvalutata e le disomogeneità intrinseche non sono sempre adeguatamente rimosse. I cambiamenti della tecnologia e dei protocolli di misura hanno influito sulle misure e questo è avvenuto simultaneamente su tutte le stazioni interessate, presentandosi con la veste di un cambiamento climatico. Il rischio di accontentarsi dei dati “disponibili” è di scambiare per segnale climatico quello che in realtà è una discontinuità o un errore.
Modelli matematici e osservazioni stanno indicando la tendenza al riscaldamento globale. La lezione del passato è che la situazione reale sia più complessa di quanto generalmente si creda.
In pratica, le osservazioni dirette e indirette ci danno alcune certezze, tra cui anche quella che dobbiamo tenere ben presente dei forti limiti di incertezza, a volte superiore a quanto venga generalmente creduto dai non specialisti in materia. La conoscenza scientifica ha, e deve avere, coscienza dei propri limiti e delle incertezze delle osservazioni e delle simulazioni. Tuttavia, la posta in gioco suggerisce di adottare prudenza. Il problema si sposta dal piano scientifico a quello politico, dell’opportunità e del buon senso.

 

Riferimenti bibliografici
Camuffo, D. e Bertolin, C., 2013: The world’s earliest instrumental temperature records, from 1632 to 1648, claimed by G. Libri, are reality or myth? Climatic Change, 119 (3-4), 647-657. DOI 10.1007/s10584-013-0742-3
Camuffo, D., e Jones, P. (editors), 2002: Improved Understanding of Past Climatic Variability from Early Daily European Instrumental Sources. Kluwer Academic Publishers, Dordrecht, Boston, London, 392 pp.
Camuffo, D., Bertolin, C., Diodato, N., Barriendos, M., Cocheo, C., Enzi, S., Sghedoni, M., E. Garnier, · M.-J. Alcoforado and · J. Luterbacher, 2011: Climate Change in the Mediterranean over the last five hundred years. Chapter 1, pp 1-26, in Elias Carayannis (Ed.) "Planet Earth 2011 - Global Warming Challenges and Opportunities for Policy and Practice", InTech - Open Access Publisher, Rijeka, Croatia .ISBN 978-953-307-733-8,
Cicala A., 1970: Meteorologia e strumenti. Levrotto & Bella, Torino.
IPCC, 2007: Climate change 2007: the physical science basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. In: Solomon, S., Qin, D., Manning, M., Chen, Z., Marquis, M., Averyt, K.B., Tignor, M., Miller, H.L. (Eds.), Cambridge University Press, Cambridge, UK.
Middleton, K.W.E. 1966: A history of the Thermometer and its use in Meteorology. J. Hopkins Press, Baltimore, USA.
WMO, 2008: Guide to meteorological instruments and methods of observation. WMO-8 8 1-681, World Meteorological Organization, Geneva.
WMO, 2009: World Meteorological Organization at a glance. WMO, Geneva

 

 

CARATTERISTICHE ED ANDAMENTO CLIMATICO NEL VENETO

Dr. Marco Monai – Dr. Francesco Rech
ARPAV- Servizio Meteorologico

1 - Premessa
Il Veneto presenta caratteristiche climatiche peculiari data la sua collocazione e conformazione geografica. La distribuzione spaziale e temporale di precipitazioni e temperature risente fortemente del contributo di fattori locali.
Nel seguito ci si sofferma su tali peculiarità, nonché si evidenziano alcuni trend evolutivi che risultano, invero, ben definiti per quanto attiene alle temperature e assai meno chiari a riguardo delle precipitazioni.
Nell’ultima parte si trattano alcuni eventi meteorologici particolari verificatisi negli anni più recenti.
2 - Le Precipitazioni nel Veneto
La figura 1 rappresenta la distribuzione spaziale, sul territorio della regione Veneto, della precipitazioni annuale espressa in mm (media riferita al periodo 1981-2010).


Figura 1 – Distribuzione della precipitazione media annua sul Veneto.

E’ possibile osservare come, nello spazio di circa 90 km tra il Polesine e l’alta valle dell’Agno in prossimità del gruppo Pasubio-Carega, le precipitazioni annuali variano tra i 600-700 mm ed i 2000 mm. Più in generale è ben evidente l’incremento della piovosità media annua, procedendo dai confini meridionali della regione verso la barriera prealpina che, intercettando i flussi meridionali delle perturbazioni, determina una concentrazione dei fenomeni meteorici su quest’area.
Più a nord delle Prealpi, oltre la Val Belluna, i rilievi dolomitici meridionali determinano un’ulteriore area di incremento delle precipitazioni annuali, che raggiungono valori non dissimili da quelli registrati sulla fascia prealpina. Infine nelle Dolomiti centrali e settentrionali si osserva un tendenziale decremento degli apporti medi annui.
Utilizzando i dati pluviometrici di 100 stazioni dell’Ufficio Idrografico, selezionate in base alla migliore consistenza delle serie storiche pluviometriche nel periodo 1950-2010, si è effettuata una media dei valori di precipitazione annuale per il territorio della Regione Veneto.
Nel grafico in figura 2 sono state riportate: le precipitazioni annuali (istogrammi), la precipitazione annuale media del periodo 1950-2010 (retta tratteggiata rossa) e la media mobile su un periodo di 5 anni (linea continua blu).
Osservando la media mobile risulta evidente che tra gli anni ‘50 ed i primi anni ’80 sono presenti due ampie oscillazioni attorno alla media del periodo, successivamente la media mobile permane stabilmente sotto la media 1950-2010 con oscillazioni limitate e, solo negli ultimi tre anni del periodo considerato (2008-2009-2010), la media mobile si riporta decisamente al di sopra della media del periodo. In questa serie non si evidenzia la presenza di un trend significativo delle precipitazioni
Si osservi che nell’ultimo decennio vengono registrate sia le massime precipitazioni (2010) sia le minime (2003) dell’intera serie sessantennale.


Figura 2 – Andamento delle precipitazioni annuali nel periodo 1950-2010 (media delle osservazioni di 100 stazioni pluviometriche dell’Ufficio Idrografico del Magistrato alle Acque di Venezia).

Anche considerando le misure di precipitazione effettuate dall’ARPAV nel periodo 1992-2014, con una rete di circa 160 stazioni meteorologiche automatiche, si constata che, oltre alle significative precipitazioni degli anni 2008-2009 e 2010, anche le precipitazioni negli anni 2013 e 2014 sono nettamente superiori alla media ed in particolare i valori del 2014 risultano sensibilmente superiori anche agli apporti del 2010. D’altra parte l’andamento di pochi anni non è sufficiente ad individuare eventuali tendenze climatiche che vanno valutate su periodi almeno trentennali ed inoltre il corrente anno 2015 presenta, al momento, precipitazioni inferiori alla media.


Figura 3 – Localizzazione dei massimi valori assoluti delle precipitazioni della durata di 5 giorni consecutivi e di 6 ore.

C’è molto interesse per le precipitazioni di elevata intensità per gli effetti che hanno sul territorio in termini di allagamenti localizzati o addirittura di fenomeni alluvionali. Vengono di seguito considerati due differenti casi costituiti dalle precipitazioni di lunga durata (5 giorni consecutivi) e dalle precipitazioni di breve durata (6 ore consecutive).
Nella figura 3 è possibile osservare che:
• le massime precipitazioni assolute della durata di 5 giorni consecutivi si localizzano sulle Prealpi e sulle Dolomiti meridionali (in analogia alla localizzazione dei massimi valori di precipitazione media annua) con valori che superano i 600 mm mentre sulla pianura meridionale tali valori sono di 100-150 mm;
• le massime precipitazioni assolute della durata di 6 ore consecutive al contrario si localizzano sull’area costiera con piogge che hanno raggiunto i 300 mm di precipitazione; tali eventi apportano in poche ore il 30-40% dell’ammontare della precipitazione media che cade nell’arco di un anno.

3 - Le Temperature in Veneto
La figura 4 riporta la carta delle isoterme relative alle temperature massime estive (media del periodo 1993-2008). I massimi valori si localizzano sulle aree centro-occidentali della pianura (effetto “continentale”).


Figura 4 – Temperature medie delle massime in Estate.


Figura 5 – Temperature medie delle massime in Inverno.

Si osserva, invece, una mitigazione dei valori termici massimi avvicinandosi alla costa e nei pressi del Lago di Garda. Ben evidente è anche l’effetto di diminuzione delle temperature massime con l’aumentare della quota (colli Euganei, Berici, Montello e montagna).
La figura 5 riporta l’andamento delle temperature massime invernali; si osserva la scomparsa dell’effetto di mitigazione costiera o lacustre e sulla Pianura i valori termici massimi aumentano gradualmente verso settentrione; ciò è dovuto alla minor frequenza delle nebbie sull’alta pianura e sulla pedemontana.

Esaminando l’andamento delle temperature medie annuali nel cinquantennio 1955-2004 (dati termometrici di 48 stazioni dell’Ufficio Idrografico del Magistrato alla Acque di Venezia) si riscontra la presenza di un trend in aumento statisticamente significativo.


Figura 6 – Trend delle temperature massime annuali nel periodo 1955-2004 (dati Ufficio Idrografico).

In particolare in figura 6 viene riportato l’andamento delle medie annuali delle temperature massime giornaliere. Nel periodo 1955-2004 il trend di aumento risulta essere di circa 1.8 °C in 50 anni. L’incremento delle massime risulta essere:
• più marcato in estate ed in inverno (+2.3 °C in 50 anni)
• meno accentuato in primavera (+1.9 °C in 50 anni) e soprattutto in autunno (+0.7 °C in 50 anni).

Anche le temperature minime presentano un significativo trend in aumento che su base annua risulta essere di 1.1 °C in 50 anni. Anche in questo caso l’aumento delle minime risulta essere:
• più marcato in estate (+1.6 °C in 50 anni) ed in inverno (+1.2 °C in 50 anni)
• meno accentuato in primavera (+1.0 °C in 50 anni) ed in autunno (+0.7 °C in 50 anni).
Tale trend è confermato anche negli anni più recenti dalle osservazioni effettuate dalla rete di stazioni meteorologiche dell’ARPAV.
L’aumento delle temperature in Veneto trova anche delle conferme indirette dall’esame di alcuni fenomeni:
• dall’analisi delle somme termiche negli anni più recenti si evidenzia un accorciamento del periodo di maturazione della vite valutato mediamente in 15-20 giorni; tale fenomeno trova conferma dalle indagini in campo effettuate dal CREA – Centro di Ricerche per la Viticoltura di Conegliano (TV);
• è stata monitorata la progressiva riduzione, dal 1875, della superficie del ghiacciaio della Marmolada; in generale la superficie glacializzata sulle Dolomiti si è ridotta di circa il 49% negli ultimi 100 anni con un’accelerazione della fase di ritiro a partire dal 1980 (si specifica che questo fenomeno è comunque dipendente dall’effetto combinato di temperature e precipitazioni).

4 - Il tempo atmosferico degli ultimi anni
L’anno 2014 in Veneto ha presentato le seguenti peculiarità:
• le precipitazioni invernali, come risulta in figura 7, (dicembre 2013-gennaio e febbraio 2014) sono le più elevate dell’ultimo ventennio (ovvero da quando ARPAV ha avviato le misure con stazioni automatiche) e dal 1920 hanno raggiunto totali simili solo nell’inverno 1950-1951;
• anche le precipitazioni estive, come risulta in figura 8, sono le più elevate del ventennio grazie soprattutto agli apporti del mese di luglio;
• le temperature medie dei mesi di gennaio febbraio e novembre risultano molto elevate rispetto alla norma mentre le temperature di luglio ed agosto risultano molto inferiori alla media;
• complessivamente l’anno 2014 risulta essere il più piovoso del ventennio e, su buona parte dei punti di misura, risulta essere anche l’anno più caldo del ventennio nonostante l’andamento delle temperature estive.
Nel corrente anno 2015 le temperature medie dei mesi da gennaio ad agosto risultano tendenzialmente superiori alla media ventennale; in particolare, il mese di luglio risulta il più caldo della serie ventennale. E’ interessante osservare che la media delle temperature massime del mese di luglio se nel 2015 risulta la maggiore dal 1994, nel 2014 risultava la minore.

Tra gli eventi “estremi” verificatisi di recente si ricordano:
• l’alluvione del 30 ottobre – 2 novembre 2010, durante la quale vengono misurate precipitazioni di 400-500 mm in varie località delle Prealpi e con un massimo assoluto di 587 mm sul Monte Grappa (BL);
• l’alluvione del 30 gennaio-4 febbraio 2014, particolare in quanto si verifica in un periodo dell’anno tipicamente caratterizzato da scarse precipitazioni, durante la quale vengono registrate precipitazioni sulle Prealpi di 250-400 mm con massimo assoluto di 568 mm sul Monte Grappa (BL);
• l’allagamento di Mestre verificatosi durante il nubifragio del 26 settembre 2007 nel corso del quale vengono misurati a Campagna Lupia - Valle Averto (VE) 301 mm di pioggia caduti in 6 ore;
il tornado abbattutosi sulla Riviera del Brenta (VE) l’8 luglio 2015 che sulla base dei danni provocati è stato classificato come F4 (scala

 

 

SCHEDA RIASSUNTIVA DELLA PRESENTAZIONE CLIMA GLOBALE E FABBISOGNI ENERGETICI
Ernesto Pedrocchi

La presentazione “Clima globale e fabbisogni energetici” di Ernesto Pedrocchi al Convegno di Padova “Storia ed evoluzione del clima terrestre” del 28-10-2014 dopo una premessa relativa alla differenza tra clima globale e clima locale e tra inquinanti e anidride carbonica -CO2- (slides 2,3 e 4) si è articolata in 5 capitoli.
Il cap.1 presenta un quadro sintetico della storia del clima globale degli ultimi 500.000 anni tramite l’analisi della temperatura globale media (Tgm) per aiutare a contestualizzare la situazione attuale. Risulta dalle slides 6,7,8 e 9 che ora siamo a un livello di Tgm massimo rispetto a tutti i valori del periodo della rivoluzione industriale, ma nei 10.000 anni dopo l’uscita dall’ultima glaciazione si sono raggiunti valori maggiori; inoltre nell’ultimo periodo interglaciale, circa 125.000 anni orsono, la Tgm era nettamente superiore all’attuale e il mare mediterraneo era a un livello di circa 8 m superiore all’attuale. In sintesi la temperatura del pianeta è sempre variata per cause naturali ben prima che ci fosse l’uomo e la situazione attuale non si presenta come anomala nella storia del clima.
Nel cap. 2 si analizza il legame tra aumento della concentrazione di CO2 nell’atmosfera ed emissioni antropiche dello stesso gas. Questo legame viene dato per scontato, ma al riguardo ci sono alcuni dubbi. La tempistica di crescita delle due grandezze: la concentrazione ha iniziato a crescere ben prima che le emissioni fossero appena appena significative. La concentrazione cresce egualmente nei due emisferi, mentre le emissioni antropiche sono prevalentemente concentrate nell’emisfero nord sopra al tropico del cancro ed è scientificamente provato che l’equatore è a livello atmosferico una barriera abbastanza rigida (slides 11, 12 e 13). Infine le emissioni antropiche sono in continua crescita, ma hanno avuto dei rallentamenti per cause varie di cui non è rimasto alcun segno nell’aumento della concentrazione in atmosfera. In sintesi si può dire che è possibile che l’aumento della concentrazione di CO2 in atmosfera sia anche conseguente le emissioni antropiche, ma ci sono altri fattori che agiscono sul fenomeno.
Nel cap. 3 si analizza il legame tra concentrazione di CO2 in atmosfera e Tgm evidenziando che nella storia del clima da circa 500.000 anni l’entrata e l’uscita dalle glaciazioni sono sempre state innescate dai fattori orbitali sole/terra (questo è riconosciuto anche da IPCC) e la variazione di concentrazione di CO2 segue in generale la Tgm (slides 17 e 18). Inoltre si mostra che dall’uscita dall’ultima glaciazione, all’incirca 10.000 anni fa, ad ora non c’è correlazione tra andamento della concentrazione di CO2 in atmosfera e Tgm. In sintesi, pur essendo la CO2 un gas serra, che ha però quasi esaurito il suo potenziale, non c’è prova nella storia recente del clima che essa abbia avuto un’influenza significativa sul clima terrestre.
Nel cap. 4 si segnalano gli effetti del sole, molto probabilmente il driver naturale più importante, sul clima terrestre. In particolare (slides 24 e 25) si evidenzia il legame tra cicli delle macchie solari e clima terrestre e nella slide 26 si presenta l’attuale sorprendente evoluzione dei cicli delle macchie solari.
Nel cap. 5 si analizzano le strategie a priori perseguibili per contenere i possibili danni derivanti da cambiamenti del clima globale.
La strategia della mitigazione, ovvero il contenimento e la riduzione delle emissioni antropiche di CO2, è attualmente molto perseguita, ma presenta diversi problemi (slide 29). Non è scientificamente accertato che sia la CO2 antropica che causa l’aumento della concentrazione di questo gas in atmosfera, ne tanto meno accertato che causi aumento della Tgm. Inoltre il contenimento delle emissioni antropiche, se fossero responsabili di cambiamento del clima globale, dovrebbe essere perseguito da tutti, ma ciò è impensabile per ragioni socioeconomiche (tuttora i combustibili fossili coprono circa l’80% del fabbisogno energetico mondiale). C’è il grave rischio della delocalizzazione delle attività particolarmente energivore con peggioramento del quadro globale. In sintesi si può pensare che la strategia della mitigazione, anche ammesso, come pura ipotesi, che le emissioni antropiche di CO2 fossero responsabili del cambio del clima globale, è una strada impercorribile. Ovviamente questo non comporta che non si debba perseguire la strada dell’efficienza nella gestione dei processi energetici.
In alternativa c’è la strategia dell’adattamento che consiste in: (‘) Identificare gli effetti dannosi più probabili e le aree più vulnerabili, (‘’) studiare e progettare interventi graduali di adattamento e protezione, (‘’’) realizzare gli interventi con una opportuna scala di priorità. Questa strategia è stata perseguita dall’uomo da quando esiste e comporta notevoli vantaggi: (‘) Interventi validi indipendentemente dalla causa antropica o naturale del fenomeno, (‘’) Interventi mirati, con tecnologie note e già praticate, tempi di intervento congruenti con l’insorgere dei danni, con buona probabilità di successo su problemi in generale già esistenti, (‘’’) strategia valida anche se perseguita unilateralmente.
In sintesi la strada da seguire per contenere gli eventuali danni conseguenti a cambiamenti del clima è la strategia dell’adattamento e della efficienza energetica non quella del solo contenimento delle emissioni di CO2. Questo è anche il risultato di un importante studio attuato nel 2015 dal “ Copenhagen Consensus Center” (B. Lomborg) al quale hanno partecipato alcuni tra i più prestigiosi economisti, di cui 7 Premi Nobel.

 

 

LE ERUZIONI VULCANICHE E IL CLIMA: DALL'ANNO SENZA ESTATE (1816) AL RISCALDAMENTO DEGLI OCEANI

PAOLA PETROSINO
Dipartimento di Scienze della Terra, dell’Ambiente e delle Risorse Università di Napoli Federico II

In questo intervento vengono affrontate le relazioni che intercorrono tra le eruzioni vulcaniche e il clima, in termini di effetti sia a livello locale che a scala globale. L'intervento affronta la storia della relazione tra vulcani e clima, le osservazioni, i fattori e gli effetti delle eruzioni vulcaniche in rapporto al clima, gli strumenti per estendere il record dei dati osservati e investigati con un approccio scientifico e, da ultimo, il vulcanismo sottomarino in termini di potenziale fonte di calore e CO2 per l'oceano.

Vulcani e clima: storia di una relazione

Le eruzioni vulcaniche possono essere di tipo effusivo, durante le quali il magma viene emesso in maniera tranquilla e senza che si crei un accumulo di gas, e i cui prodotti sono rappresentati da flussi di lava più o meno viscosa a seconda delle caratteristiche (contenuto in silice, temperatura…) del magma di partenza. Le eruzioni vulcaniche esplosive, invece, sono caratterizzate da risalita del magma in condizioni tali che l'effetto della diminuzione della pressione su di esso sia un'improvvisa e violenta liberazione dei gas che porta alla frammentazione del magma stesso e delle rocce incassanti, e alla dispersione in atmosfera di una miscela di frammenti di differenti dimensioni e gas (prevalentemente H2O, CO2, SO2). I frammenti eiettati, le cui dimensioni variano a partire da dimensioni dell'ordine dei micron, sono detti piroclasti e vanno a costituire una colonna eruttiva di altezza compresa tra alcuni chilometri e 50 chilometri a seconda della VEI (Volcanic Explosivity Index) dell'eruzione.
Nel passato non è stato facile mettere in relazione piccole variazioni della situazione meteorologica con eruzioni vulcaniche che magari avvenivano in aree molto distanti, soprattutto in assenza di mezzi di informazione come quelli attuali grazie ai quali le notizie viaggiano in tempo reale. Benjamin Franklin fu il primo ad ipotizzare una connessione tra l'attività vulcanica e il clima. Quando nel 1784 prestava servizio a Parigi come ambasciatore dei "neonati" Stati Uniti d’America, infatti, scrisse che durante l'estate del 1783, quando ci si sarebbero aspettati cieli limpidi e temperature elevate, una fitta nebbia ricopriva tutta l'Europa e gran parte del Nord America, e che l'inverno del 1783-1784 poteva essere considerato di gran lunga il più rigido di quelli registrati da molti anni. Egli poneva in relazione questi fenomeni con un'eruzione avvenuta in Islanda, in particolare nel vulcano Hekla, che all'epoca era senza dubbio il vulcano islandese più noto. Ora noi sappiamo che il 1783 fu l'anno dell'intensa eruzione fissurale del Laki, in Islanda, a cui andrebbero piuttosto ascritti gli effetti osservati da Benjamin Franklin. La densa nebbia fu notata da molti studiosi britannici; in particolare Thomas Barker, un signorotto inglese appassionato di osservazioni meteorologiche, descrisse il fenomeno e scrisse che esso si poteva paragonare a quello enumerato da Plutarco tra i prodigi verificatisi in concomitanza della morte di Cesare nell'anno 44 a.C. Baker testimoniava anche che, a differenza dell'estate descritta da Plutarco per il 44 a.C., l'estate del 1783 in Inghilterra era stata calda, cosa che aveva notevolmente anticipato la maturazione dei raccolti e che, soprattutto nell'Europa Settentrionale, in conseguenza dell'acidità della foschia i raccolti erano stati notevolmente danneggiati.
L’eruzione del Tambora, stratovulcano dell'isola di Sumbawa, situata nell'arcipelago indonesiano della Sonda, avvenuta l’11 aprile del 1815, fece registrare un VEI (Volcanic Explosivity Index) pari a 7, e comportò il rilascio di 50 km3, espressi in termini di Dense Rock Equivalent, di magma trachiandesitico, in parte messi in posto come prodotti da caduta da una colonna pliniana, ma in massima parte come correnti piroclastiche e relativa nube co-ignimbritica. L'eruzione viene ricordata soprattutto per i suoi effetti sul clima, e per i particolari effetti ottici che si verificarono in concomitanza di essa (Stothers, 1984).
Questa eruzione ebbe conseguenze climatiche che vennero avvertite in tutto il mondo, ed in particolare in Europa, USA e Canada. Il 1816 fu definito l’anno senza estate. Negli Stati Uniti orientali, in luglio e agosto le temperature medie rimasero attorno a 4°C. Attorno al 20 agosto le minime scesero sotto lo zero. Per tutta quell’estate gelo e neve distrussero i raccolti. Sembra che come conseguenza di questa eruzione l'emigrazione verso l'Ovest degli Stati Uniti abbia subito un impulso. Per quanto riguarda l'Europa, l'eruzione, che avvenne solo un anno dopo la fine delle guerre napoleoniche, sommò i propri effetti a una situazione economico-politica già molto disastrata, e nel mondo occidentale si verificarono carestie, epidemie e tumulti, e forte fu l'impulso verso un'emigrazione su larga scala.
Tramonti dai colori brillanti e crepuscoli prolungati furono un altro degli effetti che l'eruzione fece registrare nell'Europa centro-settentrionale, effetti che furono facilmente classificabili come anomali, nonostante il rosso dei tramonti fosse comunemente registrato nei cieli grigi di Londra. Questo fece sì che l'eruzione del Tambora lasciasse un segno anche nell'arte: William Turner, detto anche “il pittore delle luce”, avrebbe dipinto i tramonti e le albe di Londra con una luce che appariva condizionata dagli effetti dell’eruzione. Trascorrendo la piovosa e fredda estate del 1816 sul Lago di Ginevra, Mary Shelley ebbe l'opportunità, forse condizionata dall'impossibilità di uscire a passeggio, di comporre il suo fortunato romanzo Frankenstein e Lord Byron scrisse, nel poemetto Darkness, del 1816, versi che richiamano la cupezza del tempo e delle atmosfere che probabilmente lo circondavano.
L’eruzione del Krakatau, anch’esso situato nell'arcipelago indonesiano, a sud di Sumatra, avvenuta tra il 26 e il 27 agosto 1883, fu caratterizzata da una colonna eruttiva la cui altezza superava i 40 km. I frammenti più grossolani caddero al suolo piuttosto rapidamente, ma quelli più sottili furono trasportati per alcuni mesi nella fascia intertropicale dell'atmosfera. A far ricordare il Krakatau sono stati soprattutto i fenomeni ottici legati agli effetti dovuti al dust veil che caratterizzarono i mesi successivi all’eruzione. Il report prodotto da Rollo Russell e Douglas Archibald per la Royal Society of London aveva infatti come sottotitolo "On the unusual optical phenomena of the atmosphere, 1833-1866, including twilight effects, coronal appearances, sky hazes, colored suns, and moons, etc."
Anche l’eruzione del Krakatau ha lasciato la sua traccia nell’arte. Tra tutti va ricordato l’artista norvegese Munch, che racconta lui stesso come il dipinto “L’urlo” (1893) fu ispirato da un tramonto particolare, a cui egli assistette ad Oslo: "Camminavo lungo la strada con due amici quando il sole tramontò, il cielo si tinse all'improvviso di rosso sangue. Mi fermai, mi appoggiai stanco morto ad una palizzata. Sul fiordo nero-azzurro e sulla città c'erano sangue e lingue di fuoco. I miei amici continuavano a camminare e io tremavo ancora di paura... e sentivo che un grande urlo infinito pervadeva la natura". Agli anni successivi al 1883 rimandano anche i cinquecento acquarelli dell’artista britannico Ashcroft, della collezione “Cieli del Krakatau”, in cui sono dipinti gli effetti dell'eruzione sui cieli di varie città. Per quanto riguarda la letteratura, va ricordato il poemetto di Tennyson intitolato "St. Telemachus", parte della sua ultima opera, The Death of Oenone, Akbar's Dream, and Other Poems, pubblicata nel 1892. Nei primi versi del poemetto il poeta parla delle ceneri di un vulcano, che sono in grado di attraversare l'atmosfera dell'intero globo. Il riferimento al Krakatau è chiaro, se teniamo conto del fatto che nel 1883 la notizia era stata riportata dalla stampa occidentale con dovizia di particolari.

Vulcani e clima: le osservazioni

Fin qui quelle sono state trattate relazioni tra eruzioni vulcaniche e clima che ci provengono da fonti indirette, diciamo così, più descrittive che scientifiche (Francis e Oppenheimer, 2004). Tre importanti eruzioni accadute nel secolo scorso, l'eruzione del Agung, a Bali, in Indonesia, verificatasi il 17 maggio 1963, l'eruzione del vulcano El Chichòn, in Messico, del 28 Marzo 1982 e l'eruzione del vulcano Pinatubo, Filippine, accaduta il 12 Giugno1991, hanno permesso di investigare con un approccio scientifico
le conseguenze sul clima di eruzioni vulcaniche.
Si è innanzitutto dedotto che le eruzioni vulcaniche iniettano gas e aerosol nella stratosfera. Nella maggior parte dei casi, l'altezza delle colonne eruttive è tale che l'iniezione di SO2 avviene direttamente nella stratosfera; in altri casi, come è accaduto per l'eruzione del 2011 del vulcano eritreo Nabro, la miscela di gas e piroclasti raggiunse la troposfera e fu il monsone estivo asiatico a favorirne il trasporto all'interno della stratosfera. Solo se il magma che alimenta l'eruzione è particolarmente ricco in SO2 si formerà una nube di aerosol che rimarrà nella stratosfera per un significativo periodo dopo l'eruzione. Il passaggio da SO2 (e, in minor misura, da H2S) a H2SO4 che costituisce gli aerosol avviene in presenza di vapore acqueo ancora per alcune settimane dopo l'eruzione (Robock, 2000). Le particelle solide di dimensioni più significative, invece, sedimentano piuttosto rapidamente per cui possono avere effetti di breve durata sul solo clima locale. L'effetto della dispersione degli aerosol è quello di ridurre la radiazione incidente dall'atmosfera aumentando il suo backscattering; nel contempo, la radiazione emessa dalla superficie terrestre viene dispersa con più difficoltà. Il risultato di questo complesso bilancio è un raffreddamento degli strati più prossimi alla superficie terrestre e un riscaldamento all'interno della stessa fascia degli aerosol. Le eruzioni vulcaniche hanno un effetto anche nel diminuire il contenuto di ozono in atmosfera: dopo l'eruzione del Pinatubo, ad esempio, si registrò una diminuzione del 10% dell'ozono sugli Stati Uniti. la colpa, tuttavia, non è da ascriversi all'eruzione vulcanica in sé, quanto all'effetto congiunto degli aerosol e dei composti di Cl, come i CFC, presenti in atmosfera. Gli aerosol vulcanici, infatti, forniscono solo delle superfici su cui reazioni chimiche complesse spostano il bilancio dei composti di azoto da forme reattive a forme più inerti che, a loro volta, contribuiscono a trasformare il Cl antropogenico da forme più innocue (come HCl) a forme più reattive (come HClO) che possono distruggere l'ozono. Stanti le normative attuali, che limitano drasticamente l'uso di CFC, possiamo sperare che una prossima eruzione con caratteristiche simili a quella del Pinatubo trovi in atmosfera un quantitativo minore di questi composti, e quindi abbia un effetto più ridotto sull'impoverimento dello strato di ozono.

Vulcani e clima: i fattori

Numerosi sono i fattori che regolano la relazione tra l'attività vulcanica e il clima, primi tra tutti la VEI dell'eruzione e la posizione geografica del vulcano. A parità di tutti gli altri fattori, è infatti intuitivo pensare che più alte saranno le colonne eruttive di eruzioni esplosive maggiore sarà la probabilità che le ceneri e i gas costituenti le stesse raggiungano la stratosfera. In realtà, anche la latitudine a cui si trova il vulcano gioca un ruolo importante. Per le eruzioni che avvengono alle basse latitudini, la via per la distribuzione degli aerosol è sicuramente la stratosfera, in quanto dalla troposfera essi vengono facilmente rimossi dalle frequenti precipitazioni. Per come è impostata la circolazione nella stratosfera, se un'eruzione avviene in un emisfero gli aerosol ad essa relativi si distribuiranno per lo più all'interno di quello stesso emisfero. Solo le eruzioni che originano da vulcani localizzati nella fascia intertropicale hanno più probabilità di distribuire aerosol in entrambi gli emisferi. Un altro fattore latitudinale che va considerato, però, e i cui effetti in qualche modo controbilanciano il fatto che è difficile che un'eruzione da un vulcano a latitudini elevate distribuisca i suoi aerosol su ampi areali, è l'altezza diversa della tropopausa, che è mediamente 20 km all'equatore e 10 km ai poli, cosicché un'eruzione anche da colonne di altezza minore che avvenga a latitudini più elevate può disperdere i propri aerosol nella stratosfera. Può essere questo uno dei motivi per cui la eruzione fissurale del Laki del 1783, pur non avendo componente esplosiva, ebbe un effetto condizionante sul clima.
Il parallelo tra il grado di esplosività (VEI) dell'eruzione e i suoi effetti sul clima si è scoperto non essere così immediato: un sicuro fattore di controllo è il contenuto in SO2 del magma che alimenta l'eruzione, che è molto variabile. Un esempio è dato dall' l’eruzione di El Chichòn verificatasi in Messico nel 1982, che fu caratterizzata da una VEI intermedio-bassa, ma il magma andesitico che la alimentò era estremamente ricco in zolfo, tanto da far cristallizzare anidrite (CaSO4), un minerale che cristallizza in situazioni magmatiche solo da magmi ricchi in maniera anomala di zolfo. Questo ci porta a dover fare una considerazione: in generale, per le eruzioni avvenute in epoca passata e quindi non osservate direttamente, in cui non è stato possibile misurare i contenuti di SO2 della nube, i contenuti di SO2 del magma vengono stimati da dati petrologici. Essi, in generale, risultano di molto inferiori a quelli determinati dalle osservazioni, come nel caso del Pinatubo. Se questo è vero anche per altre eruzioni accadute in passato, molte di esse potrebbero aver lasciato segni sul clima, che noi non riusciamo ad ipotizzare e i cui effetti non riusciamo ad individuare con chiarezza.

Vulcani e clima: gli effetti

Dell'effetto di raffreddamento globale al suolo di cui sono causa le eruzioni vulcaniche si risente per alcuni anni dopo l'eruzione, arrivando a circa un secolo se si somma l'effetto di più eventi eruttivi (eruzioni multiple). Facendo un confronto tra le temperature medie degli ultimi 150 anni e la presenza di episodi eruttivi, si nota come l'effetto di abbassamento delle temperature conseguente l'eruzione si risente mediamente per tre anni. Dallo stesso confronto si nota come manchi totalmente nel record degli abbassamenti significativi di temperatura legati ad eruzioni vulcaniche il segnale dell’ eruzione più importante dello scorso secolo, quella del Katmai del 1912, a testimonianza del fatto che il contenuto in SO2 del magma di partenza, molto basso per l'eruzione del Katmai, è un importante fattore si controllo degli effetti delle eruzioni sul clima globale. L'effetto di raffreddamento globale causato dalle eruzioni è in qualche modo smentito da un riscaldamento che caratterizza gli inverni immediatamente successivi all'eruzione nell'emisfero settentrionale, dovuto a una risposta non lineare attraverso le complesse dinamiche della atmosfera. Dopo l'eruzione del Pinatubo nell'inverno 1991-1992 le temperature sul Nord America, l'Europa e la Siberia erano molto più alte della norma e quelle sull'Alaska, la Groenlandia, il Medio Oriente e la Cina erano più basse del normale. Quell'inverno fu così freddo che nevicò a Gerusalemme, un fatto molto anomalo, e i coralli sul fondo del Mar Rosso morirono a causa del raffreddamento della parte superficiale delle acque e del successivo rimescolamento convettivo. L'aumentato apporto di nutrienti causò anomale fioriture algali e di fitoplancton, che soffocarono i coralli. Quello che accade è che in corrispondenza della tropopausa i venti più forti in inverno (jet streams o polar vortex) si trovano a latitudini intermedie. La forza del jet stream dipende dal gradiente di temperatura tra i tropici e le regioni polari, che è più significativo in inverno, quando i poli si riscaldano. Per un'eruzione che avvenga in zone intertropicali, il riscaldamento per effetto degli aerosol è più forte ai tropici che ai poli, contribuendo ad aumentare il gradiente. Il jet stream viene così rafforzato producendo un pattern di venti troposferici caratteristico, che tende a riscaldare alcune regioni e a raffreddarne altre. Questo pattern è la cosiddetta "Oscillazione Artica", che viene spostata verso la sua fase positiva da un'eruzione intertropicale. Questo effetto advettivo sulle temperature è più significativo in inverno rispetto a quello radiativo che domina alle latitudini più basse e in estate (Robock, 2015). Per circa un anno dopo l'eruzione si risentirà anche di una ridotta precipitazione nelle aree intertropicali, legate alla ridotta evaporazione, e fino a due anni dopo l'evento si risentirà anche della riduzione degli effetti del monsone estivo in Africa ed Asia, a causa del raffreddamento del continente e la diminuzione del contrasto termico tra terra e mare.
Dopo le eruzioni di Angung, El Chicòn e Pinatubo, molti dei fenomeni ottici in atmosfera descritti, ad es., dopo l'eruzione del Krakatau, hanno trovato una valida spiegazione scientifica. I cieli al tramonto sono normalmente rossi: in realtà durante il giorno essi appaiono blu perchè lo scattering dei raggi del sole è più forte alle lunghezze d'onda più corte dello spettro del visibile. All'alba e al tramonto il forward scattering fa sì che noi vediamo soprattutto le lunghezze d'onda del rosso; tale effetto è amplificato dalla presenza di aerosol o particelle sub-micrometriche, come quelle iniettate in atmosfera dagli incendi o dalle eruzioni vulcaniche, in concomitanza dei quali i tramonti appaiono rosso sangue. Gli anelli di Bishop, osservati dal reverendo Sereno E. Bishop alle Hawaii dopo l'eruzione del Krakatau, come aloni che circondavano il sole, risultarono il prodotto della diffrazione dei raggi solari in corrispondenza della nube che contiene particelle vulcaniche opache.

Vulcani e clima: il record esteso

Fin qui abbiamo parlato di eruzioni osservate o studiate con un approccio scientifico per poter capire quale sia la relazione tra eruzioni vulcaniche e clima. E' ora il momento di tentare di estendere il record alle eruzioni non osservate, con tutti i limiti che questo comporta. Per estendere questo record prima di tutto, una volta acquisita la conoscenza dei possibili effetti di un’eruzione vulcanica sul clima, si possono rileggere le cronache d’epoca per ritrovarvi indizi di una possibile eruzione. L’esempio più emblematico, tra quelli riportati da Stothers e Rampino (1983), è la «Mistery Cloud» che avrebbe interessato l’area mediterranea nel 536 d.C. Rileggendo gli scritti di Procopio di Cesarea, Giovanni il Lidio, Giovanni di Efeso, contemporanei all'eruzione, o quelli più tardi di Michele Siro, si deduce che nel 536 d.C. a Costantinopoli il sole non riusciva a riscaldare l'aria e i frutti non maturavano, per cui non era possibile la vinificazione. Effetti simili sono riportati anche nel documento cinese Nan Shi, Storia delle dinastie meridionali, in cui si parla di nevicate in Agosto sempre per il 536 d.C. Recentemente è stato proposto che l’eruzione in questione potrebbe essere stata la causa del periodo freddo cosiddetto Dark Ages, che interessò l’emisfero settentrionale tra il VII e il IX secolo d.C. Quale vulcano abbia eruttato è ancora incerto. Da un’attribuzione dell’eruzione al Rabaul (Papua Nuova Guinea), si è passati a proporre un paleo-Krakatau, poi un vulcano di El Salvador (Terra Blanca Joven dell’Ilopango Caldera), fino a una serie di eruzioni nel Nord America.
Testimonianza indiretta degli effetti delle eruzioni può essere trovata nelle carote di ghiaccio (Stenni et al., 2002), che conservano testimonianza dei picchi di H2SO4 conseguenti le eruzioni (spikes). Studiando le carote di ghiaccio, però, si hanno dei risultati sorprendenti, perché carote vicine spesso non recano testimonianza degli stessi spikes, probabilmente per effetti locali, e ci sono alcuni spikes che non si riescono a correlare ad eruzioni note. Un altro contributo per estendere il record delle relazioni eruzioni vulcaniche-clima viene dalla dendrocronologia. I tronchi degli alberi risentono di temperature estremamente basse durante la loro stagione di crescita, mostrando anelli di accrescimento di spessore ridotto o danneggiati. Studi recenti (Mann et al., 2012) postulano addirittura la possibile assenza di anelli di accrescimento durante gli anni rigidi che seguono le eruzioni vulcaniche, il che andrebbe a compromettere il principio di base dell'uso della dendrocronologia, che è proprio quello della presenza di un anello per ogni anno di accrescimento. Un approccio multiproxy, che tenga conto dei limiti emersi per le tre metodologie di individuazione e collocazione crono-stratigrafica degli eventi presentate e che si avvalga della possibilità di eseguire datazioni 14C per i prodotti delle eruzioni individuate, o di analizzare eventuali frammenti di materiale juvenile all’interno delle carote di ghiaccio, per risalire con precisione al vulcano sorgente e, ove possibile, all'evento eruttivo, consente di verificare l’affidabilità delle correlazioni effettuate. Nonostante ciò restano comunque episodi non correlabili in tutti e tre i record, da attribuirsi per lo più a fattori locali.
Va detto che tra gli studiosi che contribuiscono a queste ricerche di tipo multiproxy (paleontologi, palinologi, tefrostratigrafi, dendrocronologi) c’è un accordo generale nel ritenere che il clima globale sia influenzato da fattori astronomici (forcing astronomico). Se le grandi eruzioni possano o meno causare meccanismi di feedback tali che il forcing vulcanico possa soppiantare quello astronomico è ancora materia molto dibattuta. In linea generale, si è portati a pensare che in corrispondenza delle deglaciazioni si alleggerisca il carico litostatico sul mantello, potenziale sorgente del magma, e questo causi proprio un impulso alla produzione del magma, seguito, dopo un certo periodo di tempo dipendente dal tasso di risalita del magma, da un aumento dell'attività eruttiva. Per continuare il circolo, questo picco di attività eruttiva potrebbe significare un raffreddamento globale del clima e, per conseguenza, rappresentare un nuovo impulso verso la glaciazione.

Vulcani e clima: le eruzioni sottomarine

L'ultimo problema che affrontiamo è quello di capire se l'attività vulcanica nell'oceano possa rappresentare una sorgente di CO2. L'attività vulcanica sottomarina si concretizza per lo più in termini di magmatismo lungo le dorsali medioceaniche, in corrispondenza delle quali viene prodotta nuova crosta oceanica grazie all'emissione di lave basaltiche fluide, in forma per lo più di pillow lavas. Tale attività vulcanica non è distribuita in maniera continua nel tempo, recenti ricerche (Tolstoy, 2015) hanno infatti individuato una relazione tra eccentricità, emissione di CO2 e inspessimento crostale (indizi, questo ultimi, di presenza di attività vulcanica sottomarina) in corrispondenza del tratto meridionale dell’East Pacific Rise, cioè la dorsale Medio Pacifica. Questo porterebbe ad affermare che ci sono alcuni picchi di attività lungo le dorsali a cui corrispondono picchi nell'emissione di CO2. Se e come questa CO2 possa in qualche modo passare all'atmosfera non è ancora chiaro. Ancora ci possiamo porre il problema se esista un effetto di fattori geologici sul riscaldamento delle acque oceaniche, e ancora una volta dobbiamo invocare fenomeni che accadono lungo le dorsali, dove ricordiamo la presenza di black e white smokers , che sono dei geyser sottomarini comuni in questi ambienti. Sono vent idrotermali che rilasciano getti di vapore caldo, e da cui precipitano molti minerali utili. Tipiche sono anche le forme di vita adattate a vivere negli ambienti estremi, come, ad es., dei batteri estremofili. Una recente ricerca ha esteso l'effetto black smokers a zone molto più ampie del fondo oceanico. Grandi quantità di acqua oceanica circolano sul fondo del mare, perché si infiltrano all’interno di rocce permeabili, percorrono distanze pari o superiori a 50 chilometri, e risalgono poi di nuovo sul fondo marino quando incontrano uno strato di rocce meno permeabile (Winslow e Fisher, 2015). Questo meccanismo, detto di tipo «sifone», sarebbe in grado di trasferire all’oceano circa il 30% del calore che fuoriesce dalla crosta terrestre.

Bibliografia
Francis P e Oppenheimer C. (2004) Volcanoes. Oxford University Press, New York, 1-521
Mann M.E., Fuentes J.D., Rutherford S. (2012) Underestimation of volcanic cooling in tree-ring-based reconstructions of hemispheric temperatures. Nature Geoscience 5 (3), 202-205
Robock A., (2000). Volcanic eruptions and climate. Reviews of Geophysics 38 (2), 191-219
Robock A. (2015). Climatic impact of volcanic eruptions. In H. Sigurdsson ed. Encyclopedia of Volcanoes, Elsevier, 935-942.
Stenni B., Proposito M., Gragnani R., Flora O, Jouzel J., Falourd S., Frezzotti M. (2002) Eight centuries of volcanic signal and climate change at Talos Dome (East Antarctica). Journal of Geophysical Research D: Atmospheres 107 (9-10), 3-13
Stothers R.B. (1984) Mystery cloud of AD 536. Nature 307, 344-345.
Stothers R.B. e Rampino M.R. (1983) Volcanic eruptions in the Mediterranean before A.D. 630 from written and archaeological sources. Journal of Geophysical Research 88, 6357-6371
Tolstoy M. (2015) Mid-ocean ridge eruptions as a climate valve. Geophysical Research Letters, 10.1002/2014GL063015
Winslow D.M. e Fisher A.T. (2015) Sustainability and dynamics of outcrop-to-outcrop hydrothermal circulation. Nature Communications. 6:7567 | DOI: 10.1038/ncomms8567 |www.nature.com/naturecommunications

 

 

INFLUENZE ASTRONOMICHE E OSCILLAZIONI NATURALI DEL CLIMA TERRESTRE

Nicola Scafetta
(Dipartimento di Scienze della Terra, dell'Ambiente e delle Risorse, Università di Napoli Federico II, Napoli)

Sommario:
La teoria dell’origine antropica del riscaldamento globale, sostenuta dall’Intergovernmental Panel on Climate Change (IPCC), presenta notevoli limiti che sono stati discussi nella mia relazione per il convegno “Storia ed evoluzione del clima terrestre” tenutosi a Padova il 28-10-2015.
In sintesi, l’uomo contribuisce ai cambiamenti climatici ma sicuramente meno di quanto dichiarato dall’IPCC perché la stima proposta è basata su modelli climatici dimostratisi incapaci di riprodurre la variabilità naturale del sistema. L’analisi della fenomenologia dei cambiamenti climatici globali dimostra che almeno il 50% del riscaldamento della Terra osservato sin dal 1850 (circa 0.8-0.9 oC) è stato indotto da numerose oscillazioni naturali con periodi variabili dalla scala annuale a quella millenaria. E’ stato dimostrato che molte di queste oscillazioni sono correlate ad oscillazioni solari, lunari e planetarie. La presenza di oscillazioni naturali di origine astronomica permette lo sviluppo di modelli fenomenologici con una elevata probabilità predittiva.
Alcuni di questi modelli empirici sono stati proposti e hanno superato alcuni test di verifica. Per il futuro questi modelli indicano una probabile stabilizzazione della temperatura globale della Terra fino al 2030-40 con possibili massime nel 2015 e 2020. A causa dei cicli naturali e della sensibilità del clima alle emissioni antropiche che è ridotta della metà rispetto alle stime dell’IPCC, la temperatura media della superficie del mondo difficilmente potrebbe salire al di sopra dei 2 oC tra il 2000 e il 2100 anche in assenza di sostanziali politiche per mitigare le emissioni antropiche di gas serra.
Per un’analisi dettagliata di questi risultati consultare almeno questi due lavori:
1) Scafetta, N.: Discussion on climate oscillations: CMIP5 general circulation models versus a semi-empirical harmonic model based on astronomical cycles. Earth-Science Reviews 126, 321-357, 2013.
2) Nicola Scafetta: “Prevedere i cambiamenti climatici in uno scenario allargato del sistema Terra-Sole”. Capitolo in “Prevedibile/imprevedibile. Eventi estremi nel prossimo futuro” a cura di E. Guidoboni, F. Mulargia, V. Teti. pp. 67-93, 2015.
Punti principali discussi nella mia presentazione

A) La teoria del riscaldamento globale antropico (Anthropogenic Global Warming Theory)
Sin dal 1850 la temperatura globale della terra è cresciuta di circa 0.8-0.9 e sin dagli anni settanta la temperatura è cresciuta di circa 0.5-0.6 oC. Questo aumento della temperatura è stato concomitante con un forte aumento nell’atmosfera di alcuni gas serra, soprattutto CO2, prodotto dalla combustione di materiali fossili (carbone, petrolio, metano) ad opera dell’uomo. L’Intergovernmental Panel on Climate Change (IPCC 2014) ritiene che l’uomo abbia causato più del 95% del riscaldamento globale sin dal 1900 e praticamente il 100% del riscaldamento globale sin dal 1970: questa teoria è nota come l’Anthropogenic Global Warming Theory. Secondo questa stessa teoria un contributo astronomico, più propriamente solare, sarebbe presente ma è minimo e praticamente trascurabile. L’IPCC fu formato nel 1988 da due organismi delle Nazioni Unite, l'Organizzazione meteorologica mondiale (WMO) ed il Programma delle Nazioni Unite per l'Ambiente (UNEP) per studiare i cambiamenti climatici antropici su scala mondiale.
Il messaggio dell’IPCC è che se nei prossimi anni e decenni le emissioni di gas serra globali non verranno seriamente mitigate, per il 2100 esse potrebbero causare un riscaldamento del pianeta di 3-5 oC sopra le temperature odierne. Un riscaldamento secolare superiore ai 2 oC potrebbe essere troppo dannoso per cercare di risolvere le conseguenze negative dei cambiamenti climatici solo con l’adattamento, per cui sarebbe necessario contenere il riscaldamento globale al di sotto dei 2 oC riducendo notevolmente le emissioni dei gas serra.
Questa è la ragione per cui il gas CO2 è considerato dall’IPCC un inquinante nonostante sia uno dei gas fondamentali per lo sviluppo della vita sul pianeta. Infatti, il CO2 è il gas ‘verde’ per eccellenza essendo il cibo principale delle piante e, di conseguenza, elemento fondamentale per la vita di tutti gli esseri viventi, incluso evidentemente l’uomo stesso.
In breve, l’argomento politico non è se ulteriori emissioni di gas serra possano o no causare un riscaldamento del pianeta, ma se esse possano causare un riscaldamento superiore ai 2 oC per il 2100. Il problema è decidere se è meglio che l’uomo si adatti ai cambiamenti climatici (come ha sempre fatto sin dall’antichità) oppure se costosissime politiche di mitigazione debbano essere necessariamente implementate per prevenire catastrofi planetarie.
B) Il problema dell’incertezza nella sensibilità climatica ad un aumento di gas serra
I fattori forzanti che secondo i modelli usati dall’IPCC, conosciuti come General Circulation Models, hanno causato i cambiamenti climatici sin dal 1750 hanno solo una natura radiativa. Alcuni, come il CO2, danno un contribuito positivo, e quindi si ritiene che abbiano causato un riscaldamento climatico. Altri forzanti danno un contribuito negativo, come gli aerosol dispersi nell’aria che bloccano parte dell’irraggiamento solare diretto alla superficie causandone un raffreddamento. Il vapore acqueo è il più importante dei gas serra, ma funziona come un feedback interno regolato dalle equazioni del clima, e non come un forzante esterno o aggiuntivo del sistema.
Tuttavia, determinare l’intensità dei forzanti radiativi non è sufficiente per capire come il clima cambia di conseguenza. Uno dei parametri più importanti in climatologia è l’equilibrium climate sensitivity che indica di quanto la temperatura del pianeta aumenta all’equilibrio se la concentrazione di CO2 atmosferico raddoppia. Questo parametro misura la risposta del sistema climatico ai forzanti radiativi. Purtroppo, il valore numerico di questo parametro è ancora estremamente incerto. Secondo i modelli climatici adottati dall’IPCC, se la concentrazione atmosferica del CO2 raddoppia, la temperatura media del pianeta potrebbe aumentare tra 1.5 e 4.5 oC (cfr. Lewis, 2013). Questa larga incertezza mostra egregiamente il problema scientifico, che dovrebbe suscitare forti perplessità sulla attendibilità delle interpretazioni dei cambiamenti climatici proposti dall’IPCC sulla base di modelli analitici. Questa incertezza è fisica ed è dovuta al fatto che non si sanno ancora modellare bene i principali meccanismi climatici di feedback, cioè il vapore acqueo, le nuvole e la circolazione delle acque oceaniche che dominano i cambiamenti climatici.
Facciamo un esempio per capire meglio il significato fisico di questo argomento fondamentale. Se immaginiamo che la vera sensibilità climatica al raddoppio della concentrazione del CO2 sia vicina ad 1.5 oC invece di essere vicina a 3 oC, che è il valore medio predetto dai modelli dell’IPCC, i forzanti radiativi rappresentati in figura 2 sarebbero in grado di predire solo il 50% del riscaldamento osservato sin dal 1850. La logica conclusione sarebbe che alcuni meccanismi e forzanti ancora ignoti all’IPCC sarebbero responsabili dell’altro 50% del riscaldamento globale. In questo caso, i modelli adottati sarebbero fisicamente incompleti e, quindi, incapaci di riprodurre una parte della variabilità climatica naturale che avrebbe un peso consistente. Conseguentemente, anche le previsioni dei cambiamenti climatici per il XXI secolo mostrate in figura 1 dovrebbero essere rigettate perché inattendibili.
C) Il significato della temperatura di Mann nota come l’Hockey Stick del 1998 e il cambiamento di prospettiva avvenuto sin dal 2005 non ancora ben capito
Perché una maggioranza all’interno della comunità scientifica ha accettato la teoria del riscaldamento antropico nonostante la persistenza dell’incertezza fisica dei processi climatici manifestata dall’elevata incertezza della sensibilità climatica ai forzanti radiativi discussa sopra? Cerchiamo di capire cosa è successo.
Mann et al. (1998) pubblicarono una delle prime ricostruzioni della temperatura globale durante gli ultimi 1000 anni: questa ricostruzione è comunemente conosciuta come l’Hockey Stick ed è dipinta in figura 5. Questo grafico suggerisce che prima del 1900, cioè dello sviluppo industriale, la temperatura del pianeta era pressoché costante (si osserva una variazione climatica media di circa 0.2 oC) e che sin dal 1900 un riscaldamento anomalo di circa 0.8 oC sarebbe avvenuto. Diversi gruppi scientifici, tra i quali quello di Crowley et al. (2000), usarono semplici modelli climatici e conclusero che l’Hockey Stick implicava che il clima è quasi insensibile al sole ed ad altri fattori naturali, e che il riscaldamento osservato sin dal 1900 poteva essere interpretato solo come dovuto alle emissioni antropiche del XX secolo. Crowley concluse: “The very good agreement between models and data in the pre-anthropogenic interval also enhances confidence in the overall ability of climate models to simulate temperature variability on the largest scales.”
Quindi, in un certo qual modo, l’Hockey Stick dava una conferma predittiva, anche se qualitativa, che la variabilità climatica naturale è minima come i modelli basati sui forzati radiativi simulavano allora e simulano ancora oggi. Conseguentemente, i modelli potevano essere ragionevolmente accettati per interpretare il pattern generale della temperatura globale e questi interpretavano il riscaldamento globale sin dal 1900 come dovuto quasi completamente all’uomo.
Tuttavia sin dal 2004/2005 l’Hockey Stick è stato seriamente criticato su più fronti, soprattutto matematici e storici. Ricostruzioni alternative del clima degli ultimi millenni sono state proposte (Moberg et al. 2005, Mann et al. 2008, Ljungqvist 2010, Christiansen & Ljungqvist 2012). Queste suggeriscono una notevole variabilità climatica pre-industriale di almeno 0.6-0.7 oC che è tre-quattro volte superiore alla variabilità climatica pre-industriale rivelata dall’Hockey Stick.
Quindi, mentre intorno al 2000 poteva anche essere legittimo credere nei modelli climatici dell’IPCC, oggi questi devono essere messi in discussione dato che ora si sa che questi modelli non ricostruiscono le temperature del passato e predicono che il sole contribuisca solo marginalmente ai cambiamenti climatici. Tuttavia, le evidenze empiriche ci raccontano un’altra storia.
D) Analisi armonica della temperatura superficiale globale e i grandi cicli di 20, 60 e 1000 anni
Numerose ricostruzioni della temperatura durante l’Olocene, cioè degli ultimi 12.000 anni, presentano un ciclo di circa 1000 anni che, per giunta, è ben correlato con le concentrazioni di C14 e Be10 usate per ricostruire l’attività solare (cf.: Bond et al. 2001, Kerr 2001). Infatti, esiste una correlazione molto forte tra record climatici e record dell’attività solare (cf: Kirkby 2007, Scafetta 2012a, 2014a, Svensmark 2007). Il ciclo di mille anni ha regolato le maggiori fasi climatiche conosciute storicamente come il Periodo Caldo Romano di circa 2000 anni fa, il periodo freddo noto come “Secoli Bui” del 400-800 A.D., il Periodo Caldo Medioevale tra il 900 e il 1300 A.D., la Piccola era Glaciale tra il 1400 e 1800 A. D. e, infine, il Periodo Caldo Moderno.
Durante gli ultimi anni è stato anche osservato che numerose serie climatiche lunghe anche diversi secoli e fino a millenni presentano ampie oscillazioni tra cui una con un periodo di circa 20 anni e una di circa 50-70 anni. Infatti, la temperatura globale della superficie terrestre mostra i seguenti periodi di riscaldamento: 1850-1880, 1910-1940, 1970-2000. E i seguenti periodi di raffreddamento: 1880-1910, 1940-1970. Sin dal 2000 le temperature sono state piuttosto stabili. Si intravede chiaramente una oscillazione di circa 60 anni con una ampiezza totale di circa 0.3 oC che modula un trend di riscaldamento.
In generale, analisi armoniche hanno messo in evidenza l’esistenza di oscillazioni con periodi di circa 9.1 anni, 10-12 anni, 15 anni, 20 anni, 30 anni, 60 anni ed altre (Scafetta 2010, 2013, Klyashtorin et al. 2009, Wyatt & Curry 2014). Tuttavia, nessuno dei modelli dell’IPCC ha riprodotto questa variabilità naturale (Scafetta 2012b, 2013).
I modelli CMIP5 usati dall’IPCC non riproducono nessuno dei suddetti cicli, il che dimostra che questi modelli non riproducono la variabilità naturale del sistema climatico su tutte le scale temporali (Scafetta 2012b, 2013).
E) L’emergenza di una nuova teoria climatica basata su oscillazioni astronomiche
Il sistema solare appare caratterizzato da una misteriosa sincronizzazione tra i suoi componenti (Scafetta 2014b). Questa proprietà è conosciuta come la musica delle sfere sin dai tempi di Pitagora, Tolomeo e Keplero. I cicli orbitali di Milankovic e della loro relazione con le grandi glaciazioni sono oggi ben conosciuti. Tuttavia, le evidenze mostrate sopra suggeriscono influenze astronomiche su scale temporali anche molto più piccole delle scale millenarie.
Se la temperatura presenta oscillazioni approssimativamente periodiche, la spiegazione più ragionevole è che il sistema climatico è modulato da cicli astronomici. Confronti tra le analisi spettrali mobili della temperature della superficie terrestre e della velocità del sole relativa al baricentro del sistema solare, che è un buon proxy per le oscillazioni gravitazionali astronomiche del sistema solare, sono stati effettuati (Scafetta 2014c). La presenza di linee di massima potenza comuni nei due record dimostrano la coerenza spettrale tra il clima e le armoniche astronomiche come quelle vicino ai 20, 60 e 1000 anni, e molte altre. La temperatura anche contiene una armonica di circa 9 anni che può essere associata alle armoniche delle maree lunari.
Analisi approfondite delle oscillazioni gravitazionali del sistema solare e dell’attività solare hanno messo in evidenza che questa è caratterizzata da un gran numero di oscillazioni astronomiche per tutti i pianeti deducibile dalle scale temporali di pochi mesi a quelle millenarie (Scafetta 2010, 2012c, 2014c, Scafetta & Willson 2013a). Anche i record di aurore presentano simili oscillazioni (Scafetta 2012d, Scafetta & Willson 2013b). Non è possibile ignorare queste evidenze empiriche anche se i meccanismi fisici dei vari processi non sono ancora pienamente capiti.
F) Come si possono prevedere i cambiamenti climatici?
Analisi empiriche dei record climatici suggeriscono che il clima è parzialmente modulato da uno specifico set di oscillazioni. Queste oscillazioni appaiono coerenti con alcune oscillazioni astronomiche. A queste si deve aggiungere l’effetto dell’attività vulcanica e delle emissioni umane.
Quindi, per prevedere il clima è sufficiente osservare che una componente armonica è facile da estendere nel futuro in prima approssimazione usando appropriati modelli armonici, come si fa comunemente con le predizioni delle maree oceaniche. Per la componente umana si possono proporre degli scenari futuri di emissioni, ma c’è il problema di determinare la sensibilità climatica a questi forzanti radiativi. La componente vulcanica andrebbe lasciata fuori dal modello predittivo perché le eruzioni sono occasionali.
In una serie di studi (Scafetta 2010, 2012b, 2012d, 2013) ho proposto modelli empirici per i cambiamenti climatici basati su alcune oscillazioni astronomiche: oscillazioni di 9.1 anni di origine lunare e di 10.4, 20, 60, 115 e 983 anni, che sono vari cicli solari ed astronomici (Scafetta 2012a, 2012c, 2014c). La componente vulcanica e antropica è stata simulata stimando che la soluzione migliore era usare le simulazioni dei modelli attenuate del 50%. Questa scelta implica che la sensibilità climatica ai forzanti radiativi è la metà di quella dichiarata dall’IPCC, cioè è tra 0.75 oC e 2.3 oC e che altri meccanismi climatici siano presenti ma ancora ignoti. Ad esempio, ci potrebbero essere effetti elettromagnetici dello space weather che potrebbero influire direttamente sulla nuvolosità della Terra (Kirkby 2007, Svensmark 2007) come gli studi sulle aurore suggeriscono (Scafetta 2012d, Scafetta & Willson 2013b).
La capacità predittiva del modello empirico è stata testata calibrando il modello durante il periodo 1850-1950 e verificando la sua abilità di ricostruire il periodo 1950-2010 e viceversa (Scafetta 2010, 2012b, 2012d). Il modello risalente al 2011 ha correttamente predetto che la temperatura sarebbe cresciuta raggiungendo un massimo nel 2014-2015 (Scafetta 2014a).
Nella presentazione faccio due confronti:
1) Confronto la temperatura superficiale globale (curva nera) e tutte le simulazioni di tutti i modelli usati dall’IPCC per la ricostruzione climatica sin dal 1860 con proiezioni fino al 2100 secondo quattro alternativi scenari di emissioni umane indicati con rcp26 (emissioni minime), rcp45, rcp60 e rcp85 (emissioni massime). Dal 1860 al 2015 questi modelli riproducono approssimativamente solo il riscaldamento globale su scala secolare, ma nessun dettaglio climatico è ben riprodotto. Come si vede bene dall’inserto che ingrandisce il periodo 1990-2030, le simulazioni climatiche di questi modelli hanno predetto temperature decisamente troppo alte rispetto ai dati. Sin dal 2000 i modelli hanno predetto in media un riscaldamento di circa 2 oC per secolo mentre i dati non hanno mostrato nessun riscaldamento significativo.
2) Confronto la temperatura superficiale globale (curva nera) e tutte le stesse simulazioni adattate usando il modello empirico basato su oscillazioni lunari, solari ed astronomiche in aggiunta alle componenti vulcanica ed antropica. Queste sono state stimate come il 50% di quella prodotta dalle stesse simulazioni CMIP5 dipinte in figura 12A. Quindi il modello usa gli stessi scenari di emissioni antropiche usate dall’IPCC per il XXI secolo. La figura 12B e l’inserto mostrano che il modello empirico riproduce la variazione climatica osservata su scale decennali e maggiori, con una buona precisione durante l’intero periodo sin dal 1860 includendo il periodo seguente l’anno 2000. Esso predice un periodo caldo tra il 2014 e il 2015. Secondo questo modello la temperatura potrebbe oscillare rimanendo piuttosto stabile fino al 2030-2040. Per il 2100 il modello empirico mostra un possibile riscaldamento medio globale medio di circa 1 oC mentre l’IPCC ha previsto un riscaldamento globale medio di circa 2-3 oC.
G) Conclusioni
Un confronto diretto tra le simulazioni climatiche e i dati all’infuori del periodo di calibrazione degli stessi, cioè all’infuori del XX secolo, è deludente durante tutto l’Olocene. La divergenza dai dati diventa macroscopica anche dopo il 2000 dove i modelli dell’IPCC hanno predetto un riscaldamento di circa 2 oC per secolo mentre i dati non mostrano alcun riscaldamento significativo. In questi casi, il metodo scientifico richiede di guardare con grande diffidenza le previsioni climatiche per il XXI secolo ottenute con questi modelli. Alternativamente, ho evidenziato che l’analisi dei dati climatici mostra che questi sono spesso caratterizzati da oscillazioni più o meno periodiche, come cicli di circa 9, 10-12, 20, 60, 100-130 e 1000 anni e molti altri che sono coerenti con le maggiori oscillazioni solari, lunari e planetarie del sistema solare.
L’esistenza di oscillazioni climatiche riconducibili ad oscillazioni astronomiche prevedibili è ottimale per poter sviluppare modelli climatici con una elevata capacità predittiva. I meccanismi fisici possono variare. Secondo questo modello la temperatura potrebbe oscillare rimanendo piuttosto stabile fino al periodo 2030-2040 e per il 2100 la temperatura non dovrebbe crescere più di 1 oC in media rispetto al 2000 secondo gli stessi scenari di emissioni antropiche dell’IPCC.
In conclusione, l’analisi di molteplici dati suggerisce che le tesi dell’IPCC, secondo la quali l’umanità sarebbe in imminente pericolo a causa delle emissioni umane come il CO2, sono basate su modelli climatici troppo semplicistici che sovrastimano notevolmente il contributo umano e sottostimano quello naturale. Questi modelli non prendono in considerazione numerosi meccanismi responsabili delle oscillazioni naturali del clima, che sembrano a loro volta sincronizzati con le oscillazioni del sistema solare indotte dal sole, dal movimento dei pianeti e della luna. Tuttavia, già da ora una ricostruzione dettagliata del clima suggerisce che il modello empirico è più soddisfacente e può essere più attendibile nel predire cosa potrebbe succedere nel XXI secolo.
Se i prossimi decenni i cambiamenti climatici saranno moderati come il modello empirico proposto suggerisce, i vantaggi economici potrebbero essere significativi. Un modesto riscaldamento del globo dovrebbe essere più benefico che dannoso, considerando che storicamente l’umanità ha sempre sofferto maggiormente durante i periodi climatici più freddi mentre ha prosperato maggiormente durante quelli più caldi. Inoltre, con una maggiore quantità di CO2 atmosferico la Terra dovrebbe diventare più verde e produrre più cibo per tutti. Infine, per più modesti cambiamenti climatici i progetti di adattamento oppure di mitigazione dovrebbero essere più economici, così che risorse maggiori potrebbero essere disponibili per progetti ambientali alternativi al fine di limitare l’inquinamento chimico, contenere la deforestazione, risparmiare acqua ed altre risorse non rigenerabili: elementi tutti che migliorano la qualità della vita.

 

Bibliografia
Bond, G., Kromer, B., Beer, J., Muscheler, R., Evans, M.N., Showers, W., Hoffmann, S., Lotti-Bond, R., Hajdas, I., Bonani, G.: Persistent solar influence on North Atlantic climate during the Holocene. Science 294, 2130–2136, 2001.
Christiansen, B., Ljungqvist, F. C.: The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability. Clim. Past 8, 765–786, 2012.
Crowley, T.J.: Causes of climate change over the past 1000 years. Science 289, 270–277, 2000.
IPCC, The Intergovernmental Panel on Climate Change: “Climate Change 2013, The Physical Science Basis. Working Group I Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change”. Cambridge University Press, 2014. http://www.ipcc.ch/
Kerr, R.A.: A variable sun paces millennial climate. Science 294, 1431–1433, 2001.
Kirkby, J.: Cosmic rays and climate. Surv. Geophys. 28, 333–375, 2007.
Klyashtorin, L.B., Borisov, V., Lyubushin, A.: Cyclic changes of climate and major commercial stocks of the Barents Sea. Mar. Biol. Res. 5, 4–17, 2009.
Lewis, N.: An Objective Bayesian Improved Approach for Applying Optimal Fingerprint Techniques to Estimate Climate Sensitivity. J. Climate, 26, 7414–7429, 2013.
Ljungqvist, F.C.: A new reconstruction of temperature variability in the extra-tropical Northern
Hemisphere during the last two millennia. Geogr. Ann. A, 92, 339–351, 2010.
Mann, M.E., Bradley, R.S., Hughes, M.K.: Global-scale temperature patterns and climate forcing over the past six centuries. Nature, 1998, 392, 779.
Mann, M.E., Zhang, Z., Hughes, M.K., Bradley, R.S., Miller, S.K., Rutherford, S., Ni, F.: Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia. PNAS 105, 13252–13257, 2008.

Moberg, A., Sonechkin, D.M., Holmgren, K., Datsenko, N.M., Karlén, W., Lauritzen, S.-E.: Highly variable Northern Hemisphere temperatures reconstructed from low and high resolution proxy data. Nature 433, 613–617, 2005.
Scafetta, N.: Empirical evidence for a celestial origin of the climate oscillations and its implications. J. of Atm. and Sol.-Terr. Phys. 72, 951-970, 2010.
Scafetta, N.: Multi-scale harmonic model for solar and climate cyclical variation throughout the Holocene based on Jupiter-Saturn tidal frequencies plus the 11-year solar dynamo cycle. J. of Atm. and Sol.-Terr. Phys. 80, 296-311, 2012a.
Scafetta, N.: Testing an astronomically based decadal-scale empirical harmonic climate model versus the IPCC (2007) general circulation climate models. J. of Atm. and Sol.-Terr. Phys. 80, 124-137, 2012b.
Scafetta, N.: Does the Sun work as a nuclear fusion amplifier of planetary tidal forcing? A proposal for a physical mechanism based on the mass-luminosity relation. J. of Atm. and Sol.-Terr. Phys. 81-82, 27-40, 2012c.
Scafetta, N.: A shared frequency set between the historical mid-latitude aurora records and the global surface temperature. J. of Atm. and Sol.-Terr. Phys 74, 145-163, 2012d.
Scafetta, N.: Discussion on climate oscillations: CMIP5 general circulation models versus a semi-empirical harmonic model based on astronomical cycles. Earth-Science Reviews 126, 321-357, 2013.
Scafetta, N.: Global temperatures and sunspot numbers. Are they related? Yes, but non linearly. A reply to Gil-Alana et al. (2014a). Physica A 413, 329–342, 2014a.
Scafetta, N.: The complex planetary synchronization structure of the solar system. Pattern Recognition in Physics 2, 1-19, 2014b.
Scafetta, N.: Discussion on the spectral coherence between planetary, solar and climate oscillations: a reply to some critiques. Astrophysics and Space Science 354, 275-299, 2014c.
Scafetta, N., Willson, R.C.: Empirical evidences for a planetary modulation of total solar irradiance and the TSI signature of the 1.09-year Earth-Jupiter conjunction cycle. Astrophysics and Space Science 348, 25-39, 2013a.
Scafetta, N., Willson, R.C.: Planetary harmonics in the historical Hungarian aurora record (1523–1960). Planetary and Space Science 78, 38-44, 2013b.
Svensmark, H.: Cosmoclimatology: a new theory emerges. Astron. Geophys. 48, 18–24, 2007.
Wyatt, M., Curry J.: Role of Eurasian Arctic shelf sea ice in a secularly varying hemispheric climate signal during the twentieth century. Clim. Dyn. 42, 2763-2782, 2014.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Uscita nr. 71 del 20/02/2016