*** TWEET da CENTROMETEO ***

La nostra Newsletter!

Resta aggiornato sulle nostre meteo-novità!

Get our toolbar!

Le previsioni meteorologiche oggi

Una donna osserva...

La Meteorologia come scienza e le previsioni del tempo come sua principale applicazione sono sviluppi relativamente recenti dell’antichissima passione dell’uomo per l’osservazione dell’Universo e della Natura.

La nascita del telegrafo, e con esso delle moderne telecomunicazioni, viene comunemente associata alle prime osservazioni organizzate dell’atmosfera. Fino a quel momento, infatti, le sole comunicazioni postali avevano reso quantomeno problematico il compito di radunare rapidamente in un solo luogo tutte le misure di un parametro effettuate contemporaneamente o quasi. Tali misure, principalmente di pressione e temperatura, sono poi rimaste confinate vicino al suolo fino all’avvento del volo commerciale che, assieme alle sempre pressanti richieste del mondo militare, ha rappresentato subito un’importante sorgente di sviluppo per la neonata Meteorologia (Meteorologia, da meteora - cosa che cade dal cielo, come la pioggia; e non meteorologia, come troppo spesso si legge sui giornali e sui documenti ufficiali del CNR).

Nei primi decenni del novecento si è quindi sviluppata una rete osservativa mondiale che ha posto le basi della moderna Meteorologia operativa. Tale rete di osservazioni al suolo e in quota (queste ultime effettuate inizialmente con i soli palloni sonda) permetteva di fotografare la situazione ad istanti regolari, una o due volte al giorno, almeno attraverso alcuni parametri fisici fondamentali come pressione, temperatura, umidità e velocità del vento. Soprattutto all’inizio, però, tali "istantanee" dello stato dell’atmosfera risultavano come sfocate, a causa sia dell’enorme scarsità di dati che delle tecniche, molto primitive, di analisi di tali dati.


Immaginatevi il meteorologo previsore britannico che, nel 1944, doveva fare la previsione del tempo per la notte fatidica dell’invasione della Normandia, il D-day, con a disposizione solo pochi dati provenienti da stazioni sparse essenzialmente a caso nell’area euroatlantica; alcune mappe di isolinee di pressione e di temperatura (isobare e isoterme, rispettivamente) tracciate a mano a partire dagli stessi dati, a volte più frutto della fantasia interpretativa dei meteorologi di sala operativa che delle reali osservazioni sul campo. Se questa era l’indecisione sullo stato iniziale dell’atmosfera, figurarsi gli errori commessi dalle previsioni anche solo a 24 o 36 ore. C’era chiaramente bisogno di strumenti più potenti, affidabili ed oggettivi.

Le basi fisico-matematiche per sviluppare questi strumenti erano note da tempo. L’atmosfera è un fluido e come tale si comporta seguendo le leggi classiche della meccanica e della termodinamica, leggi che, in linea di principio, conosciamo bene. Che cosa mancava allora? Mancava quella che con la terminologia moderna potremmo chiamare la potenza di elaborazione. Le leggi che regolano l’evoluzione dello stato dell’atmosfera (ma anche di quello degli oceani) sono note con un notevole grado di precisione, ma sono anche complesse e si esprimono attraverso equazioni matematiche difficili (o meglio, onerose) da risolvere, sebbene non impossibili. Se ne era ben accorto L.F. Richardson, matematico e fisico inglese con il pallino della Meteorologia che, mentre contribuiva come portantino barelliere allo sforzo bellico britannico durante la prima guerra mondiale (da pacifista convinto quale era) cercava, tra una granata e l’altra e senza successo, di risolvere a mano il problema di produrre una previsione meteorologica numerica a 12 (dodici!) ore sulle isole britanniche. La sua fantasia davvero profetica, degna di un Giulio Verne, era arrivata ad immaginarsi, in mancanza del supercalcolatore di turno, l’intera Royal Albert Hall piena di operatori matematici, umani naturalmente e seduti l’uno accanto all’altro che, scambiandosi furiosamente i risultati, svolgevano in tempo reale tutti i conti aritmetici necessari a produrre una previsione. La sua visione era solo prematura, non sbagliata, ma di fatto il problema è rimasto praticamente inaffrontato sino all’avvento degli elaboratori elettronici che, dapprima timidamente verso gli anni cinquanta e poi via via sempre più prepotentemente, si sono imposti come la soluzione al problema. La simbiosi tra previsioni meteorologiche e sviluppo di strumenti di elaborazione automatica sempre più potenti è stata sin dall’inizio così forte da far giocare alla Meteorologia applicata, assieme alla fisica nucleare (la bomba atomica, per intendersi) il ruolo di disciplina trainante nella richiesta, rivolta all’industria dei supercomputer, di sempre maggior potenza di calcolo.

E i satelliti?

Si sente sempre dire che le previsioni meteorologiche le fanno i satelliti (affermazione peraltro inesatta, se non sbagliata) ma in realtà il ruolo degli Sputnik in questa impresa è stato importantissimo all’inizio, negli anni sessanta-settanta. Tale ruolo si è paradossalmente molto ridimensionato negli anni ottanta per ridecollare poi dalla fine degli anni ottanta in avanti, fino ad arrivare oggi a costituire la principale speranza per il futuro miglioramento qualitativo delle previsioni meteorologiche. All’inizio il solo fatto di "vedere" la mappa del tempo con le nubi, i fronti, la nebbia, ha letteralmente scioccato i meteorologi, aggiungendo ai limitati dati a loro disposizione un ausilio assolutamente formidabile, capace non solo di fotografare (ora in senso letterale) lo stato dell’atmosfera "in tempo reale" o quasi, ma addirittura di mostrare l’evoluzione animata delle ultime 24-48 ore, permettendo quindi una estrapolazione soggettiva ragionata di tale evoluzione per almeno altre 24 ore. Ciò ha aumentato enormemente, attorno agli anni settanta, la qualità oltre che la presentabilità televisiva delle previsioni a breve periodo (24-48 ore appunto) per il grande pubblico. Man mano però che i previsori si andavano assuefacendo alla meraviglia rappresentata dalla vera fotografia della mappa del tempo, ci si rendeva rapidamente conto che sfruttare le potenzialità insite nelle misure remote (da cui "remote sensing") effettuate da piattaforma satellitare era compito tutt’altro che semplice. I satelliti, infatti, oltre a fotografare la superficie terrestre in bianco e nero per la delizia dei previsori e dei meteomaniaci, effettuano moltissime misure di radianza (come a dire "luminosità", proveniente dalla superficie sottostante, anche se non necessariamente a lunghezze d’onda visibili) dalle quali è possibile derivare indirettamente stime di temperatura ed umidità dell’atmosfera. Per non parlare della possibilità di valutare la velocità del vento sugli oceani tropicali misurando gli spostamenti delle nubi cumuliformi da due foto satellitari prese in rapida sequenza. Proprio in queste misure indirette dei parametri atmosferici stava e sta tuttora l’enorme potenziale meteorologico dei satelliti. Per molti, troppi anni però queste misure "remote" sono state di utilità limitata (limitatissima, se rapportati al loro costo) alla Meteorologia previsionale. Per migliorare la situazione ci sono volute successive generazioni di satelliti meteo (ognuna costata cifre mirabolanti, quasi sempre giustificate sulla base di promesse mai mantenute appieno, almeno sino a pochissimi anni fa) nuovi strumenti di misura (essenzialmente però sempre radiometri) molto più articolati e sofisticati. Ma al di sopra di tutto è stato indispensabile lo sviluppo di tecniche matematiche assolutamente nuove di estrazione dell’informazione meteorologica dai dati da satellite per portare la situazione a quella che è oggi. Siamo finalmente in vista di una Meteorologia osservativa da satellite in grado, se non di sostituire (per questo ci vorrà molto più tempo, se mai avverrà) almeno di relegare in secondo piano le misure meteorologiche "classiche" effettuate dalla superficie del pianeta con gli strumenti della capannina meteo e delle radiosonde trascinate verso l’alto dai palloni gonfi di elio.



 

Come si producono dunque oggi le previsioni meteorologiche?

Il problema si affronta come quello della previsione del comportamento di un fluido (nel nostro caso la mistura di gas chiamata atmosfera) la cui dinamica sia regolata dalle leggi classiche della fisica ed il cui stato iniziale sia noto. In fisica questa situazione viene in genere descritta come la soluzione di un problema alle condizioni iniziali. Si scrivono le equazioni prognostiche dell’evoluzione dei campi tridimensionali (nel senso di latitudine, longitudine e altezza) di quei parametri come temperatura, pressione, umidità e velocità del vento, che descrivono lo stato dell’atmosfera, supponendo di conoscerne i valori in un certo istante che chiameremo appunto "iniziale". Queste equazioni, che esprimono le leggi di conservazione di massa, energia e quantità di moto, rappresentano in verità un sistema di equazioni differenziali alle derivate parziali di formidabile complessità e devono quindi venire, come si dice, discretizzate, ridotte cioè ad un problema algebrico che possa essere affrontato con le tecniche del calcolo numerico. Il tutto viene poi dato in pasto ad un supercalcolatore che risolve il problema, calcolando per un numero N abbastanza grande di istanti successivi i valori dei campi tridimensionali degli stessi parametri (sempre temperatura, pressione, ecc.) fino a raggiungere il momento voluto nel futuro. Il prodotto della fatica elettronica del calcolatore, espresso in termini di quegli stessi campi tridimensionali globali (che ricoprono cioè tutta la Terra) calcolati per l’istante futuro è la previsione. Il gioco è fatto, il calcolatore non solo calcola, ma naturalmente grafica in due, tre o quattro dimensioni, temperatura, pressione, umidità, vento, nuvolosità, precipitazione e quant’altro il previsore desideri; a colori, naturalmente.

Allora, dove sta il problema?

Perché spesso non piove quando dovrebbe e l’atmosfera si dimostra così spesso poco disposta a collaborare, comportandosi talvolta molto diversamente da come sarebbe lecito attendersi? Il problema sono gli errori che commettiamo nel risolvere il complicato intreccio fisico-matematico che porta alla pioggia di domani. Sono così tanti questi errori che si fa fatica ad elencarli tutti. Proviamo a cominciare dall’inizio, cioè dalle condizioni iniziali:

  • La fotografia dello stato dell’atmosfera ad esempio oggi alle 12 GMT (il mezzogiorno del tempo medio di Greenwich) che è ciò che ci serve per partire verso la previsione per domani, dopodomani e così via, è una foto difficile da prendere. Le stazioni osservative non sono molte (costano troppo da mantenere, e con la Meteorologia ci si procurano pochi voti alle elezioni); gli spazi lasciati vuoti, soprattutto sugli oceani, significano errori sulle condizioni iniziali.

  • Gli strumenti di misura usati, naturalmente, non sono perfetti. Gli errori di misura associati, per esempio, ad una temperatura dell’aria misurata indirettamente da satellite sono molto più grandi (il doppio, il quadruplo) di quelli associabili al termometro da poche lire che misura la temperatura nella stanza dei bambini o nel garage.

  • Le equazioni prognostiche: non sono certo perfette, sono state derivate infatti sulla base di approssimazioni, o per renderle affrontabili o perché non conosciamo ancora bene certi processi fisici, per esempio come le goccioline si mettono insieme per fare la pioggia o come gli aghi di ghiaccio che formano i cirri interagiscano con la radiazione solare.

  • I metodi matematici di soluzione delle equazioni. Altre approssimazioni che vanno a sommarsi, a moltiplicarsi, ad interagire con tutte le altre.

  • Ed ancora, la potenza di elaborazione elettronica digitale che abbiamo a disposizione non è infinita. È la massima disponibile, in genere, ma non è certo infinita. Questo ci costringe a rappresentare l’atmosfera come composta (ad esempio) di tanti cubetti di circa 50 km per 50 km in orizzontale per qualche centinaio di metri in verticale (alla faccia dei cubetti!). Se questi cubetti potessero essere 1 m per 1 m per 1 cm (o anche 1 mm per 1 mm per 1 mm!) sarebbe probabilmente molto meglio. Sfortunatamente, la previsione meteo per domani sarebbe pronta il mese prossimo, anche avendo a completa disposizione il supercomputer più potente del mondo (situazione questa peraltro realistica al centro meteorologico europeo di Reading, in Inghilterra, che produce le previsioni meteo globali sino a 8-10 giorni (e oltre) usate in tutta Europa e quindi anche in Italia).Tutti questi errori poi vanno ad accumularsi e, non contenti, crescono vertiginosamente al crescere della scadenza della previsione (previsioni a breve, 24-48 ore, molto buone quasi sempre; previsioni a media, 3-7 giorni, abbastanza buone spesso; oltre è solo una lotteria).


Un ultimo dettaglio (ma non tanto) per chiudere, ad ennesima dimostrazione che la natura è spesso matrigna. Se l’atmosfera si comportasse in modo diciamo così "regolare", gli errori di cui sopra si sommerebbero tra loro, crescendo via via durante l’evoluzione della previsione in modo approssimativamente lineare. Saremmo perciò in una situazione nella quale dimezzando, per esempio, l’errore commesso sulle condizioni iniziali (migliorando per ipotesi gli strumenti di misura, mettendo in orbita più satelliti di ultima generazione, sviluppando nuovi algoritmi di analisi dati) saremmo praticamente certi di dimezzare l’errore della previsione, praticamente ad ogni scadenza. Ci troveremmo quindi in una situazione in cui potremmo, almeno in linea di principio, quantificare il costo di un sistema osservativo previsionale globale in funzione di un dato errore di previsione (un errore considerato, per esempio, accettabile per le applicazioni del caso). Naturalmente le cose non vanno affatto così, sarebbe troppo facile. C’è il problema della farfalla che sbatte le ali in California (o giù di lì) e che provoca, dopo pochi giorni, un uragano in Indocina. L’atmosfera è infatti un sistema sì deterministico (il futuro è unica e diretta conseguenza del passato) ma non lineare (lo provano le equazioni di cui sopra, che conosciamo bene), addirittura caotico, cioè infinitamente sensibile alle condizioni iniziali. Questo significa non solo che gli errori iniziali crescono più rapidamente (il che tutto sommato potrebbe soltanto tradursi in costi più alti per una previsione di data accuratezza) ma qualcosa di ben più fondamentale: significa che dopo un tempo finito, caratteristico del sistema naturale atmosfera, due condizioni iniziali diverse tra loro per una quantità anche infinitesima (diversa da zero, ma piccola quanto si voglia, per esempio la differenza tra atmosfera con farfalla e atmosfera senza farfalla) saranno evolute in due stati atmosferici futuri (per esempio due previsioni eseguite con un sistema perfetto, esente da errori) diverse tra loro come due istanti scelti a caso (oggi e il 6 Ottobre 1482, per dire).

In conclusione viene stimato attualmente (stima peraltro soggetta a continue revisioni ed interminabili diatribe) che questo "limite deterministico di predicibilità" sia dell’ordine di alcune settimane (poche, due o tre...). E si stima anche che la qualità delle migliori previsioni meteorologiche attuali (quelle del Centro Europeo) benché ancora ampiamente migliorabile, non sia poi più così lontana da questo limite come lo era, diciamo, venti anni fa. Comincia a porsi quindi il problema di come impiegare al meglio le nostre future risorse (quelle a disposizione dei servizi meteorologici nazionali e regionali, per intendersi); se soltanto affinando ulteriormente la punta della matita (migliorando cioè al limite del possibile le condizioni iniziali, le equazioni, le tecniche di soluzione, il dettaglio dei modelli e così via) oppure cominciando anche a pensare, in modo più originale e fantasioso, se non sia il caso di abbandonare la matita e comperarsi una biro, cioè progettando e sviluppando approcci completamente nuovi. Mi riferisco qui al cosiddetto approccio stocastico-dinamico (di tipo Monte Carlo, per usare un termine caro ai fisici e ai giocatori d’azzardo) nel quale lo stesso modello numerico viene integrato non una ma decine (forse presto anche centinaia) di volte a partire da condizioni iniziali pressoché (ma non proprio) identiche, per fornire non una sola previsione deterministica, ma uno spettro di possibili scenari evolutivi, ognuno specificato dalla sua probabilità di realizzazione. Ma questa è tutta un’altra storia…

Tratto da un articolo di S. Tibaldi - Docente di Climatologia e Meteorologia - Gruppo Dinamica Atmosferica, Dipartimento di Fisica, Università di Bologna, Dicembre ’95