Risale addirittura alla seconda metà del secolo diciannovesimo il
primo tentativo di realizzare una previsione delle condizioni
atmosferiche attraverso lo studio della formazione delle depressioni
alle medie e alte latitudini. Lo scrive R. Fitz-Roy nel suo volume "Weather
book", edito a Londra nel 1863, con le testuali parole:"I vortici
ciclonici alle nostre latitudini si formano nelle zone di
interazione fra masse d'aria aventi differenti proprietà, le quali
masse si originano rispettivamente nelle zone polari ed in quelle
sub-tropicali". L'intuizione era veramente formidabile ma per
parecchi anni ancora nessuno prese in considerazione una simile
quanto ardita affermazione, dato che in quel tempo, per via dei
commerci navali tra Europa e continente americano, si seguivano
rotte sub-tropicali e pertanto risultava più comodo studiare ed
analizzare la meteorologia convettiva che non certo quella
sinottica.
E' necessario giungere ai primi del secolo ventesimo perché le
affermazioni di Fitz-Roy venissero accolte e analizzate. Fu merito
proprio della scuola norvegese con a capo V. Bjerknes iniziare uno
studio sistematico sulle correnti alle medie e alte latitudini con
la giusta convinzione che non sarebbe stato possibile analizzare le
condizioni meteorologiche in Europa, e tanto meno prevederne
l'evoluzione, utilizzando solamente osservazioni e dati meteo di
singole località senza disporre di un quadro d'insieme su aree le
più vaste possibile. Si giunse così, in modo particolare nei decenni
1920-1950, al metodo molto importante di segnare su carte
geografiche adatte i dati rilevati tutti alla stessa ora e di
tracciare isoterme e isobare che in qualche modo potessero legare,
in figure particolari, le osservazioni di stazioni anche molto
lontane fra loro, ma che presentavano dati quasi simili. Si crearono
in questo modo dei quadri "sinottici", più completi e precisi di
quanto non fosse stato fatto fino ad allora, quadri che costituirono
e costituiscono, almeno in gran parte, l'ossatura di quella
meteorologia, che sia pure attraverso profonde modifiche, è ancora
oggi un fondamento delle previsioni del tempo: la cosiddetta
Meteorologia Sinottica.
Essa si presenta tuttora come quel ramo della Fisica dell'Atmosfera
in cui, vengono sviluppati modelli (concettuali e fisico-matematici)
atti ad individuare soprattutto la struttura atmosferica
tridimensionale e a prevederne l'evoluzione futura. V Bjerknes
affermò infatti che "se l'analisi sinottica avesse potuto fornire
una descrizione completa dello stato iniziale dell'atmosfera sarebbe
allora stato possibile fare una prognosi degli stati futuri usando
le leggi fondamentali dell'idrodinamica e della termodinamica".
Il modello venne chiamato anche modello del fronte polare poichè fu
inizialmente applicato soprattutto ai fronti di avanzata di aria di
origine polare, in arrivo, per il continente europeo, in modo
particolare dalla Groenlandia. Il modello dunque ebbe alcuni
significativi successi prognostici per le Nazioni affacciate
sull'Atlantico, come Isole Britanniche, Scandinavia e Francia, ma si
rivelò spesso ingannevole in regioni dal clima più tumultuoso e
troppo variabile, come il Bacino del Mediterraneo, dove l'orografia,
in modo speciale quella alpina, interagendo in maniera molto marcata
con i fronti di perturbazione, ne modifica sostanzialmente la
struttura e il movimento.
La scuola norvegese era praticamente l'unica seguita nel campo delle
previsioni meteorologiche e ricevette anche un notevole contributo
di perfezionamento in modo decisivo ad opera dell'inglese R.
Sutcliffe, il quale mise a punto la cosiddetta teoria dello sviluppo
baroclino. Questa teoria fece fare alle previsioni un notevole balzo
in avanti con l'idea di collegare l'evoluzione dei campi dinamici e
termici in quota con quelli al suolo dimostrando che le
perturbazioni al suolo dipendono in gran parte dall'evoluzione alle
varie quote. In questi anni si ebbe anche un miglioramento, seppure
modesto, della rete di osservazione dei parametri meteo in quota,
attraverso i sondaggi con radio sonde e così Sutcliffe mise in
evidenza che la formazione di un vortice ciclonico negli strati
bassi dipende molto spesso da un' instabilità su grande scala dei
sistemi in quota. Tale instabilità è collegata principalmente ai
gradienti termici, denominata instabilità baroclina, e produce nel
ramo orientale della saccatura di un'onda in quota, un'ampia zona di
divergenza di massa; al di sotto di tale zona, per compensazione, vi
è dunque una regione di moti verticali ascendenti ed un'altra di
convergenza negli strati prossimi al suolo.
Nei bassi strati, per effetto della forza di Coriolis, l'aria
penetra nella zona di convergenza con movimento antiorario a spirale
creando così un caratteristico vortice ciclonico; inoltre lo stesso
processo produce un'ondulazione sul fronte di avanzata dell' aria
fredda, cioè sul fronte freddo, determinando, in una prima fase, la
formazione del sistema frontale costituito da fronte freddo e fronte
caldo e successivamente lo sviluppo del sistema maturo fronte
freddo-fronte caldo-fronte occluso.
Durante e soprattutto dopo la Seconda Guerra Mondiale la
meteorologia e le previsioni meteorologiche ebbero un grande
sviluppo in particolare per il grande miglioramento della rete di
osservazioni al suolo e in quota con maglie sempre più strette. Fu
allora che un gruppo di meteorologi scandinavi, fra i quali
primeggiarono S. Petterssen ed E. Palmen dell'Università di Chicago
che svilupparono meglio, date le nuove possibilità, la teoria dello
sviluppo baroclino che divenne nel periodo fra la fine della guerra
e gli anni 70 il più importante e preciso strumento a disposizione
dei previsori sinottici del tempo a breve scadenza. Per quanto
riguarda poi le scale di moto, l'individuazione di numerosi sistemi
di tempo non etichettabili nell'ambito della Scuola Norvegese portò
anche alla messa a punto di un nuovo importante strumento
diagnostico e prognostico:l'analisi di scala. Un quadro sinottico di
una situazione meteorologica infatti coinvolge sistemi aventi
dimensioni spazio-temporali diverse, cioè scale che lavorano in
intervalli temporali diversi, su estensioni territoriali diverse,
con contenuti energetici diversi, ma tutte presenti
contemporaneamente in un'intrigata sequenza di interazioni.
Il gruppo di Chicago catalogò poi in maniera esemplare le correnti a
getto, quelle correnti velocissime, fino a oltre 500 chilometri
orari, che si sviluppano in determinate zone della troposfera e
della stratosfera. Di queste correnti fu riconosciuta la dinamica di
formazione e di evoluzione, la loro posizione rispetto agli altri
sistemi e la loro estrema importanza nell'evoluzione dinamica delle
situazioni meteorologiche.
Fra l'altro sul testo di S. Petterssen "Weather Analysis and
Forecasting" e su quello di E. Palmen e C. Newton "Atmospheric
Circulation Systems", si sono formati, almeno nella fase iniziale
della loro carriera, migliaia di meteorologi in tutto il mondo.
Nella seconda metà degli anni 70 era già molto sentita, in molti
campi di ricerca e di applicazione, la necessità di previsioni
attendibili anche a media (3-5 giorni) o a lunga scadenza (7-10
giorni). Con la costituzione successiva di alcuni supercentri di
elaborazione, fra i quali spicca l'European Centre for Medium Range
Weather Forecast (ECMWF), fu riconoscere che bisognava essere
sufficientemente sicuri dell'analisi di partenza, in altre parole
quali caratteristiche di base avrebbe dovuto avere una rete mondiale
di osservazioni. Fu questo uno degli obiettivi del GARP (Global
Atmosphere Research Programme). I risultati in questo senso furono
sintetizzati nell'importante convegno tenuto a cura
dell'Organizzazione Meteorologica Mondiale a Princeton nel dicembre
1982. Le conclusioni, purtroppo, non furono ottimistiche: si stimò
che una rete osservazionale adatta per una buona analisi di partenza
atta ad ottenere con metodi numerici previsioni di 15-30 giorni
aventi la stessa attendibilità di quelle a media scadenza (cioè fino
a circa 7-10 giorni) sarebbe stata disponibile presumibilmente nei
primissimi anni del 2000, realizzazione d'altra parte non ancora
attuata fino ad oggi. Fino a quel momento bisognava ancora affidarsi
alle tecniche tradizionali non numeriche. Di conseguenza per
verificare i progressi fatti in tutti i campi, sia in quelli
tradizionali, sia in quelli della modellistica numerica orientata
verso la lunga scadenza, l'OMM cominciò ad organizzare convegni a
ritmo biennale a partire dal 1983; il primo di tali convegni si
tenne al College Park in USA e l'ultimo, sui Climate Risk con
sottotitolo "Living with Climate Variability and Change:
Understanding the Uncertainties and Managing the Risks" a Espoo,
Finland, 17-21 July 2006.
Sulla scena di questo tipo di previsioni si era intanto affacciata
una nuova metodologia, quella delle teleconnessioni, che si basa
sullo studio di anomalie imponenti che si verificano in determinate
zone del globo che possono influenzare la circolazione generale
dell'atmosfera. Esse possono generare, anche dopo molto tempo
perfino di mesi altri fenomeni ben individuabili in regioni del
globo lontane a volte molte migliaia di chilometri da quella
dell'anomalia iniziale.
Ancora più avanti, per una più accurata analisi probabilistica
previsionale, ci si rivolse infine anche agli scambi
oceani-atmosfera, come pure quelli superfici ghiacciate-atmosfera,
poiché, soprattutto nel lungo termine, influenzano in maniera
importante la circolazione atmosferica globale.
Al giorno d'oggi importante lo studio dei fenomeni atmosferici con
modelli a maglie sempre più fitte, in modo da ottenere una
previsione attendibile almeno fino a 4-5 giorni dell'evoluzione
delle condizioni atmosferiche su aree sempre più circoscritte, come
ad esempio grandi città, anche con l'aiuto di supercalcolatori e dei
dati satellitari in orbita geosincrona o polare.
|