Divorata dai batteri mangiacarne, Nancy è stata vittima dell’uragano Harvey

Rara e violenta infezione dei tessuti sottocutanei, la fascite necrotizzante è letale in più del 70 percento dei pazienti. È scatenata da ‘batteri mangiacarne’, spesso versioni mutate e aggressive di microorganismi comuni. Ecco tutto quello che c’è da sapere.

Batteri mangiacarne: l’infezione killer trasmessa nelle acque post uragano. Una ex maestra elementare del Texas di 77 anni, è morta dopo 11 giorni di agonia a causa di una fascite necrotizzante, una infezione terribile trasmessa dall’acqua contaminata a contatto con le ferite, quello che è successo a lei dopo che l’uragano Harvey ha colpito la sua abitazione. Volgarmente, ciò che ha ucciso Nancy Reed tra atroci dolori, viene attribuito a “batteri mangiacarne”.

Questi batteri, quale che sia la loro origine, entrano attraverso le acque reflue nelle ferite che necessariamente le persone investite da un uragano si procurano: i batteri infestano il tessuto connettivo che ricopre il corpo umano, “fascia”, in termini anatomici. Rapida e aggressiva, la malattia si sviluppa causando vescicole, bolle fino a necrosi dei tessuti sottocutanei, choc settico, morte. Se presa in tempo gli antibiotici funzionano, ma con punte del 25/30% di casi di morte, quando i contagiati non perdono gli arti.

Non è chiaro quale sia il batterio colpevole, ma Rachel Noble, professoressa di Biologia marina all’Università del Nord Carolina, sospetta che la causa sia il batterio Vibrio vulnificus, microbo marino che rappresenta un rischio raro ma potenzialmente mortale per chi ha una ferita aperta. (Cristina Marrone, Corriere.it)

 

BATTERI PATOGENI

Il genere Salmonella, appartenente alla famiglia delle Enterobacteriaceae, è costituito da microrganismi di forma bastoncellare, Gram-negativi, tipici della flora microbica intestinale dei vertebrati a sangue caldo e, di conseguenza, rientra nella cosiddetta microflora secondaria o alloctona del pescato. Poiché il principale serbatoio di diffusione nell’ambiente è sempre costituito dalle feci d’animali da allevamento e uomo, è verosimile che i prodotti della pesca possano inquinarsi con Salmonella spp. in due modi essenziali: per contatto con acque costiere, dolci o salmastre, in prossimità di foci di fiume o scarichi fognari; per inquinamento da manipolazione secondaria in fase di lavorazione (decapitazione, sfilettatura, ecc.), per inquinamento d’attrezzi di lavoro, superfici, ecc. non va dimenticato che a volte anche l’uomo può fungere da portatore asintomatico del microrganismo. Salmonella è un patogeno noto come causa di tossinfezione a partire da alimenti quali: carni (di pollo, suino e bovino) e uova, nei prodotti ittici la presenza è aumentata da quando si è sviluppata l’importazione da paesi terzi, dove l’igiene di lavorazione è abbastanza scarsa.

I molluschi bivalvi vivi sono i prodotti della pesca più a rischio, seguiti da filetti di pesce e crostacei cotti sgusciati.
La prevenzione delle Salmonellosi da consumo di prodotti ittici si basa sul controllo della lavorazione nei paesi terzi e dei prodotti importati. A rischio i bivalvi allevati in prossimità di foci di fiumi di provenienza da zone altamente urbanizzate ed a vocazione zootecnica: controllo delle acque di produzione.
Sebbene la legislazione nazionale sia molto restrittiva riguardo la contaminazione da Salmonella, in quanto ne esige l’assenza in 25 g di prodotto, va considerato che non sempre la sua presenza è associata a malattia. Dei circa 2500 sierotipi o sierovarietà di Salmonella oggi identificati, S. enteritidis, S. typhimurium, S. newport e S. heidelberg sono tra quelli maggiormente implicati nelle tossinfezioni alimentari.

Shigella spp
La Shigella è un germe Gram-negativo il cui serbatoio di diffusione permanente è rappresentato dall’uomo che funge da eliminatore attraverso le feci, per cui i prodotti della pesca possono risultare già inquinati all’origine (se provengono o sono messi a contatto con acque costiere) oppure possono essere contaminati in fase di lavorazione, nel caso di prodotti trasformati. Le shigelle sono gli agenti eziologici della dissenteria bacillare e, tra queste, la S. dysenteriae occupa uno spazio particolare nella sanità pubblica perché causa infezioni molto gravi che possono determinare epidemie esplosive e pandemie. Questi microrganismi hanno la capacità di sviluppare una forte resistenza a numerosi antibiotici e producono una esotossina citotossica. La Shigellosi viene contratta tramite ingestione di acqua od alimenti contaminati per via fecale. Questi microrganismi sono in grado di tollerare l’acidità gastrica e possono essere rinvenuti nello stomaco 20 ore dopo l’ingestione. In generale tutti gli alimenti possono essere a rischio di causare shigellosi nel consumatore anche se i prodotti della pesca sembrano tra quelli più probabili. Fra le principali cause di infezione si ricordano: scarse condizioni igieniche, utilizzo di acque contaminate, consumo di prodotti ittici contaminati crudi o poco cotti. La Shigellosi può essere efficacemente controllata con un adeguato smaltimento delle feci e assicurando una idonea distribuzione di acqua potabile. Acquistano quindi grande valore l’educazione volta ad una corretta igiene personale e nella preparazione dei cibi: il frequente ed accurato lavaggio delle mani assume una significativa importanza persino nelle aree ad elevata endemia.

Vibrio spp
I vibrioni sono germi Gram-negativi molto comuni in ambienti acquatici. Molti di questi microrganismi sono del tutto saprofiti e presenti negli strati superficiali del terreno ed acque. Altri sono invece potenzialmente patogeni per l’uomo sia per consumo di alimenti inquinati che per contagio diretto tramite piccole ferite. Tutti i prodotti della pesca ed in particolare molluschi e crostacei sono tra gli alimenti più a rischio di infezione e la loro presenza è collegata a fenomeni di inquinamento. Si tratta di microrganismi tendenzialmente poco resistenti alle condizioni ambientali avverse e che sono facilmente inattivati dai vari trattamenti di conservazione cui possono essere sottoposti gli alimenti (cottura, disidratazione, essiccamento, aggiunta di sostanze acide, etc.). Mentre la maggior parte degli appartenenti al genere Vibrio non determinano malattia, le specie patogene che suscitano maggiormente preoccupazione per i consumatori di frutti di mare sono: Vibrio parahaemolyticus, Vibrio vulnificus e Vibrio algynoliticus. Il primo una volta ingerito attraverso il consumo di molluschi e crostacei crudi o poco cotti, può causare gastroenterite entro 24 ore e la malattia può durare fino a tre giorni. L’effetto patogeno avviene per la produzione di due tossine. Nelle tossinfezioni da V. cholerae e parahaemolyticus non vi è evidenza di una produzione di tossine preformate nell’alimento ed è necessaria una elevata carica microbica per scatenare l’evento tossinfettivo. La dose infettante può essere però notevolmente ridotta se, per esempio, vi è contemporanea assunzione di sostanze antiacido. Vibrio vulnificus di solito non determina sintomi clinici in persone in buona salute, ma può causare gastroenteriti e setticemie in soggetti ad alto rischio come quelli con malattia epatica o con un sistema immunitario indebolito. Vibrio algynoliticus è uno dei germi responsabili della produzione di tetradotossina.

Vibrio cholerae
Agente eziologico di epidemie e pandemie gastroenteriche soprattutto nei paesi che sono per tradizione forti consumatori di pesce crudo (Giappone, India, America latina ecc.). Ma tale patologia, che si caratterizza con una diarrea profusa incolore e biancastra – si parla infatti di “feci ad acqua di riso”-, è stata negli anni passati descritta anche nel nostro paese, in conseguenza del lavaggio dei prodotti della pesca con acque non idonee o per consumo di MEL raccolti da acque non autorizzate. La patogenicità di V. cholerae sierogruppo O1 è legata alla produzione della tossina colerica (CT).
Mutanti di V. cholerae privi di tale tossina sono ancora in grado di causare diarrea ma in questi casi la patologia è indotta da una seconda tossina simile a quella di Shigella. Nell’ambito di V. cholerae esisitono ceppi non appartenenti al sierogruppo O1 causanti fenomeni gastroenterici per lo più isolati e mai fino ad ora coinvolti in epidemie; tali ceppi sono stati definiti V. cholerae non O1. Studi sperimentali hanno dimostrato la produzione di una tossina simile a quella colerica. Nell’ambito di V. cholerae esistono ceppi non appartenenti al sierogruppo O1 bensì al sierogruppo O139, con caratteristiche di patogenicità in vivo ed in vitro e coinvolti in episodi epidemici. Tali ceppi sono stati definiti V. cholerae O139 ed in essi è stata isolata una tossina analoga a quella colerica classica.

Aeromonas spp.
Microrganismo Gram-negativo appartenente alla famiglia Vibrionaceae. A. hydrophila, A. sobria,
A. veronii biot. veronii sono state identificati quali agenti eziologici di patologie umane. Risulta cosmopolita dei sistemi acquatici grazie alla capacità di sopravvivenza a diverse condizioni ambientali: è presente nei fiumi, laghi, acque marine (soprattutto costiere) e nelle acque di scarico. Possiede diversi fattori di virulenza ma non è ancora chiarito come tali fattori contribuiscano alla patogenicità del microrganismo Le patologie associate ad Aeromonas possono avere localizzazione intestinale ed extraintestinale: in questo caso si possono avere setticemie, meningiti, infezioni da ferite che possono esitare anche nella morte del paziente quando esso risulti immunocompromesso. Finora sono stati segnalati solo casi isolati e mai episodi epidemici da attribuire con certezza a questo microrganismo. Generalmente provoca diarrea con feci acquose o diarrea con contemporanea emissione di sangue e muco nelle feci. Entrambe le patologie sono comunque autolimitanti e si risolvono nel giro di 24-48 h. Non vi è produzione di tossina preformata negli alimenti. Per scatenare l’evento tossinfettivo è necessaria una elevata carica del microrganismo sull’alimento. I fattori che contribuiscono a rendere questo microrganismo particolarmente insidioso negli alimenti sono la capacità di crescita a basse temperature e la resistenza ad alcuni disinfettanti comunemente utilizzati come il cloro. Una ricerca routinaria di tale microrganismo nelle feci, alimenti ed acque non viene attualmente condotta in Italia. Strategie di controllo sono il consumo esclusivamente dopo cottura adeguata, l’assenza di ricontaminazioni crociate post-cottura, la conservazione a 43 fino al momento del consumo in quanto, nonostante la psicrofilia del germe, le basse temperature rallentano comunque la moltiplicazione ed allungano quindi il tempo necessario al raggiungimento delle concentrazioni a rischio per la tossinogenesi.

Virus epatici ed enteropatogeni

Epatite A
Poiché i frutti di mare sono organismi filtratori in grado di concentrare gli agenti patogeni al loro interno, tra i possibili rischi bisogna annoverare anche il virus dell’epatite A (HAV). La sua identificazione nei molluschi è difficile per diversi motivi: la concentrazione del virus nei tessuti dei frutti di mare è generalmente molto bassa, i metodi di rilevazione basati sulla propagazione in vitro non sono attendibili, il recupero di virioni da tessuti di molluschi è inefficiente e gli inibitori della PCR nei tessuti di molluschi limitano il successo di tecniche biomolecolari. Questi fattori sono alla base delle difficoltà nella determinazione di causa ed effetto fra l’epatite A e l’individuazione di focolai di contaminazione da HAV in campioni di molluschi. La malattia che ha un corso acuto e iperacuto ha un periodo di incubazione di 4 settimane ed è caratterizzata da febbricola improvvisa, nausea, sintomi intestinali e dalla comparsa di ittero dopo circa una settimana. Esiste tuttavia un vaccino efficace contro la malattia.

Norovirus
I Norovirus della famiglia dei Caliciviridae fanno parte di un gruppo di virus che provocano gastroenteriti (insieme ai Rotavirus, Adenovirus e Sapovirus). Arrivano sulle nostre tavole attraverso alimenti contaminati come frutta, verdura, bevande e soprattutto frutti di mare come ostriche e cozze consumati crudi o poco cotti.
Anche in questo caso i frutti di mare che si nutrono attraverso la filtrazione dell’acqua, in presenza di Norovirus o di altri microorganismi, sono in grado di concentrarli a livello di epatopancreas. L’elevata stabilità ambientale di Norovirus, la contaminazione fecale delle acque e la bassa dose infettante sono alla base dell’elevata diffusione di questo virus. L’uomo presenta un tempo d’incubazione della malattia che non supera le 48 ore. Il sintomo principale che caratterizza l’infezione è il vomito compulsivo accompagnato da crampi addominali, cefalea, diarrea e a volte febbre. La malattia dura circa 48 ore e durante il decorso il rischio di diffusione del virus è elevato fino a 48 ore dopo la fine della sintomatologia. La breve durata dei sintomi e le varie difficoltà di diagnosi in molti casi non permettono l’identificazione della malattia; ne deriva una sottostima sull’effettiva diffusione di Norovirus nella popolazione. L’approccio diagnostico usato in virologia è basato generalmente sull’isolamento del virus in colture cellulari, ma i virus appartenenti alla famiglia dei Caliciviridae non sono in grado di replicare su colture cellulari da qui la difficoltà diagnostica.
Le tecniche usate per la rilevazione di Norovirus nelle feci sono la Microscopia Elettronica Diretta ma per visualizzare le particelle virali mediante tali tecniche, la concentrazione del virus nelle feci deve essere molto alta. In questo momento le tecniche di biologia molecolare rappresentano gli strumenti più utilizzati per la rilevazione di Norovirus nelle feci, campioni alimentari e ambientali.

Dopo gli uragani: i bambini sono ancora troppo vulnerabili ?

Nell’ultimo decennio si è assistito ad un aumento delle situazioni di maxiemergenza, sia a causa di un incremento delle calamità naturali sia a causa delle guerre, degli attacchi terroristici, disastri infettivologici e di altre forme di stragi provocate dall’uomo .
Tutto ciò ha determinato una maggiore attenzione verso questo fenomeno, soprattutto nelle regioni più colpite (prima fra tutte l’America), portando allo sviluppo di strategie e programmi diretti a rendere più efficienti tali interventi.

Un articolo pubblicato nel supplemento di settembre dell’AJPN richiama l’attenzione sulla particolare vulnerabilità dei bambini in caso di disastro, per svariati motivi sia fisici che psicologici: maggiore suscettibilità a patogeni/tossici/agenti infettivi, maggiore superficie corporea relativa e frequenza respiratoria, maggiore dipendenza dagli altri, difficoltà a comunicare i sintomi. Di fatto nello tsunami del 2004 nell’Oceano Indiano un terzo delle vittime era in età pediatrica, nel terremoto di Haiti del 2010 lo era la metà. Inoltre in caso di disastri intenzionali i bambini diventano un bersaglio privilegiato per il maggior impatto che hanno sull’opinione pubblica. Ciononostante numerosi aspetti della risposta ai disastri, come evacuazione, decontaminazione, riparo, che richiederebbero risposte specifiche, non sono oggetto di specifiche pianificazioni o esercitazioni, e le linee di indirizzo spesso non danno informazioni sulle gestione della popolazione pediatrica. Di conseguenza gli operatori possono non riconoscere le specifiche vulnerabilità dell’età pediatrica. Un report del NACCD (National Advisory Committee on Children and Disasters) sottolinea come solo il 47% dei presidi ospedalieri degli USA che effettuano operazioni di maxi-emergenze abbia dei programmi specifici per la popolazione pediatrica .

In considerazione della fondamentale importanza di una appropriata inclusione dell’età pediatrica, e dell’assenza di una pianificazione adeguata negli USA a livello nazionale, regionale e locale nonostante l’incremento delle risorse e delle strategie rivolte ad affrontare i bisogni dei bambini durante le emergenze di salute pubblica, è necessaria una maggiore diffusione dei modelli di gestione esistenti. In particolare va sottolineata l’importanza di fornire ai servizi di emergenza non pediatrici soluzioni per la cura delle vittime in età pediatrica, considerando che in caso di maxi emergenza possono essere coinvolti tutti gli ospedali , e non solo quelli pediatrici.

Diversi approcci sono in sviluppo per implementare lo sviluppo di programmi di gestione del paziente pediatrico in caso di maxiemergenza:
• Implementazione dei programmi di organizzazione delle maxi-emergenze nelle strutture pediatriche e preparare i presidi non pediatrici a questa evenienza, creando quindi una rete di gestione dell’emergenza in grado di aumentare la capacità e l’efficienza dell’intervento  .
• Educazione dei genitori alla gestione di un evento disastroso: è stato dimostrato infatti come fornendo prima dell’evento ai genitori le risorse umane e materiali utili per affrontare il disastro aumenta la resilienza dei figli e si riducono le conseguenze sia fisiche che psicologiche.

La gestione pediatrica delle maxi-emergenza diventa quindi un intervento complesso e articolato sia a breve che a lungo termine:
• In ACUTO i bambini rappresentano la popolazione con maggiore mortalità e morbilità dovute ad esplosioni, ferite o effetto di armi chimiche
• A LUNGO TERMINE: Le situazioni di maxi-emergenza possono
determinare conseguenze croniche a lungo termine. E’ stato infatti osservato come dopo l’Uragano Harvey in Texas siano aumentati il numero di visite pediatriche, il consumo di farmaci, i casi di patologie infettive gastrointestinali per esposizione ad acque contaminate 4,5 Durante gli anni della guerra in Siria si è assistito ad un aumento di patologie respiratorie, neurologiche, gastrointestinali in età pediatrica, con 2/3 dei bambini affetti da malattie infettive 6.
Le conseguenze a lungo termine delle maxi-emergenze non riguardano solamente le patologie fisiche, ma anche i disturbi neuropsichiatrici.
Sia che si tratti di calamità naturali che di guerre è stato dimostrato un aumento di patologie neuropsichiatriche variabili in base all’età del bambino: nei bambini più piccoli si può presentare una regressione comportamentale, enuresi notturna o un incrementato attaccamento al genitore; nei bambini più grandi lo sviluppo di sentimenti come tristezza, rabbia o paura, mentre nell’adolescente si può assistere ad abuso di alcol e droghe. A tutte le età è stato inoltre osservato un incremento di casi di depressione e di sindrome da stress post-traumatico E’ importante quindi pensare come i grandi disastri ambientali o umani possano provocare nei bambini un trauma sia fisico che mentale, entrambi in forma acuta o a lungo termine. E’ necessario che venga costruita attorno alla Società Italiana di Medicina di Emergenza ed Urgenza Pediatrica
bambino che vive l’esperienza della maxi-emergenza una rete tridimensionale, fatta di interventi acuti, follow-up nel tempo, confort familiare, sociale ed economico.

Come riportato nelle analisi condotte da IPCC (Intergovernmental Panel on Climate Change), negli ultimi 100-150 anni, è stato introdotto nel bilancio energetico del sistema climatico un flusso aggiuntivo di energia pari a circa 2.8 watt/m2,. E’ un “surplus” di energia che le attività umane hanno introdotto, rispetto al bilancio naturale (pari a 160-170 watt/m2), e che viene denominato: effetto serra aggiuntivo a quello naturale. Questo effetto serra aggiuntivo è, per la maggior parte, causato dall’accumulo in atmosfera di gas, detti appunto gas serra, che hanno cambiato la composizione dell’atmosfera, provocando, di conseguenza, una modifica delle sue capacità termiche, modifica che, per quanto piccola (meno del 2%), è comunque significativa sul delicato equilibrio energetico del sistema climatico. Il maggiore contributo a questo disequilibio è stato causato dall’anidride carbonica (55% circa), ma hanno contribuito anche altri gas serra originati direttamente o indirettamente dalle attività antropiche (30% circa). Inoltre, alcune cause naturali, come l’aumento dell’attività solare ed il vulcanismo hanno concorso, anche se in piccola parte (circa il 15%), ad aumentare il disequilibrio.
A causa del “surplus” di energia derivante dall’introduzione di gas ad effetto serra di origine antropica, la temperatura media globale del nostro pianeta è aumentata e tenderà ancora ad aumentare, ma tenderanno ad aumentare anche i fenomeni meteorologici estremi sia in frequenza che in intensità. Se questa affermazione, tratta dalle valutazioni di IPCC (Intergovernmental Panel on Climate Change), può essere dimostrata con relativa semplicità sulla base delle leggi della fisica e di conservazione dell’energia, diventa, viceversa, difficile, se non impossibile, dimostrare che un singolo evento meteorologico, per quanto estremo possa essere, derivi in tutto o in parte dal riscaldamento globale.
In quanto fenomeni estremi, gli uragani più intensi e disastrosi possono, quindi, direttamente o indirettamente aumentare sia in frequenza che in intensità, in conseguenza dell’aumento di concentrazione dei gas serra in atmosfera, ma è impossibile sapere se l’uragano Katrina o altri uragani altrettanto disastrosi, avrebbero ugualmente avuto luogo se le concentrazioni di anidride carbonica non fossero aumentate ai livelli in cui sono. I singoli fenomeni meteorologici, infatti, sono il risultato di una combinazione di fattori, alcuni dei quali deterministici (derivanti dalle leggi della fisica, tra cui appunto la maggiore energia nel sistema climatico a causa dell’effetto serra aggiuntivo) ed altri stocastici (derivanti dalla variabilità stessa del sistema climatico).
Analizzando un uragano è molto difficile individuare in dettaglio la combinazione di tutti i possibili fattori causali ed è, poi, praticamente impossibile stabilire in quale misura ciascuno di tali fattori causali abbia dato il suo singolo contribuito alla sommatoria totale. Ma, se non possiamo trarre conclusioni certe sul singolo uragano, possiamo, invece, capire meglio cause, effetti, processi e correlazioni se esaminiamo opportunamente un gran numero di uragani su intervalli di tempo abbastanza lunghi.
Discorso ben diverso è quello delle conseguenze di un uragano, conseguenze che solo in parte dipendono dalla intensità e dalla violenza dell’uragano. L’uragano Katrina avrebbe potuto produrre danni maggiori o minori di quelli causati, oppure una loro diversa distribuzione (tra danni economici, ambientali e di perdita di vite umane), se il contesto ambientale fosse stato diverso da quello costiero di New Orleans e della Luisiana. In altre parole le maggiori o minori conseguenze negative derivano, non solo dalla maggiore o minore intensità dell’uragano, ma anche dalla maggiore o minore vulnerabilità del territorio, dall’esistenza o meno di rischi aggiuntivi introdotti dalle attività umane e dalla maggiore o minore adeguatezza di misure di prevenzione e di protezione.
In quanto segue cercheremo di esaminare se l’uragano Katrina, in base alle conoscenze scientifiche attuali, rientra in un quadro tendenziale di intensificazione degli uragani e se tale tendenza all’intensificazione sia o meno causata dai cambiamenti del clima; e cercheremo di approfondire se il contesto ambientale e territoriale esistente abbia avuto un ruolo più o meno importante sull’amplificazione delle conseguenze negative.
1. I cicloni tropicali
Prima di analizzare se e come è cambiata l’intensità e la frequenza degli uragani in relazione al riscaldamento climatico globale, è necessario premettere quali sono le condizioni climatiche e meteorologiche che determinano e favoriscono la formazione di un uragano, o più in generale di un ciclone tropicale (“uragano” è infatti il nome dato ai cicloni tropicali dell’Atlantico, mentre “tifone” è il nome per quelli del Pacifico e semplicemente “ciclone”, per quelli dell’oceano Indiano). Ma, cercheremo anche di illustrare perché un uragano è profondamente diverso da qualsiasi altro ciclone che si manifesta alle nostre latitudini e perché un uragano non potrebbe formarsi nel Mediterraneo (a meno che la fascia intertropicale attuale non si espanda tanto verso le zone polari da includere tutta l’area del Mediterraneo).
I cicloni tropicali si originano dalla instabilità atmosferica creata dal forte surriscaldamento della superficie marina rispetto all’atmosfera sovrastante, instabilità che poi si espande su tutta la troposfera (la parte di atmosfera tra il suolo e circa 12-15 km di quota entro cui avvengono i fenomeni meteorologici) determinando intensi processi convettivi (qualcosa di simile accade, a scala spaziale molto più piccola, nella formazione dei temporali). Questa instabilità si origina perchè l’aria calda e umida (più leggera) a contatto con il mare, si viene a trovare al di sotto dell’aria fredda e più secca (più pesante) che, invece, è presente negli strati più alti dell’atmosfera. I movimenti verticali di rimescolamento delle masse d’aria (moti convettivi), ed il forte contenuto energetico che viene trasferito dal mare alle masse d’aria caldo-umide, originano non solo formazioni di nubi con imponente sviluppo verticale ed una forte depressione barica, ma favoriscono anche un moto rotatorio a tutto il sistema convettivo. Questo moto rotatorio viene accelerato in senso antiorario (a nord dell’equatore), tanto più quanto maggiore è la depressione barica, a causa dalla forza deviante (o forza di Coriolis), che deriva dalla rotazione terrestre.

I cicloni tropicali sono profondamente diversi dai cicloni che noi osserviamo alle medie latitudini e che vengono definiti cicloni extratropicali. I cicloni extratropicali, infatti, hanno origini completamente diverse e nascono a causa del contrasto tra aria calda ed aria fredda, non già in direzione verticale, ma sul piano orizzontale. In questo caso, si forma una instabilità cosiddetta “frontale” (o baroclina nel linguaggio dei meteorologi), tra aria fredda, di origine polare o comunque settentrionale (per le nostre latitudini), ed aria calda, di origine subtropicale o, comunque, meridionale (per le nostre latitudini). Nella zona “frontale”, all’interfaccia, cioè, tra aria fredda e calda si formano le perturbazioni meteorologiche che ben conosciamo e di cui parlano i bollettini meteorologici.
I cicloni tropicali nascono e si sviluppano nella fascia intertropicale e sub tropicale, in una zona cioè dove le correnti aeree medie sono generalmente orientali e gli uragani, quindi, viaggiano normalmente da est verso ovest. I cicloni extratropicali, invece, nascono e si sviluppano in una fascia, quella delle medie latitudini, dove le correnti aeree medie sono generalmente occidentali e, le perturbazioni meteorologiche, quindi, viaggiano normalmente da ovest verso est.
Infine, la forza deviante e la sua variazione latitudinale, agisce in modo tale da imprimere un moto rotatorio (vorticità) molto più intenso ai cicloni tropicali rispetto a quelli extratropicali. Un ciclone tropicale, quando sconfina dalle basse alle medie latitudini, perde la sua fonte energetica costituita dal mare, e si esaurisce rapidamente, a meno che non incontri, a più alte latitudini, una massa d’aria fredda per cui si trasforma in un ciclone extratropicale.
2. Uragani e loro classificazione
II fattore fondamentale per la formazione di un uragano è, come detto prima, un flusso molto intenso, ma anche prolungato nel tempo, di calore e di umidità dal basso e cioè dalla superficie terrestre. Ciò è possibile solo da una sorgente ad alta capacità termica, quali sono gli oceani, purché la temperatura delle acque oceaniche sia superiore a 26.5°C, non solo in superficie ma anche nella parte sottostante, fino ad almeno di 50-80 metri di profondità.
Le grandi masse d’acqua marine a latitudini intertropicali e subtropicali possono avere queste caratteristiche, ma le hanno soprattutto quelle localizzate in alcune aree dove per la concomitanza di fattori geografici e meteorologici, le temperature marine sono normalmente le più alte. Queste aree preferenziali di formazione degli uragani sono, per l’oceano Atlantico: il Golfo del Messico e la zona di mare circostante, interessata, tra l’altro anche dalla corrente del Golfo, ma soprattutto l’area dell’Atlantico centro-occidentale compresa tra le isole di Capo Verde ed il Golfo di Guinea).
Siccome con il riscaldamento climatico, la temperatura degli oceani tende ad aumentare e tende anche ad espandersi la superficie degli oceani con più alte temperature, ne consegue che non solo è favorita la condizione fondamentale per la formazione degli uragani, ma viene anche ampliata la superficie marina idonea alla loro formazione. Dunque, con il riscaldamento climatico dobbiamo aspettarci uragani più intensi (per la maggiore temperatura delle acque) e in maggior numero (per la maggiore estensione spaziale della superficie marina con più alte temperature).
Tuttavia, l’alta temperatura delle acque oceaniche, quantunque sia una condizione assolutamente necessaria, tuttavia non sempre è anche una condizione sufficiente. Devono sussistere, infatti, anche alcuni fattori concomitanti favorevoli, ma, soprattutto, almeno qualcuna delle seguenti condizioni:
– scarsa ventosità e, comunque, le correnti orientali intertropicali, sia al suolo che in quota, devono essere più deboli del normale: questa condizione favorisce la creazione e lo sviluppo di moti convettivi verticali che interessano tutta la troposfera;

– scarso shear del vento, vale a dire scarsa variazione della velocità e della direzione del vento con la quota: questa condizione implica l’assenza lungo la verticale di stratificazione di masse d’aria differenti e di moti laminari delle masse d’aria e, quindi, il rimescolamento verticale viene favorito;
– alta pressione a livello della tropopausa (12-15 km di quota) e bassa pressione al suolo: questa condizione implica che l’intera troposfera è dilatata e che sussistono già condizioni di instabilità per motivi termodinamici;
– presenza di aerosol atmosferici, questa condizione implica che la condensazione del vapore attorno a tali aerosol (che diventano nuclei di condensazione) viene favorita, e quindi la formazione delle nubi viene facilitata ed accelerata
– assenza, per quanto riguarda gli uragani atlantici, del fenomeno di El Nino sul Pacifico, che a causa delle modifiche che induce sulla circolazione atmosferica, perturba i fattori precedenti.
Gli uragani sono classificati in USA secondo una scala (scala Saffir-Simpson) basata sulla velocità media dei venti massimi al suolo che si sviluppano in seno all’uragano:
categoria 1: uragano minimo (vento compreso fra 33 e 42 m/s) categoria 2: uragano moderato (vento compreso fra 43 e 49 m/s) categoria 3: uragano esteso (vento compreso fra 50 e 58 m/s) categoria 4: uragano estremo (vento compreso fra 59 e 69 m/s) categoria 5: uragano catastrofico (vento superiore a 70 m/s)
Se la velocità del vento è inferiore a 33 m/s ma superiore a 18 m/s si tratta di tempeste tropicali, mentre al di sotto di 18 m/s si parla semplicemente di depressioni tropicali. Inoltre gli uragani di categoria 3, 4 e 5 vengono complessivamente denominati uragani maggiori, perché potenzialmente molto più distruttivi, rispetto a quelli di categoria inferiore.
La scala Saffir-Simpson, è una classificazione adottata negli USA nel 1974, ma non è riconosciuta ufficialmente a livello internazionale, anche se comunemente accettata. Questa scala, in pratica, suddivide gli uragani in base alle velocità medie massime del vento al suolo per dare una semplice e immediata indicazione della loro forza e delle loro possibili conseguenze catastrofiche. Ad ogni categoria sono, infatti, associati alcuni effetti, come l’entità delle depressioni bariche corrispondenti, l’altezza massima delle onde marine che si generano e la descrizione dell’entità dei possibili danni. E’, insomma, una scala simile alla scala Beaufort o alla scala Douglas per classificare la forza del mare e rassomiglia, per molti versi, alla scala Mercalli per classificare i terremoti.
Una volta classificati in questo modo gli uragani, è possibile, a posteriori, stimare l’energia cinetica della masse d’aria coinvolte nell’uragano, ma non è possibile capire né le dimensioni o l’evoluzione nel tempo dell’uragano, né è possibile risalire alla sua energia interna complessiva (comprensiva cioè dell’energia cinetica e di quella termodinamica relativa alla formazione delle nubi e di cambiamento di stato del vapor d’acqua). Essendo una scala descrittiva, piuttosto che un insieme di dati e metadati, non è molto utile nel campo della ricerca climatica, pur avendo una sua validità nel campo della meteorologia operativa e delle previsioni del tempo.
Tuttavia, supponendo che tutti gli uragani siano più o meno uguali, sia in termini di dimensioni che di evoluzione nel tempo, è possibile dimostrare che il rapporto tra energia complessiva posseduta da un uragano (energia interna) ed energia cinetica sviluppata, è circa costante ed è pari a 400. In termini quantitativi, questo significa che un uragano medio che sviluppa sotto forma di energia cinetica una potenza attorno a circa 1,5 Terawatt (ovvero 1,5 milioni di megawatt), possiede una

potenza complessiva di circa 600 milioni di Terawatt, che è equivalente a circa 200 volte la potenza elettrica di tutte le centrali del mondo.
3. L’uragano Katrina
L’uragano Katrina è la dodicesima tempesta tropicale del 2005 ed il quarto uragano a colpire gli USA. Pur non essendo stato il più intenso degli uragani che hanno colpito gli USA sembra essere stato, invece, quello più disastroso o, almeno, tra quelli più disastrosi, sia per i danni provocati, sia per numero di vittime umane. Uragani più intensi di Katrina sono stati: l’uragano del “Labor Day” (è il primo lunedì di settembre) del 2 settembre 1935, l’uragano Camille del 17 agosto 1969. l’uragano Andrew del 24 agosto 1992 e l’uragano Charley del 13 agosto 2004. L’uragano più disastroso, in termini di perdite di vite umane, avvenne il 8 settembre 1900: colpì in particolare la città di Galveston nel Texas causando più di 8000 morti.
L’uragano Katrina, si è formato, come depressione tropicale, il 23 agosto 2005, sull’oceano Atlantico a sud est delle isole Bahamas, zona, questa, di origine inconsueta per gli uragani, i quali si formano generalmente a sud ovest delle isole di Capo Verde tra giugno e novembre, ma soprattutto tra agosto e ottobre. Tuttavia, non è un caso unico: prima di Katrina quasi il 50% degli uragani si era formato, nel 2005, al di fuori dell’area atlantica consueta e, precedentemente al 2005, si era osservata un tendenza allo spostamento verso più alte latitudini dell’area di formazione degli uragani .
L’evoluzione dell’uragano Katrina è stata molto rapida. Il giorno dopo, muovendosi verso est, si è trasformato prima in tempesta tropicale, poi in uragano di categoria 1 mentre transitava a sud della Florida ed, infine, è diventato un uragano (di categoria 3) il 25 agosto in pieno Golfo del Messico. Dopo un leggero indebolimento durante la giornata del 26 agosto, l’uragano Katrina si è rapidamente intensificato a causa delle alte temperature (circa 31-32 °C) delle acque del Golfo del Messico, fino a raggiungere la sua massima potenza (categoria 5) il 28 agosto, con venti di 280 km/ora e raffiche di 340 km/ora. Nella fase di massima intensificazione, la massima depressione barica nel vortice ciclonico dell’uragano (occhio dell’uragano) ha raggiunto il valore di 902 ectopascal (o millibar), un valore quasi record perché si tratta del 4° minimo depressionario più basso mai verificatosi per i cicloni tropicali atlantici, da quando si effettuano le misure. Il giorno dopo, poco prima di colpire le coste della Luisiana, l’uragano Katrina, si è attenuato (categoria 4) e poi, passando sopra New Orleans ed inoltrandosi in direzione nord verso l’interno, si è rapidamente esaurito il 30 agosto, quando ha raggiunto lo stato del Tennessee.
Per quanto riguarda le precipitazioni, l’uragano Katrina ha provocato piogge complessive pari a circa 150 millimetri (ma con punte di 400 millimetri in alcune zone) quando è passato a sud della Florida. La quantità totale media di pioggia che si è riversata sulle coste della Luisiana il 29 agosto è stata, invece, di circa 250 millimetri, ma quantità ben superiori, fino a 600 millimetri, si sono riversati a nordest di New Orleans, tra Hattiesburg e Mobile, nel confinante stato del Mississippi. Procedendo sempre più verso l’interno, le precipitazioni si sono progressivamente ridotte mano a mano che l’uragano andava indebolendosi nel suo percorso verso nord e poi nordest. Tuttavia, Katrina, prima di esaurirsi completamente, ha favorito, con la sua aria caldo-umida residua, la formazione di instabilità meteorologiche in Alabama e la formazione di alcuni tornado in Georgia.
Pur avendo colpito le coste della Luisiana il 29 agosto, l’uragano Katrina ha prodotto i maggiori danni a partire dal 31 agosto, cioè non immediatamente, ma solo dopo che il naturale drenaggio dell’acqua piovana, da parte de bacino del fiume Mississippi, ha indotto un innalzamento sia del livello delle acque dello stesso fiume Mississippi, sia del lago Pontchartrain, tale da superare le dighe di sbarramento e gli argini che circondano gran parte della città di New Orleans. Lo

straripamento delle acque del lago Pontchartrain ha provocato anche il cedimento di una di tali dighe e, a questo punto, l’allagamento della città di New Orleans è avvenuto molto velocemente. In gran parte dell’area urbana, il livello dell’acqua ha raggiunto mediamente i 250 cm di altezza, ma con punte, nelle zone più basse, di ben 5 metri.
Le conseguenze provocate dall’uragano Katrina riguardano il danneggiamento e la distruzione di alcune strutture petrolifere per l’estrazione del petrolio e del gas naturale posizionate nel Golfo del Messico e prospicienti le coste della Luisiana e del Texas, il danneggiamento di alcune centrali di elettroproduzione in Luisiana, la parziale distruzione e la impraticabilità di molte strade ed autostrade costiere della Luisiana ed infine danni anche all’aeroporto di New Orleans. Tuttavia i danni più ingenti sono stati provocati a tutte le strutture, infrastrutture e abitazioni della città di New Orleans dove si sono verificate anche le maggiori perdite di vite umane, stimato in un migliaio di persone, ma manca ancora un bilancio definitivo.
Oltre ai danni diretti, si sono verificati anche danni indiretti di tipo ambientale e sanitario sia a causa dell’inquinamento marino da prodotti petroliferi rilasciati in mare dalle piattaforme petrolifere distrutte o danneggiate e che sono numerose di fronte alla costa della Luisiana, sia a causa dell’inquinamento delle acque che hanno invaso New Orleans, inquinamento provocato dal cedimento della rete fognaria e a seguito della interruzione dell’acqua potabile.
I danni economici non sono stati ancora stimati ma saranno probabilmente superiori a molte decine di miliardi di dollari per la sola città di New Orleans e, forse, potrebbero superare anche il centinaio di miliardi, se si considera tutta l’area investita. L’uragano Andrew del 1992, uno dei più disastrosi per gli USA, causò danni per 25 miliardi di dollari (riportati al valore del dollaro del 2005)
4. Clima e uragani
4.1 Clima e uragani in base alla loro classificazione
Per capire se esiste una tendenza ad una maggiore frequenza ed intensità degli uragani e se questa tendenza sia o meno collegata con i cambiamenti del clima è necessario procedere ad una serie approfondita di analisi che solo in questi ultimi anni, grazie anche alla maggiore disponibilità di tecnologie avanzate di osservazione della terra e di migliori strumenti di calcolo, si sono potute effettuare con maggiore rigore scientifico.
Le prime analisi sono state quelle di tipo statistico, condotte sulla base della classificazione degli uragani, secondo la scala Saffir-Simpson. Poiché l’utilizzo di questa scala è iniziata nel 1975, si è dovuto procedere a classificare gli uragani per gli anni precedenti, sulla base dei dati di archivio disponibili, che hanno permesso di procedere a ritroso fino al 1944. Quantunque esistano dati dati ed informazioni sugli uragani atlantici fin dal 1800 e dati sugli uragani che hanno colpito gli USA fin dalla metà del 1600, tuttavia, la loro qualità è bassa rispetto ai dati successivi al 1944. Inoltre, andando a ritroso nel tempo, i dati sono sempre più frammentari ed incompleti, e non sempre appaiono oggettivi o scientificamente validi.
Le analisi statistiche sugli uragani effettuate da C.W. Landsea (1999), sulla base della classificazione Saffir Simpson dal 1944 al 2004, mettono in evidenza che il numero complessivo annuale degli uragani presenta una oscillazione circa venticinquennale, denominata oscillazione multidecadale degli uragani. Questa oscillazione è causata prevalentemente dagli uragani di debole intensità (classificati in categoria 1 e 2 o come tempeste tropicali), mentre gli uragani di maggiore intensità (categorie 3, 4 e 5) mostrano un andamento più costante.

Le oscillazioni multidecadali sono: quella che va dal 1944 al 1970, quella che va dal 1970 al 1995, e l’attuale che è iniziata nel 1995. Durante tali oscillazioni, vi sono periodi che si ripetono più o meno regolarmente, alternando fasi di maggiore frequenza o di più intensa attività degli uragani e fasi di minore frequenza o di minore intensità degli uragani. Complessivamente, però non si osservano chiari andamenti di lungo periodo, né verso l’aumento o la diminuzione della frequenza, né verso l’aumento o la diminuzione della intensità degli uragani.
Poiché a partire dal 1975 il riscaldamento climatico globale appare evidente (aumento della temperatura media globale pari a 0.15°C per decennio, secondo le valutazioni IPCC), questo risultato, basato sulla classificazione degli uragani secondo la scala Saffir-Simpson, non sembra mostrare, invece, alcuna tendenza né alcuna correlazione tra cambiamenti climatici ed uragani (sia in termini di frequenza che di intensità).
4.2 Clima e uragani in base alla loro energia cinetica
Poiché la scala Saffir-Simpson appare un po’ grossolana per gli studi climatici, come precedentemente detto, per capire se esiste una correlazione tra uragani e riscaldamento climatico, la NOAA (National Oceanie and Atmospheric Administration degli USA) ha utilizzato, di recente, anche a fini previsionali, un particolare indice: l’indice ACE (Accumulated Cyclone Energy), proposto da Gerald Bell et al. nel 2000 ed introdotto per lo studio degli uragani dalla American Meteorological Society. L’indice ACE, è dato dalla somma dei quadrati della media delle velocità massime del vento, calcolato ogni 6 ore. Questa sommatoria viene estesa, senza soluzione di continuità, per tutta la durata dell’evoluzione dell’uragano e per tutti gli uragani di una stagione, comprese anche le tempeste tropicali.
In pratica, questo indice rappresenta e sintetizza l’entità dell’energia cinetica media complessiva annua di tutti gli uragani e tempeste tropicali di una data regione, ed in particolare di tutto il nord Atlantico. Utilizzando questo indice, e rianalizzando le statistiche degli uragani, si osserva che l’indice ACE ha una lieve flessione dal 1950 al 1970, un andamento più o meno costante dal 1970 al 1994 ed un rapido aumento a partire dal 1995 in poi, fino al dato preliminare del 2005 (ma con esclusione degli anni 1997 e 2002, in cui era presente il fenomeno di El Nino). Risulta, in particolare, evidente che gli uragani sono complessivamente diventati sempre più intensi a partire dal 1995, anche se la loro frequenza non appare sostanzialmente cambiata rispetto ai periodi precedenti.
L’indice ACE mostra, inoltre, una buona coerenza con l’andamento della temperatura media globale, ma soprattutto una buona correlazione con le anomalie termiche medie della temperatura superficiale delle acque dell’Atlantico. Poiché nell’ultimo decennio la velocità del riscaldamento globale è aumentata, rispetto ai decenni precedenti, tanto che tutti gli anni compresi fra il 1995 ed il 2004, ad esclusione del 1996, sono stati anni record per la temperatura media globale (nella serie storica di dati della NOAA che inizia dal 1880), si deduce che esiste una correlazione tra cambiamenti climatici (riscaldamento climatico) e uragani (aumento della intensità), anche se questa correlazione è molto più evidente solo a partire dal 1995.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Copy Protected by Chetan's WP-Copyprotect.