Terremoti, eruzioni vulcaniche, tsunami e previsioni, l’apocalisse è nel futuro

 “Niuno però presagì prima dell’avvenimento quello, che dopo l’avvenimento di poter naturalmente presagire dicevano quasi tutti”(Anton Ludovico Antinori). Scienza, giustizia e società debbono collaborare. Altrimenti è finita. Le lezioni del passato vanno elaborate in fretta dai cittadini, abbandonando la cultura dei condoni, dell’irresponsabilità e delle mille proroghe. Pena, la catastrofe. Ovunque e in qualsiasi istante. […]

 “Niuno però presagì prima dell’avvenimento quello, che dopo l’avvenimento di poter naturalmente presagire dicevano quasi tutti”(Anton Ludovico Antinori). Scienza, giustizia e società debbono collaborare. Altrimenti è finita. Le lezioni del passato vanno elaborate in fretta dai cittadini, abbandonando la cultura dei condoni, dell’irresponsabilità e delle mille proroghe. Pena, la catastrofe. Ovunque e in qualsiasi istante. Oggi nel mondo decine di milioni di persone vivono sulle coste e vicino ai vulcani attivi più pericolosi della Terra. Che facciamo? Li evacuiamo subito tutti con le moderne avveniristiche astronavi di salvataggio di Star Trek che ancora non esistono? “Il Mediterraneo non è esente dal rischio tsunami – rivela Alessandro Amato, ricercatore dell’Istituto Nazionale di Geofisica e Vulcanologia – nella storia d’Italia e degli altri Paesi del Mediterraneo, ci sono molte tracce di tsunami antichi ed anche molto recenti. Basta ricordare Messina e Reggio Calabria: nel 1908 ci fu un forte terremoto nello Stretto e, a seguire, un grande tsunami che fece ulteriori danni e molte vittime”. Disponiamo di notizie storiche certe sui grandi maremoti del passato, anche questi dovuti a terremoti distruttivi, nelle isole greche, in particolare a Creta che in questi ultimi giorni è stata interessata da eventi piuttosto interessanti, come il sisma occidentale in mare aperto, di magnitudo 6,4 del 12 Ottobre 2013, a 52 Km di profondità. “Gli tsunami nel Mediterraneo sono eventi piuttosto rari – spiega Alessandro Amato – ma quando avvengono possono fare enormi danni. Oggi esiste una Rete Sismica Mediterranea che permette lo scambio dei dati in tempo reale e di calcolare in pochi minuti dov’è avvenuto un terremoto, che tipo di sisma è stato, la sua magnitudo, e di stabilire se può avere carattere di tsunamigeneticità”. Ma “non esiste ancora – avverte lo scienziato – un Sistema coordinato che trasformi questo tipo di allarme in un piano di difesa della popolazione sulle coste. Ci stiamo lavorando insieme al Dipartimento di Protezione Civile, collaborando con l’Ispra e l’Aeronautica militare”. Dunque, l’apocalisse è nel futuro. La catastrofe aquilana di 55 mesi fa, che cosa ha insegnato agli Italiani? Cinquanta esperti hanno discusso sul livello passato e futuro del livello marino globale. “Stima delle variazioni del livello marino e loro cause durante i passati periodi caldi”, è il titolo di un workshop organizzato dall’Istituto Nazionale di Geofisica e Vulcanologia in collaborazione con l’Università della Florida ed altri Istituti e College internazionali, che si è tenuto dal 21 al 25 Ottobre 2013 a Roma nella sede dell’Ingv. La finalità della conferenza, alla vigilia dell’AGU Fall Meeting californiano che dal 9 al 13 Dicembre 2013 riunirà al Moscone Center di San Francisco migliaia di geoscienziati di tutto il mondo, è stata quella di favorire un confronto tra esperti della materia sui diversi e principali fattori che causano le variazioni del livello marino. Il dibattito si è focalizzato sulla ricostruzione delle fasi di scioglimento delle calotte glaciali, le oscillazioni del livello marino globale e le previsioni attese del futuro innalzamento. Cinquantuno scienziati, provenienti da molte Università del Mondo, hanno avuto l’occasione di visitare alcuni siti geologici ed archeologici marittimi nel Lazio. Gli ultimi si riferiscono ad antiche peschiere romane, alcune delle quali situate a Civitavecchia e oggi sommerse, da cui sono state tratte informazioni nuove e determinanti sull’innalzamento del livello marino avvenuto negli ultimi 2000 anni. Gli studi hanno avuto implicazioni sui cambiamenti climatici e i movimenti tettonici della crosta terrestre. “L’obiettivo del workshop – secondo gli scienziati Marco Anzidei, convenor del meeting e Andrea Dutton del Dipartimento di Scienze Geologiche dell’Università delle Florida (Usa) – è stato quello di esplorare e dibattere sulle cause e i processi di cambiamento del livello marino attraverso tecniche diverse come quelle geologiche, geofisiche e strumentali, che nel loro insieme concorrono a fornire stime sulle variazioni passate e attuali. Queste sono fondamentali per comprendere gli scenari di innalzamento futuro del livello marino e per delineare un quadro scientifico più chiaro possibile e di utilità per la società, che oggi si trova costretta ad affrontare nuove pianificazioni territoriali delle coste in molte parti del mondo. In particolare, le aree costiere più basse, stanno continuamente arretrando sotto la spinta della forte aggressione marina. E gli effetti sono ancora più sensibili in quelle zone che soffrono di subsidenza naturale o indotta dalla attività umana”. Durante i lavori all’Ingv, gli scienziati hanno anche svolto dei “field trip” nelle coste del Lazio, osservando siti geologici ed archeologici usati per stimare le variazioni del Mare Mediterraneo. “Se in 2000 anni il Tirreno si è alzato di circa 1.2 metri – fa notare Marco Anzidei – modelli geofisici sono concordi nel sostenere che il livello del mare globale potrà salire di oltre 1 metro al termine di questo XXI Secolo e di oltre 3.5 metri nell’Anno 2300. Per il 2100 in Italia si attendono variazioni maggiori di 1.5 metri nelle zone costiere subsidenti”. Siamo preparati ad affrontare questi scenari? Chi vivrà, certamente, vedrà. Ma quando si verificheranno questi eventi epocali, magari in preda al panico di massa, in Italia si darà come al solito la colpa agli scienziati per salvare il politico burocrate di turno, erede degli attuali politicanti spendaccioni? L’11 Marzo 2011 il Giappone è stato colpito da un terremoto di magnitudo momento Mw=9.0 che ha causato oltre 15mila vittime, la maggior parte delle quali dovute, non alle radiazioni nucleari della centrale di Fukushima (a proposito, Tokyo è radiologicamente più pulita di Roma!) ma al conseguente tsunami con onde alte oltre 30 metri che hanno ridisegnato il paesaggio. Fortunatamente eventi sismici così energetici sono rari. Essi forniscono ai sismologi la possibilità di indagare alcuni aspetti per i quali sono necessarie onde sismiche di elevata energia e di notevole durata. Basti pensare che, in occasione del terremoto giapponese dell’11 Marzo, le ampiezze di alcuni sismogrammi registrati in Italia sono risultate comparabili con quelle che otterremmo per un evento di magnitudo intorno a Mw=4.0 in condizioni dette di “near field”, termine usato dagli scienziati per definire un evento localizzato a pochi chilometri di distanza dai siti di registrazione. In caso di terremoto, la Terra agisce come un filtro naturale, tendendo ad attenuare con la distanza le onde sismiche ad alta frequenza, ovvero le oscillazioni caratterizzate da corti periodi, e trasmettere in modo più efficiente le onde sismiche a bassa frequenza. Le onde sismiche di terremoti di elevata magnitudo sono solitamente avvertite, e quindi registrate, da molte stazioni sismiche installate su tutto il pianeta. Quando un terremoto avviene a grande distanza dalle stazioni che lo registrano, magari oltre i 2000 Km, l’evento viene definito telesisma. Le stazioni sismiche che a scala mondiale registrano questi grandi terremoti, hanno come peculiarità quella di fornire sismogrammi particolarmente ricchi in bassa frequenza. Perché le alte frequenze a grandi distanze vengono filtrate dalla Terra, ossia dal mezzo di propagazione. La ricchezza in bassa frequenza delle registrazioni telesismiche permette di sfruttare questi terremoti lontani per indagare il sottosuolo sotto vari aspetti e fino a grandi profondità. In questo caso, la grande distanza della sorgente sismica del terremoto nipponico rispetto all’area in studio di circa 10mila Km, consente di considerare a scala globale le stazioni sismiche installate ad esempio in pianura padana o in Abruzzo, in realtà distanti tra loro qualche decina di chilometri, come fossero adiacenti. Così utilizzando le registrazioni del telesisma giapponese i sismologi hanno potuto verificare che per frequenze inferiori a un solo Herz i valori di amplificazione alle stazioni poste al centro del bacino padano risultano almeno doppi rispetto a quelli misurati sui bordi del medesimo e molto superiori rispetto a stazioni sismiche installate su roccia o suolo rigido, in corrispondenza di zone alpine o prealpine. Questi risultati dell’Ingv, pubblicati sul Bollettino della Società Sismologica Americana, sono utili per calcolare come le aree in pianura amplificheranno il moto del suolo a seguito di  futuri terremoti locali, almeno nell’intervallo di frequenze attivato dalle onde sismiche del terremoto del Giappone. È la classica spiegazione di come la geologia locale possa intervenire nell’amplificazione delle onde sismiche. Le implicazioni sono notevoli. La popolazione italiana percepisce un’intensificazione dell’attività sismica nel nostro Belpaese, in particolare in aree che nonostante siano classificate sulla Mappa della pericolosità sismica, non registravano terremoti da lungo tempo. L’Aquila (6 Aprile 2009; Mw=6,3; profondità 8,0 Km), l’Emilia (Maggio 2012; M=5,9; prof. 6,3 Km), la Garfagnana (Gennaio 2013; M=4,8; prof. 15,5Km) e la Lunigiana (Giugno 2013; M=5,2; prof. 5,1 Km) sono, ad esempio, i luoghi in cui negli ultimi anni si sono verificate scosse di terremoto di magnitudo vicine o superiori a 5, tutte inferiori al sisma di L’Aquila che, anche per la vicenda scientifica, giudiziaria e politica che sta determinando a livello mondiale, oltre che per le sue tragiche conseguenze (311 morti), potrebbe aver cambiato la percezione dei cittadini rispetto agli eventi sismici. I quali, tuttavia, sarebbero in aumento a partire dal 2012. Perché aumentano le registrazioni, le stazioni, le perturbazioni gravitazionali del Sole e della Luna o cos’altro? “Dopo il terremoto di L’Aquila nell’Aprile 2009 – osserva Alessandro Amato, direttore del Centro Nazionale Terremoti dell’Ingv – sembra che ci sia stato un effettivo aumento dell’attività sismica in Italia, accompagnata però anche da un’aumentata percezione degli eventi sismici. Dal Gennaio 2012, in particolare, ci sono state numerose sequenze sismiche caratterizzate da almeno un terremoto di magnitudo intorno a 5 o superiore. Oltre alla sequenza emiliana, che ne ha fatti registrare molti con magnitudo superiore a 5, ne abbiamo avuti nell’Appennino settentrionale, nel Pollino e nel Frusinate. In tutto il nord Italia, dove i terremoti sono storicamente meno frequenti che al sud, diversi eventi sono stati avvertiti in aree molto ampie e in quasi tutte le grandi città, vale a dire, quindi, da milioni di persone. Questo aumento di attività non è tuttavia sorprendente: se guardiamo al Catalogo storico troviamo molti periodi di attività più intensa e altri di relativa calma. Su scale di tempo lunghe secoli abbiamo addirittura ipotizzato delle ‘tempeste sismiche’ in Italia, con vari terremoti distruttivi concentrati in pochi decenni”. Sebbene qualcuno occasionalmente si avventuri in previsioni “astrologiche”, la scienza afferma che i terremoti sono: fenomeni naturali che non si possono prevedere in maniera deterministica e che l’unica forma sicura ed affidabile di Prevenzione è di gran lunga l’adozione, prima delle catastrofi, cioè in tempo di pace, di adeguate tecniche di costruzione per minimizzare i danni e salvaguardare l’incolumità di cose e persone. Sulla base delle registrazioni storiche con cui sono state elaborate le Mappe di pericolosità sismica, gli scienziati oggi possono “prevedere” l’area in cui si potrà verificare un terremoto, le sue caratteristiche e, entro certi limiti, la magnitudo che attesa. Ma questo non significa affatto che oggi possiamo dire quando l’evento accadrà. Ci sono aree interessate da sciami sismici che durano mesi o anni, senza che si verifichino scosse di magnitudo rilevante. Uno sciame sismico è composto da una serie di eventi di bassa magnitudo, in cui non si verifica una scossa principale seguita dagli “aftershock” o repliche, ma le scosse di maggiore magnitudo si distribuiscono in maniera casuale nel tempo. “Negli ultimi dieci anni – spiega Amato – soltanto la sequenza di L’Aquila del 2009 è stata seguita da un forte terremoto, mentre tutte le altre si sono esaurite senza una scossa distruttiva. Ogni anno in Italia rileviamo in media 30-40 sequenze sismiche di durata variabile da pochi giorni a molti mesi. Una delle più lunghe degli ultimi anni è quella del Pollino, al confine tra Basilicata e Calabria, attiva da oltre due anni con alti e bassi e una massima magnitudo finora registrata pari a 5”. L’attività sismica non è sempre naturale, può infatti essere provocata dall’Uomo. Come? Dalla realizzazione di dighe, dallo sfruttamento di aree geotermiche, dalla perforazione per l’estrazione di idrocarburi e l’immagazzinamento di Anidride Carbonica, un gas serra. In generale, questo tipo di attività antropiche provoca attività sismica di bassa intensità. Con alcune eccezioni. Un articolo di Marco Mucciarelli del Centro Ricerche Sismologiche dell’Istituto Nazionale di Oceanografia e Geofisica Sperimentale, per la rivista Ingegneria Sismica (Patron Editore, Bologna) cita importanti incidenti verificatisi in passato in Italia, che potrebbero essere riconducibili ad attività sismiche causate proprio dalla realizzazione di opere che ne sarebbero state a loro volta danneggiate. Il caso della diga del Vajont (Ottobre 1964) è uno degli esempi citati. Nell’articolo si legge che “il fenomeno dei terremoti indotti è ampiamente studiato e monitorato proprio perché oltre a causare danni ad abitazioni, questi possono danneggiare le stesse opere che li hanno causati. Una ricerca bibliografica su  Google Scholar con le frasi chiave ‘induced earthquake’ e ‘induced seismicityrestituisce oltre 1000 articoli pubblicati dal 1980 ad oggi, in media oltre 30 all’anno. Uno degli aspetti problematici emersi dalla ricerca – rivela Mucciarelli – è la carenza in questo ambito di studi e ricerche italiane. Il problema infatti è che se si restringe la ricerca all’Italia, paese ricco di centrali idroelettriche, impianti geotermici, pozzi di estrazione di idrocarburi, si scopre sorprendentemente che dal 1964 ad oggi sono stati pubblicati solo tre lavori sulla sismicità indotta da dighe, due sul problema della sismicità indotta da re-iniezione dei fluidi e uno che studia l’effetto sulla sismicità della variazione del regime idrico sotterraneo possibilmente causato dallo scavo di un tunnel o da un cambiamento climatico”. Altri casi recenti hanno destato attenzione e preoccupazione. Un articolo del 2009 pubblicato su Scientific American tratta del “famigerato progetto geotermico di Basilea, in Svizzera, dove a seguito di una perforazione di tre miglia (4,8 chilometri) nella crosta terrestre, partì un terremoto di magnitudo 3,4 che fece ondeggiare la città determinando la chiusura di tutte le attività”. Lo stesso articolo cita il caso di The Geysers, un’area a 150 Km a nord di San Francisco sfruttata per l’intero secolo scorso per la sua naturale capacità energetica. Con il potenziamento dei livelli di produzione di energia geotermica, dagli Anni ‘70, iniziarono a verificarsi eventi sismici. E siamo ormai scientificamente prossimi al fatidico Big One californiano che spazzerà via dalla faccia della Terra gran parte dell’attuale panorama hollywoodiano della costa occidentale statunitense, dalla California meridionale all’Oregon! Il campo geotermico The Geysers è stato oggetto dello studio che Vincenzo Convertito, ricercatore Ingv, Nils Maercklin, Nitin Sharma e Aldo Zollo, docente di Sismologia all’Università Federico II di Napoli, hanno pubblicato su Bulletin of the Seismological Society of America. Nell’area di The Geysers, nel periodo Aprile 2007-Ottobre 2010, sono stati registrati ben sette terremoti di magnitudo uguale e superiore a quattro. Lo studio, condotto dai ricercatori dell’Ingv e dall’Università partenopea, fornisce uno strumento che permette di valutare gli effetti della sismicità indotta dallo sfruttamento geotermico e di valutare come la pericolosità vari nel tempo in funzione delle attività industriali, quali iniezioni o emungimento di fluidi. La tecnica proposta nello studio si basa sull’analisi in continuo, nel tempo e nello spazio, dei parametri utilizzati per la Valutazione della Pericolosità Sismica. Nello studio si evidenzia, infatti, come la variazione di uno o più parametri possa portare ad una variazione sia della Probabilità di avere eventi potenzialmente più dannosi sia della Pericolosità sismica, richiedendo quindi agli operatori una ri-calibrazione delle operazioni di campo. La tecnica permetterà di studiare la sismicità indotta oltre che dallo sfruttamento delle aree geotermiche anche relativamente all’estrazione di idrocarburi e all’immagazzinamento di anidride carbonica. Questa metodologia si applica agli impianti geotermici. “In aree geotermiche dove si iniettano dei fluidi per aumentare la produzione di energia – spiega Aldo Zollo – la presenza di sismicità indotta, generalmente di piccola magnitudo, è un dato assodato. Nell’articolo abbiamo dimostrato che è possibile adottare tecniche simili a quelle usate per il calcolo della pericolosità sismica su scala nazionale, ma permettendo l’evoluzione nel tempo. La pericolosità sismica è espressa come il livello di superamento di una determinata soglia di accelerazione al suolo in un dato periodo. L’obiettivo è di valutarne la variazione nel tempo utilizzando le informazioni acquisite nel sito in cui avviene l’attività di iniezione ed estrazione di fluidi. Si descrive la ricorrenza della sismicità, la sua distribuzione in magnitudo e come evolvono nel tempo le proprietà di attenuazione delle onde sismiche. A partire da questi dati, un metodo numerico consente di valutare le variazioni nei periodi successivi segnalando eventuali incrementi di pericolosità eventualmente correlati alla attività industriale svolta”. I terremoti dunque possono essere provocati anche dalle attività dell’Uomo. “Nelle zone del Lardarello-Travale e Latera – rivela Zollo – sono stati registrati nel passato a fianco della sismicità naturale anche degli eventi indotti dall’iniezione dei fluidi. Per la maggior parte dei casi sono eventi di bassa magnitudo non avvertibili se non dagli strumenti utilizzati per il controllo della sismicità. In alcuni casi, sia perché l’evento è un po’ più superficiale o perché è di magnitudo più elevata, questo può essere avvertito dalla popolazione. Nelle aree geotermiche italiane non abbiamo mai avuto a che fare con situazioni di danneggiamento o crolli associabili all’attività geotermica. Nelle casistiche che ricordo la soglia strumentale è stata superata nel momento in cui la percolazione dei fluidi ha innescato dei fenomeni di frattura su delle faglie preesistenti, generalmente più profonde della zona-serbatoio direttamente interessata dall’attività produttiva, producendo un evento sismico naturale  favorito dall’iniezione di fluidi. Non è pertanto l’iniezione di fluidi in sé che può provocare terremoti di intensità rilevabile ma semmai l’attivazione di faglie in prossimità delle zone di estrazione/iniezione ed al limite di rottura”. È possibile distinguere un’attività sismica naturale da una antropica. “In generale ciò che manca è un quadro completo che descriva l’accadimento di questa sismicità in relazione alle operazioni effettuate dall’Uomo – osserva Zollo – sulla base della conoscenza che ci deriva da studi effettuati in altri Paesi sappiamo che l’iniezione o estrazione di fluidi nel sottosuolo può determinare fenomeni di microsismicità ma i sistemi di osservazione attuali non sono in grado di rilevarli in modo completo ed  accurato. Stiamo parlando di eventi di magnitudo molto piccole e le reti sismiche, che sono preposte alla rilevazione di terremoti di magnitudo superiori, capaci di generare danni, non sono adeguate per il rilievo della microsismicità indotta. Ovunque, in Italia ma anche negli Stati Uniti, l’attività sismica indotta è sovrapposta a un’intensa attività naturale. Generalmente le aree naturali geotermiche, come quelle in cui si effettua l’estrazione del petrolio, sono aree prossime a zone sismicamente attive. Nei cataloghi che si hanno a disposizione, in queste aree le due attività sono confuse a tutti i livelli di magnitudo e di localizzazione”. Il problema della sismicità indotta può riguardare anche le perforazioni petrolifere. “In Italia esistono zone di giacimenti che sono fuori dalla catena appenninica, ad esempio la pianura padana, e – rileva Zollo – poi esistono un gran numero di pozzi e giacimenti situati a ridosso della catena. L’ambiente tettonico dell’Appennino è un ambiente geologico adatto alla formazione di giacimenti di idrocarburi. La correlazione spaziale tra alcune zone dove si estrae il petrolio in Italia e le zone sismiche adiacenti è pertanto ovvia. Altrettanto ovviamente non possiamo dire, basandoci solo sulla prossimità tra siti di estrazione e zone sismiche, che l’estrazione di petrolio in Italia sia la causa dei terremoti. Molto banalmente si potrebbe ricordare che l’Italia è un Paese dalla storia sismica millenaria, mentre l’attività industriale petrolifera risale a poco più di 50-60 anni fa. Quindi la correlazione tra l’attività di estrazione petrolifera e la sismicità va verificata caso per caso considerando anche la corrispondenza temporale con le attività industriali in corso, non solo quella spaziale, e utilizzando strumenti di osservazione e dati ad alta precisione. Questo vale anche per il caso della sequenza di terremoti accaduti in Emilia nel Maggio 2012 che alcuni vorrebbero essere correlati all’attività estrattiva dell’ENI nell’area”. Per completare il quadro scientifico in Italia occorre un immediato salto di qualità tecnologica nella strumentazione e nella metodologia di analisi, con una fortissima sinergia tra industrie e compagnie private e pubbliche. “Bisognerebbe predisporre dei sistemi di osservazione sismica adeguati, ad alta risoluzione, che prevedono Reti di sensori molto dense e possibilmente in foro, per produrre registrazioni accurate dell’evoluzione spaziale e temporale della sismicità eventualmente connessa alle attività produttive in corso. È necessaria pertanto una sinergia e collaborazione fattiva con le industrie che operano nel settore dello sfruttamento delle risorse del sottosuolo perché le attività estrattive siano controllate con sistemi avanzati di osservazione sismica e i dati siano resi disponibili alle autorità pubbliche ed alle comunità dei territori su cui le attività di estrazione-iniezione vengono svolte”. Sono dunque opportuni interventi ad hoc. “Quando si autorizza un impianto per lo sfruttamento delle risorse del sottosuolo – osserva Zollo – è importante verificare il contesto geologico nel quale esso si realizza  e valutare l’impatto ed i rischi che le sue attività di esercizio possono avere sul territorio e sulle persone. Ciò è previsto dalla normativa vigente in Italia, che adottando il principio di precauzione può eventualmente non consentire la realizzazione dell’impianto. La questione è legata a costi e benefici: un’indagine estremamente dettagliata e completa per la valutazione dei rischi connessi all’esercizio di tali impianti è estremamente onerosa. Sulla base dell’esperienza fatta essenzialmente all’estero su impianti di questo tipo, è possibile tuttavia stabilire norme per l’analisi della pericolosità che tengano in conto il verificarsi della sismicità indotta. Tali analisi consentirebbero di stabilire la probabilità di occorrenza dei terremoti indotti e degli eventuali effetti che essi potrebbero avere sul patrimonio abitativo, data la conoscenza circa la sua vulnerabilità. Ciò al fine di costruire delle Mappe di rischio che integrino la pericolosità naturale con quella indotta. Semmai in Italia si avviasse un Progetto di potenziamento delle Reti di osservazione sismica, potremmo un giorno adottare metodologie come quella da noi proposta nell’articolo sulla sismicità indotta nel campo geotermico The Geyser”. È, dunque, di un problema di costi, per il miglioramento delle Reti italiane di osservazione sismica, oltre che di maggiore trasparenza e condivisione delle informazioni in possesso delle compagnie private. È un problema di investimenti in Italia, cioè di liquidità euro-monetaria. La Cancelleria tedesca dovrebbe essere d’accordo! La trasparenza auspicata dal professor Zollo in particolare da parte delle società petrolifere e di quelle che si occupano di geotermia, è la chiave di volta di tutto il Progetto. I dati delle prospezioni geofisiche e delle attività di estrazione e re-iniezione di fluidi, che oggi le società tengono in gran parte riservati considerandoli parte del loro capitale, agevolerebbero la ricerca e la valutazione della connessione fra queste attività e la sismicità, garantendo l’azione di controllo e prevenzione, favorendo le imprese invece di soffocarle. In Olanda, il Paese più avanzato da questo punto di vista, la sismicità indotta deve essere considerata nella progettazione antisismica di impianti industriali e strutture strategiche secondo Relazioni di attenuazione appositamente sviluppate. A quando l’ingresso dell’Italia tra i Paesi avanzati nella ricerca, nel controllo e nella prevenzione della sismicità indotta negli Stati Uniti di Europa e nel mondo? Costi? No, investimenti! Se le compagnie non si accollano questo “investimento” della prevenzione e del monitoraggio, sarà la collettività a doversi far carico delle eventuali conseguenze! La sismicità indotta è un fatto assodato. Le sue conseguenze non sono sempre accertate ma non sono escluse. I politicanti “nominati” in Italia dal Porcellum si comportino da autentici Politici “eletti”, liberalizzando l’impresa spaziale mineraria privata e lasciando alle imprese le sfide più audaci. Una delle componenti più importanti per la riduzione del rischio sismico è la consapevolezza della popolazione. In Italia nove cittadini su dieci residenti nella “Zona 1”, la più pericolosa, sottovalutano il pericolo che potrebbe derivare da un terremoto. Per la “Zona 2” il valore della sottostima si attesta sul 70 percento. A questi dati sono giunti Massimo Crescimbene e Federica La Longa dopo un’indagine sulla Percezione del rischio sismico in Italia, effettuata online attraverso la compilazione di un test speciale anti-terremoto (www.terremototest.it). Sono stati raccolti circa 6mila test distribuiti su tutte le regioni italiane. È stato elaborato un grafico, le cui colonnine verdi mostrano la corretta percezione della pericolosità in base alla zona di residenza; le colonnine gialle, la sottostima di un punto; le rosse, la sottostima di due punti; le viola la sottostima di tre punti. La colonna violetta lampeggiante mostra la somma totale delle sottostime della pericolosità percepita. In diverse gradazioni di azzurro sono riportate le sovrastime della percezione della pericolosità, cioè le percentuali delle persone che hanno una percezione di una pericolosità più elevata rispetto alla zona sismica in cui vivono. Spicca la piccola percentuale delle colonnine verdi (percezione adeguata) e la tendenza generale alla sottostima, soprattutto nelle zone a maggiore pericolosità. Il test consente di calcolare il punteggio della percezione per ogni fattore che costituisce il rischio sismico uguale al prodotto della pericolosità sismica per il valore esposto per la vulnerabilità. Nella prima fase della ricerca sono stati confrontati i valori che riguardano la percezione della pericolosità sismica con la pericolosità sismica che le attuali conoscenze scientifiche attribuiscono alle zone in cui viviamo, la pericolosità “da normativa”. Le conoscenze scientifiche, sinteticamente riportate nelle Mappe di pericolosità sismica (MPS04), vengono recepite dalle leggi dello Stato e da queste vengono tratte le linee guida per costruire nuovi edifici o adeguare quelli già esistenti in modo da poter resistere ai terremoti attesi nella zona. Il confronto tra la percezione della pericolosità e la pericolosità “legale” ha evidenziato come, a quasi cinque anni dalla tragedia aquilana, ben 8,6 cittadini italiani su 10 residenti nella “Zona 1” più pericolosa, non hanno una corretta percezione del pericolo che potrebbe derivare da un terremoto. Questo dato viene confermato anche per quelli che abitano in “Zona 2” dove 7 cittadini su 10 sottostimano il pericolo che potrebbe derivare loro dagli effetti di un terremoto. Nelle aree “meno pericolose” come la “Zona 3” e la “Zona 4”, le cose vanno leggermente meglio: i cittadini che hanno una corretta percezione della pericolosità sono solo 4 su 10, ma la distribuzione è più bilanciata tra sotto- e sovrastime. Il test è completamente anonimo, a fini di ricerca. Ogni compilatore alla fine del test riceve una risposta online che confronta la sua percezione con la pericolosità da normativa e gli fornisce alcune indicazioni utili per approfondire il tema della riduzione del rischio. La ricerca è stata svolta nell’ambito dei progetti di ricerca finanziati dal Dipartimento della Protezione Civile nel 2012 (DPC- INGV  Progetto S2 – Constraining observations into seismic hazard, coord. L. Peruzza) https://sites.google.com/site/ingvdpc2012progettos2/) con la coord. di Massimo Crescimbene e Federica La Longa (Ingv). Un team di ricercatori americani ha sviluppato un modello per prevedere l’impatto degli articoli scientifici sulla società, sull’economia, sulla politica, sulla conoscenza. I risultati dello studio sono stati pubblicati dalla rivista Science. Le  previsioni si basano su tre fattori: l’appeal dello studio, l’immediata visibilità che può avere un “paper”, il cosiddetto “effetto rete” (se, infatti, una ricerca nelle sue prime fasi di pubblicazione viene citata molte volte avrà molte più probabilità di raccogliere più citazioni) e il terzo parametro, direttamente collegato al secondo, ossia il “tasso di decadenza” che considera l’andamento di una ricerca nel corso del tempo. I ricercatori hanno testato il modello su lavori nel campo della fisica a partire dal 1960. Le loro previsioni si sono basate sui dati relativi ai primi cinque anni di citazione ed hanno  scoperto che 25 anni più tardi, l’andamento reale del 93,5 percento dei documenti ricade all’interno del loro “range” di predizione. Dashun Wang della IBM Thomas J. Watson Research Center di New York, fra gli autori dello studio, spiega che le previsioni possono essere fatte anche utilizzando un background inferiore ai cinque anni. “La cosa sorprendente per me è che possiamo raggiungere questo livello di prevedibilità solo guardando le citazioni nel corso del tempo” – osserva Wang. Gli autori spiegano che il modello è migliorabile e nelle prossime computazioni saranno inclusi nuovi elementi di valutazione come l’argomento della ricerca e la rivista della pubblicazione. I modelli futuri potrebbero predire anche il futuro della carriera di un singolo scienziato: nei Paesi civili più avanzati ad oggi i ricercatori sono giudicati, non politicamente, ma attraverso l’h-index che ha scarsa capacità di prevedere le prestazioni future. “I risultati di questo studio possono influenzare e aiutare il modo in cui vengono concessi i finanziamenti, gli stipendi e le  sovvenzioni agli scienziati” – rivela James A. Evans, ricercatore al Dipartimento di Sociologia dell’Università di Chicago. Esiste un sistema internazionale di controllo degli articoli scientifici proposti dai ricercatori per la pubblicazione nelle riviste specializzate, formato da illustri scienziati (i “pari”) che hanno il compito di leggere e valutare la qualità degli articoli stessi. A questi esperti si dà per convenzione il nome di revisori, in lingua inglese “reviewers”. Tra i reviewers c’è anche Alberto Michelini, Direttore del Centro Nazionale Terremoti (CNT), che svolge l’attività di reviewer da molti anni. La sua è un’esperienza “molto positiva, è molto importante per un ricercatore svolgere questo lavoro di ‘peer review’ perché gli dà modo di verificare e valutare cosa viene pubblicato nel proprio campo di ricerca”. Così lavora la Scienza. “La valutazione tra pari è un lavoro fondamentale per l’avanzamento della scienza. In pratica quando si fa il lavoro di review – spiega Alberto Michelini – bisogna sempre dedicarci tempo ed analizzare le metodologie ed i risultati ottenuti dagli autori del lavoro in modo da coglierne pregi e difetti. In funzione di questi si fornisce un giudizio nel suo insieme fornendo così all’Editor della rivista elementi per giudicare se il lavoro è effettivamente pubblicabile. In generale, è bello e molto arricchente intellettualmente oltre che istruttivo revisionare dei lavori scritti bene con risultati importanti. Altrettanto facile – ma di scarso arricchimento intellettuale – è la revisione di articoli deboli dal lato scientifico e quindi non pubblicabili È invece molto più difficile la revisione di quei lavori che possono avere elementi scientifici importanti, ma la cui analisi è tuttavia svolta in maniera superficiale e approssimativa, senza effettivamente svolgere tutti quei test di verifica dei risultati alla base di ogni lavoro scientifico. In questi casi, evidenziando i punti deboli, si deve svolgere un tipo di critica costruttiva raccomandando agli autori di svolgere del lavoro in più, tale da migliorare sensibilmente la qualità del lavoro e da renderlo accettabile per la pubblicazione”. Il lavoro di reviewer può richiedere notevoli energie specialmente in termini di tempo. “Anche se si hanno a disposizione diverse settimane per effettuare il lavoro di revisione – osserva Michelini – di norma si cerca di condensarlo in pochi giorni e non necessariamente continuativamente. La revisione di un lavoro di ricerca non dà molti meriti ma arricchisce scientificamente e spesso lo si fa in forma anonima. Quando lo si fa bene vi è poi la tendenza a riceverne ancora molti altri da revisionare dallo stesso Editor o dal giornale. Fa sicuramente piacere essere riconosciuti però ad un certo punto si è costretti a rifiutare. Il lavoro viene fatto praticamente sempre a titolo gratuito a parte casi particolari in cui, ad esempio, si svolge la revisione per giudicare progetti di ricerca invece che articoli scientifici. In questo senso, mi pare che le riviste scientifiche, che alla fine pubblicano i lavori, dovrebbero essere più attente perchè effettivamente tanto tempo viene richiesto dal processo di revisione e farlo gratis può diventare un pò disincentivante, col risultato finale che alcuni reviewers potrebbero metterci meno impegno di quello richiesto. Ciò alla fine – avverte Michelini – fa scadere il processo di revisione col risultato che lavori anche errati e comunque di basso rilievo o insignificanti vengono pubblicati. Questo di solito accade con riviste di seconda o terza lega però il problema è che se un lavoro viene pubblicato diventa anche citabile e se i risultati presentati non vengono confutati, il lavoro contribuisce a fare cattiva scienza”. Anche le eruzioni vulcaniche possono avere un brutto carattere estintivo! I carotaggi ottenuti negli ultimi trent’anni dagli strati di ghiaccio dell’Antartide e della Groenlandia indicavano che intorno all’Anno Domini 1257 doveva essere accaduto qualcosa di veramente sconvolgente per l’intero pianeta. Dai depositi di zolfo rinvenuti tra quegli strati di ghiaccio si poteva dedurre che un’eruzione vulcanica aveva iniettato in atmosfera una quantità di solfati almeno otto volte maggiore di quella prodotta in notevoli dosi industriali dall’eruzione del Krakatoa nel 1883. I livelli erano addirittura doppi di quelli registrati in occasione dell’eruzione del Tambora nel 1815, un evento incredibilmente devastante e responsabile di quello che gli annali di Storia riportano come l’Anno senza estate. Dai racconti delle cronache medioevali europee emerge che intorno all’Anno del Signore 1258 doveva essere accaduto qualcosa di altrettanto sconvolgente. La critica situazione ambientale era testimoniata anche dagli anelli di accrescimento degli alberi corrispondenti a quel lontano periodo. Per l’insolazione ridotta, le piogge incessanti e le conseguenti inondazioni, i raccolti furono incredibilmente miseri e le popolazioni vennero falcidiate dalla carestia e dalle inevitabili malattie. Le migliaia di morti trovarono pietosa sepoltura in gigantesche fosse comuni. Come quelle scoperte nella parte orientale di Londra negli Anni Novanta del secolo scorso. Oltre 10mila scheletri risalenti al periodo medioevale venuti alla luce a Spitalfields Market nel corso di scavi archeologici. Per gli autori della scoperta si tratta solamente della punta di un “iceberg” perché si ritiene che in quelle fosse comuni fossero state sepolte almeno 15mila persone, circa un terzo della popolazione londinese del tempo. Una terrificante strage che fu inizialmente attribuita alla terribile pestilenza nota col nome di Morte Nera, il contagio che flagellò l’Europa all’inizio del XIV Secolo. Attribuzione sconfessata dalle datazioni al radiocarbonio, che indicavano chiaramente quelle morti anteriori di alcuni decenni. Poi, collegando tra loro tutte le prove disponibili, è emerso in modo chiaro che per i drammatici avvenimenti avvenuti a cavallo del 1257 la responsabilità era di un’eruzione vulcanica. Il fondato sospetto, vista la diffusione pressoché uniforme dei solfati vulcanici nei due emisferi, con la pistola fumante sembrò inchiodare il killer alle sue responsabilità. Era certo che la sua localizzazione dovesse essere ricercata nella fascia equatoriale. Ma nulla di più. Un recente studio del vulcanologo Franck Lavigne dell’Università di Parigi e dei suoi collaboratori, pubblicato su PNAS, sembra finalmente svelare la vera identità del killer. Accanto alle evidenze geofisiche note da tempo, è infatti emersa la cruciale testimonianza di alcuni documenti storici, noti come Babad Lombok, che in antico giavanese narrano su foglie di palma le vicende dell’abulico regno che prosperava sull’isola indonesiana di Lombok. Dai racconti emerge la devastante distruzione di Pamatan, la capitale dell’antico regno, operata dal vulcano Samalas, una struttura appartenente al complesso del Monte Rinjani. Il tragico avvenimento, verificatosi prima della fine del XIII Secolo, avrebbe provocato decine di migliaia di vittime ed aperto la strada alla successiva invasione dell’isola da parte dei regni vicini. Oggi sulla sommità del monte Samalas svetta un’imponente caldera di 6,5 per 8 chilometri, e sulle pendici del vulcano enormi depositi di ceneri e tracce di devastanti flussi piroclastici (nubi ardenti, il fenomeno che uccise gli abitanti di Pompei nel 79 dopo Cristo). La ricostruzione di quell’eruzione vulcanica medievale che emerge dallo studio di Lavigne, lascia senza parole. Le stime più prudenti parlano di 35-40 chilometri cubi di materiale espulso dal vulcano con un pennacchio di ceneri che si spinse in atmosfera fino alla quota di 43 chilometri. Decine di megatoni di energia furono liberati. La devastazione non colpì solo il monte Samalas e le sue immediate vicinanze. Consistenti depositi di pomice, spessi anche 35 metri e riconducibili all’evento, sono stati individuati nelle isole circostanti anche a 25 chilometri di distanza dal vulcano. Secondo i vulcanologi si trattò di un’eruzione davvero eccezionale, caratterizzata da un grado di esplosività (indice VEI) pari a 7, una delle più violente eruzioni degli ultimi 7mila anni. Non solo. Lo studio di Lavigne mette in luce come le datazioni al radiocarbonio dei materiali siano consistenti con una loro collocazione a metà del XIII Secolo, ma anche come l’analisi chimica dei depositi di pomici del Samalas coincida con quella dei materiali rinvenuti nei carotaggi artici e antartici. Finalmente, insomma, il killer è stato individuato. Sulla Terra se ne contano a decine. Dinanzi a una simile potenza eruttiva è ragionevole pensare che, come avvenne per quella del Tambora, anche a seguito dell’eruzione del Samalas possano essersi innescate quelle devastanti conseguenze per l’intero pianeta testimoniate dai racconti medioevali. Qualcuno spinge l’analisi ancora più in là. Nel Gennaio 2012, prima che il responsabile degli avvenimenti del XIII Secolo venisse ufficialmente accusato, il geochimico Gifford Miller dell’Università del Colorado e il suo team pubblicarono su Geophysical Research Letters uno studio in cui suggerivano il possibile legame tra quella ancora misteriosa eruzione e la cosiddetta Piccola era glaciale. Le polveri ricche di zolfo disperse in atmosfera da almeno un paio di imponenti eruzioni vulcaniche (una di esse fu proprio quella del Samalas) ridussero in modo significativo l’apporto di radiazione solare. A questa diminuzione dell’irraggiamento, secondo la ricerca, seguì un graduale aumento delle distese di ghiaccio polari e il conseguente modificarsi delle circolazioni oceaniche con il risultato di dare il via a una sorta di era glaciale che si protrasse fino alla metà del XIX Secolo. Non tutti i climatologi sono d’accordo con Miller nell’individuare intorno al 1350 l’inizio della Piccola era glaciale. Per molti la si deve collocare più tardi, verso la metà del XVI Secolo. Non c’è neppure un grande accordo sulle cause di quel drastico raffreddamento ambientale, forse di origine cosmica. Accanto ai meccanismi geofisici noti, infatti, compaiono anche spiegazioni di origine strettamente astronomica, quale il ciclico susseguirsi di variazioni nei parametri orbitali della Terra, gli impatti di asteroidi e comete anche nella sola atmosfera, e la stessa variabilità periodica del Sole. Come solitamente succede quando si ha a che fare con la Scienza del clima e la sua variabilità, alla fine ne resterà soltanto una di spiegazione ragionevole e valida. Ecco perché è importante studiare il Monte Etna, il vulcano terrestre più grande d’Europa, al centro di attenzioni piuttosto scoppiettanti come la fenomenologia che interessa la fase finale dell’episodio parossistico al Nuovo Cratere di Sud-Est (NSEC) del 26 Ottobre 2013. Come si evince dalle relazioni scientifiche preliminari dell’Ingv, è avvenuta una serie di potenti esplosioni, una delle quali è visibile nell’immagine ripresa da Monte Zoccolaro, sul versante sud-orientale del vulcano. In primo piano della spettacolare foto scattata da Francesco Ciancitto dell’INGV-Osservatorio Etneo, si osserva una piccola colata di lava emessa attraverso la profonda fenditura nel fianco orientale del cono (formatasi per collasso durante il parossismo del 27 Aprile 2013), dalla quale si alza una densa nube di gas bianco. A destra, il denso pennacchio di cenere emessa dal Cratere di Nord-Est. Tutta questa attività quasi esattamente sei mesi dopo la prima dell’anno. “Durante la fase di massima intensità dell’attività eruttiva, è entrato in azione anche il Cratere di Nord-Est (NEC) con intermittenti emissioni di cenere fine che hanno prodotto imponenti pennacchi di color grigio-marrone. Anche la Bocca Nuova (BN) ha prodotto sporadiche esplosioni, una delle quali ha generato una pesante ricaduta di materiale litico (cenere e blocchi di materiale vecchio, maggiormente alterato) sul fianco del cono centrale, con la successiva formazione di una nube simile ad un flusso piroclastico. La nube di gas carica di materiale piroclastico (cenere e lapilli) sollevatasi dal NSEC ha raggiunto un’altezza di diversi chilometri ed è stata spinta dal vento verso sud-ovest, causando ricadute di materiale piroclastico su centri abitati fino alla parte centrale della Sicilia. Si sono formati due campi di lava, il più esteso a sud e sud-est, e l’altro, più piccolo, verso nord-est. Alla base meridionale del cono, la lava ha invaso la zona di Torre del Filosofo, distruggendo due strutture in legno utilizzate dalle guide dell’Etna come riparo e bar, interrompendo la pista che congiunge i versanti sud e nord del vulcano. Il preludio è interessante. L’episodio eruttivo del 26 Ottobre è stato preceduto da diverse settimane di debole e sporadica attività esplosiva al NSEC, che ha avuto inizio la mattina del 3 Settembre 2013. A più riprese, si sono osservate piccole emissioni di cenere, accompagnate da lanci di materiale incandescente visibili di notte. L’ultima attività di questo tipo è stata osservata nella notte del 6-7 Ottobre 2013. Nel pomeriggio del 5 Settembre 2013 gli scienziati registrano un forte segnale sismico proveniente dalla BN, probabilmente collegato allo sprofondamento della piattaforma lavica che aveva riempito una depressione craterica pre-esistente durante l’attività eruttiva di Gennaio-Febbraio 2013. Una debole attività esplosiva o ulteriore collasso di materiale ancora caldo ed incandescente, hanno generato un forte bagliore di breve durata poco prima dell’alba del 6 Settembre 2013. Il collasso del 5 Settembre ha portato alla formazione di un nuovo cratere a pozzo (pit crater) circolare. Nelle settimane successive, da questo pit crater erano occasionalmente udibili dei deboli boati. Tuttavia gli scienziati non hanno osservato fenomeni di attività eruttiva. Durante il periodo Settembre-Ottobre 2013 hanno però assistito a un cospicuo degassamento dalla Voragine. Dall’interno del NEC erano udibili forti boati che a volte si sentivano anche fino alla distanza di 1 Km dal cratere. Una nuova ripresa, inizialmente molto debole, dell’attività stromboliana al NSEC è stata osservata nelle prime ore del 25 Ottobre 2013. Quest’attività è diventata più cospicua in tarda mattinata ed ha prodotto piccole anomalie nelle immagini riprese dalle telecamere termiche dell’INGV-Osservatorio Etneo sulla Montagnola (EMOT) ed a Monte Cagliago (EMCT), ubicate rispettivamente sui fianchi sud e sud-est del vulcano. L’attività stromboliana si è progressivamente intensificata durante il pomeriggio, quasi continua in serata, con esplosioni ad intervalli di pochi secondi e il lancio di materiale piroclastico incandescente fino a 100 m sopra l’orlo craterico. Il parossismo dell’Etna è significativo. Intorno alle ore 2:00 GMT del 26 Ottobre, l’attività eruttiva ha gradualmente assunto il carattere di fontane di lava che si alzavano da due bocche all’interno del cratere. Dalle immagini delle telecamere termiche era evidente anche la formazione di una colonna eruttiva, che si è alzata diversi chilometri sopra la cima del vulcano, e che è diventata progressivamente più sostenuta e carica di materiale piroclastico. Nello stesso intervallo è iniziato un trabocco di lava dalla zona della “sella” fra i due coni del Cratere di Sud-Est, alimentando una colata di lava che si è riversata sul versante sud-occidentale del cono del NSEC, per espandersi alla sua base, formando diversi rami diretti verso sud-ovest, sud, e sud-est. Alle ore 4:00 GMT, il crollo di una parte dell’orlo craterico in corrispondenza della “sella”, ha permesso un copioso aumento del volume di lava che traboccava dal cratere. Per le successive due ore, l’attività è andata avanti, gradualmente aumentando di intensità, ma senza notevoli variazioni. Le fontane di lava si sono alzate da due bocche all’interno del NSEC, una con più forte attività nel centro della depressione craterica, l’altra più spostata verso sud-est. Una terza bocca si è attivata nella “sella” in un momento non ben documentato; da questa bocca è stata emessa una colata di lava che, dopo aver percorso 150-200 metri verso sud, si è unita alla colata già attiva. Alle ore 6:21 GMT, dal NEC si è alzata una densa colonna di cenere grigio-marrone, raggiungendo un’altezza di circa 1 km. Nelle immagini della telecamera termica EMCT, il materiale emesso soprattutto all’inizio era caldo. Anche nel corso delle ore successive si sono spesso registrate piccole anomalie termiche. Contemporaneamente alle prime emissioni di cenere dal NEC, è cominciata un’intensa attività di degassamento anche dalla Voragine, che si è protratta per tutta la mattina. Le emissioni di cenere dal NEC si sono alternate ripetutamente con l’emissione di vapore denso. Dopo le ore 10:00 GMT sono diventate quasi continue. Durante le ore di massima intensità di fontana di lava dal NSEC, sono state osservate anche alcune esplosioni alla BN che si sono intensificate quando l’attività del NSEC aveva già cominciato a diminuire, culminando in un evento particolarmente forte alle ore 10:12 GMT, con l’emissione quasi esclusivamente di materiale vecchio però ad alta temperatura. Quest’esplosione ha generato una nube eruttiva la cui parte più carica di materiale piroclastico e litico si è rovesciata sul fianco sud-occidentale della Bocca Nuova, generando un fenomeno simile ad un flusso piroclastico, che ha percorso circa 200 metri di distanza dall’orlo craterico, lasciando un deposito di materiale fine di colore rosa e numerosi blocchi di roccia alterata. Al NSEC, l’attività di fontana di lava è andata avanti con minori variazioni di intensità fino alle ore 10:00 GMT circa, quando ha cominciato a diminuire rapidamente. Nelle ultime fasi di fontana di lava, una colata ha traboccato anche l’orlo sud-orientale del cratere, riversandosi nella profonda nicchia di distacco formatasi durante il franamento di quel settore del cono durante il parossismo del 27 Aprile 2013. Questa colata si è propagata lentamente sullo stesso percorso della colata emessa il 27 Aprile da una bocca all’interno della nicchia di distacco, raggiungendo una lunghezza di circa 1.3 km. Nel frattempo, l’attività al NSEC è passata ad attività stromboliana, spesso con violentissime esplosioni che hanno lanciato materiale piroclastico grossolano soprattutto sul settore nord-orientale del cono e generato potenti boati nonché spostamenti d’aria. L’attività stromboliana si è protratta, generalmente diminuendo, fino alle ore 13:00 GMT circa. Dopo la cessazione dell’attività eruttiva al NSEC, sono continuate le emissioni di cenere dal NEC. Alle ore 17:27 GMT si è riattivato il NSEC con una serie di esplosioni e il lancio di materiale incandescente grossolano. Dopo le ore 18:15 GMT quest’attività è nuovamente diminuita, ma minori esplosioni sono avvenute fino alla tarda serata. L’emissione di cenere dal NEC si è conclusa in tarda serata. Il campo lavico formatosi sul lato sud del NSEC continuava ad espandersi lentamente durante il 27 Ottobre, dopo aver invaso il “piazzale” di Torre del Filosofo (il punto d’arrivo dei pulmini 4×4 e le due baite in legno delle guide dell’Etna) separandosi in tre rami principali, il più occidentale dei quali aveva raggiunto la base di Monte Frumento Supino. Un altro ramo aveva interrotto la pista per Torre del Filosofo, costeggiando il fianco nord-orientale del cono del 2002-2003, mentre il terzo ramo si era riversato in direzione dell’ex stazione di monitoraggio “Belvedere”, arrestandosi poco prima di raggiungere l’orlo occidentale della Valle del Bove. Il volume complessivo di lava prodotta da questo evento è di circa un milione di metri cubi. La distribuzione di materiale piroclastico del parossismo del NSEC del 26 Ottobre 2013 è verso sud-ovest, interessando un settore piuttosto stretto intorno all’abitato di Adrano, senza però interessare gli abitati più a nord (Bronte) e a sud (Biancavilla). Ad Adrano, il deposito consiste in ceneri grossolane, mentre in località più distanti, come Caltanissetta, Centuripe, Enna e Montedoro, il materiale è più fine. Nella zona sommitale dell’Etna, il deposito consiste in lapilli dalle dimensioni di pochi centimetri, mentre sono presenti pochissime bombe (fino a 20 cm di diametro) alla base meridionale del cono. Sono invece presenti numerose bombe più grossolane alla base settentrionale del cono. Il materiale emesso dal NEC durante il 26 Ottobre 2013, consiste in una frazione nettamente più fine (con dimensioni dei clasti intorno a 0.5 mm) caratterizzata quasi del tutto da materiale litico di varia natura (lave alterate rossastre, frammenti vulcanici neri, minerali di alterazione secondaria con colori da bianco a rosato) e clasti di tachilite, nonché particelle di sideromelano fresco con dimensioni maggiori (intorno ai 2-4 mm) con morfologie allungate irregolari da fluidali a convolute, di colore ambrato scuro (dati citati dal Rapporto di Andronico, Cristaldi e Lo Castro sulla dispersione dei depositi di caduta e caratteristiche dei prodotti eruttati). L’episodio eruttivo del 26 Ottobre 2013 è stato, nelle sue caratteristiche generali (altezza delle fontane di lava e della colonna eruttiva, volume di lava emessa) simile ad altri episodi precedent. In termini di intensità eruttiva, secondo gli scienziati, è stato meno forte rispetto ad alcuni dei parossismi di Febbraio-Aprile 2013 ed altri parossismi in passato. Tuttavia, la contemporanea attività esplosiva sia al NEC sia alla BN, rappresenta un elemento particolare: l’ultimo caso che il NEC ha mostrato una significativa attività eruttiva durante un parossismo al Cratere di Sud-Est è stato nella Primavera del 2000 e l’ultima attività di rilievo del NEC è stata l’emissione di cenere del 14-15 Novembre 2010. Sono però conosciuti altri casi di forte attività contemporanea (o quasi) a più crateri sommitali dell’Etna, il più notevole essendo la serie di eventi parossistici alla Voragine, la BN e al Cratere di Sud-Est nel pomeriggio e nella serata del 4 Settembre 1999. E l’attività quasi contemporanea alla BN, Voragine e al NSEC nell’intervallo 27-28 Febbraio 2013. Come avviene di consueto in occasione di tali attività eruttive, l’evento parossistico è stato preceduto ed accompagnato da alcune variazioni nei parametri sismici monitorati in continuo dalle reti sismiche strumentali dell’Ingv. Tra questi, l’ampiezza del tremore vulcanico rappresenta uno dei segnali che meglio permette di verificare lo stato di attività delle masse magmatiche, ancora prima della loro emissione. Dalle ore 19:00 GMT circa del 24 Ottobre 2013, infatti, gli strumenti hanno registrato un primo, seppur debolissimo, incremento dell’ampiezza media del tremore vulcanico. Fenomeno osservato dalla gran parte delle stazioni sismiche della rete permanente. Un modesto trend in crescita di tale parametro ha caratterizzato le ore successive, fino a divenire poi più deciso dalle 16:00 GMT circa del 25 Ottobre. Durante le fasi di attività stromboliana sono stati registrati alti valori dell’ampiezza del tremore che sono divenuti poi chiaramente ancor più elevati durante l’attività di fontana di lava, tra le 06:30 e le 09:50 GMT del 26 Ottobre. Nelle ore successive, alla diminuzione dell’attività eruttiva è corrisposto un chiaro e veloce decremento dell’ampiezza del tremore vulcanico, che si è riportato, intorno alle 11:00 GMT, sui valori che hanno preceduto le fasi di attività stromboliana del giorno 25 Ottobre. Grazie ai sensori infrasonici che operano sulle quote alte del volcano Etna, è stato possibile seguire l’evoluzione dell’attività esplosiva del fenomeno. I segnali registrati in continuo sono stati contraddistinti dalla crescente attività acustica infrasonica, che intorno alle 10:00 GMT del 25 Ottobre ha mostrato un primo chiaro incremento nella frequenza di accadimento ed ampiezza degli eventi infrasonici. L’evolversi del fenomeno, con l’attività che da stromboliana diventava di fontanamento, ha dato origine al tipico segnale di tremore infrasonico, determinato dalla sovrapposizione di singoli eventi infrasonici che accadono in maniera così ravvicinata da non essere più singolarmente distinguibili. La rete clinometrica dell’Etna comprende 16 stazioni (15 “bore-hole” ed una “long-base”) capaci di registrare modifiche dell’inclinazione del suolo con estrema precisione. Durante l’episodio del 26 Ottobre 2013 sono state registrate variazioni dell’inclinazione che mostrano come l’Etna, durante le fontane di lava, sia interessato da un leggero “sgonfiamento” causato dalla fuoriuscita di lave e materiale piroclastico. Le variazioni maggiori sono di circa 1.5 microradianti, corrispondenti ad una variazione angolare prodotta da un abbassamento di 1.5 mm ad una distanza di un chilometro. Anche le serie temporali delle stazioni sommitali della rete GPS, poste oltre 2000 metri di quota, hanno mostrato un transiente deformativo riconducibile all’attività eruttiva. In particolare, tale transiente, registrato nella giornata del 25 Ottobre, secondo gli scienziati risulterebbe associabile alla dinamica magmatica che ha anticipato l’evento parossistico”. A Settembre 2013 si è svolto il meeting dei partecipanti ai progetti sismologici coordinati dal Professor Riccardo Caputo dell’Università di Ferrara, che coinvolgono oltre 300 ricercatori. “Il Programma Sismologico nasce dal DPC per coinvolgere la comunità scientifica su tematiche di interesse per i propri compiti istituzionali – rivela Caputo – il Programma Sismologico ha trovato la sua collocazione nell’Accordo Quadro DPC-INGV ‘12-’21, che destina un milione di euro per l’approfondimento delle conoscenze. La stessa cifra è stata dedicata ad un analogo Programma Vulcanologico. Le line di ricerca sono state organizzate nell’ambito di tre Progetti diretti da A.Argnani (Miglioramento delle conoscenze per la definizione del potenziale sismogenico), L.Peruzza (Validazione della pericolosità sismica mediante dati osservati), D.Albarello (Previsione a breve termine dei terremoti)”. Tra gli argomenti più dibattuti c’è quello controverso della “previsione” dei terremoti. “Se si parla di previsione a lungo termine – osserva Caputo – sono in corso progressi con il miglioramento delle carte di pericolosità sismica che esprimono tale previsione in forma probabilistica. Anche per la previsione a medio termine sono stati fatti progressi importanti. La situazione è diversa per la previsione a breve termine. Gli studi in questo primo anno di Programma, sono stati dedicati alla raccolta di dati che permettessero di verificare la potenzialità di alcuni fenomeni naturali (emissioni Radon, fluttuazioni nel livello e nella chimica delle acque sotterranee, variazioni della temperatura al suolo, variazioni delle proprietà elettriche e meccanica della crosta, variazioni del campo di deformazioni) potenzialmente legati all’occorrenza di terremoti dannosi. Le analisi preliminari effettuate sui dati indicano che nessuno di questi fenomeni sembra precedere sistematicamente tutti i terremoti, mentre fenomeni simili avvengono anche in assenza di eventi sismici. In ogni caso, è forse ancora prematuro escludere la possibilità di riuscire ad individuare qualche fenomeno capace di fornire indicazioni utili a prevedere l’attività sismica a breve termine”. L’affermazione ricorrente, di autorevoli sismologi, che i terremoti non sono prevedibili, non incide sull’impegno alla ricerca. “Dire che i terremoti siano totalmente imprevedibili è un’affermazione troppo generale – rivela Caputo – se per previsione si intende una precisa indicazione riguardo al momento ed al luogo dove il prossimo terremoto avverrà, allora l’affermazione è vera. Se intendiamo come previsione la possibilità di fornire indicazioni deboli, ovvero nella forma di maggiore o minore probabilità che un terremoto avvenga in un dato luogo e in un certo intervallo di tempo, allora la strada è da esplorare”. Sul fronte della Prevenzione, che in occasione di recenti terremoti ha mostrato tutta la sua fragilità, l’impegno dei sismologi di tutto il mondo è totale. “La Prevenzione sismica non può prescindere da una conoscenza della Pericolosità di un territorio che rappresenta uno degli ingredienti fondamentali per determinare il grado di Rischio sismico. In quest’ottica – osserva Caputo – i prodotti ottenuti nell’ambito del Programma Sismologico hanno contribuito al miglioramento delle conoscenze principalmente nelle aree della Pianura padana e dell’Appennino meridionale. È stata migliorata la caratterizzazione sismotettonica di alcune strutture sismogeniche come il sistema di sovrascorrimenti dell’Arco Ferrarese, la struttura del Montello ed un fascio di faglie normali presenti nel settore calabro-lucano. Queste ed altre informazioni permetteranno anche di affinare le mappe di pericolosità sismica”. La Carta Vulcanologica del settore sud-occidentale del Vesuvio che va da Portici a Torre del Greco, alla scala 1:10.000, che è stata presentata, fresca di stampa, a GEOITALIA 2013, lo scorso Settembre 2013, è il frutto di un lavoro di diversi anni, iniziato all’interno del lavoro di tesi di Laurea Specialistica in Scienze Geologiche al l’Università Federico II di Napoli e proseguito per due anni con i fondi di un progetto bilaterale CNR fra l’lstituto di Geoscienze e Georisorse del CNR di Pisa e l’Istituto Joan Almeira del ConsejoSuperior de InvestigationesCientificas (CSIC) di Barcellona. La stampa della carta è stata possibile attraverso il contributo finanziario del Parco Nazionale del Vesuvio che fin da quando sono circolate le prime bozze ha mostrato un forte interesse al progetto. Questa nuova Carta ha come primo merito quello di emendare gli errori noti e meno noti, contenuti nella precedente cartografia. I suoi meriti però vanno ben oltre, secondo gli scienziati. La cartografia proposta ha un dettaglio finalmente in grado di restituire la realtà vulcanologica di questo territorio, devastato da imponenti eruzioni esplosive (di Avellino circa 4000 anni fa, di Pompei nel 79 dopo Cristo e i flussi piroclastici dell’Anno Domini 1631) e solcato a più riprese nel corso del Medioevo da correnti laviche. Che si sono incuneate nelle incisioni scavate dalle acque ed hanno letteralmente saltato lungo lo scalino morfologico costiero che le separava dalla riva del mare, per inoltrarvisi. A queste lave, dai fronti spessi anche una decina di metri e originatesi da bocche eccentriche basse, lungo il profilo del vulcano, si sono sostituite, dopo l’eruzione pliniana del 1631, una serie di colate tracimate in gran parte dal Gran Cono del Vesuvio. Fluide e sottili, a paragone delle lave medioevali, esse sono tornate talvolta a minacciare la riva del mare, raggiungendola però solo nel 1794, originate da bocche di nuovo eccentriche. È una visione inquietante e diversa da quella cui siamo abituati, quella del Vesuvio che emerge da questa nuova Carta. Un vulcano solcato e modellato da faglie e fratture da cui con poco preavviso nelle ultime centinaia di anni, fra una pliniana e l’altra, sono sgorgati fiumi di lava che hanno tagliato strade e devastato un territorio, fino alla data della sua ultima eruzione nel 1944, sì eminentemente agricolo e popolato, ma mai come oggi così terribilmente e incoscientemente assediato dall’Uomo. Milioni di persone rischiano la vita, più o meno consapevoli di quel che potrebbe accadere! Il risultato cartografico raggiunto ha convinto gli scienziati della bontà dell’approccio scelto. È stato operato un rilievo di terreno ex novo, palmo a palmo. È stata usata la cartografia UBSU, con la suddivisione in “sintemi” della successione stratigrafica ricostruita. I “sintemi” sono unità caratterizzate dalla presenza oggettiva di superfici di erosione a tetto ed a letto delle unità da cartografare. È stato operato un accurato confronto con la cartografia storica delle lave, accompagnato dall’analisi delle fonti documentarie, dei dati archeologici e facendo tesoro delle suggestion della toponomastica. La Scienza dei nomi ha riservato non poche sorprese, puntualizzando con un nome antico la presenza di una bocca o di un antico rivo, come sapevano fare i nostri Antenati. Di tutte le lave cartografate in questo spicchio di vulcano sono state fatte nuove analisi petrochimiche e nuove datazioni archeomagnetiche in modo da non lasciare nessuna colata senza un’età, un preciso elenco dei minerali che la caratterizzano e la verifica dell’omogeneità chimica che è risultata accomunare le lave medioevali e le lave moderne del Vesuvio. Non resta che visualizzare la nuova Carta vulcanologica del Vesuvio in 3D grazie al ricercatore Antonio Caramelli che ha depositato una domanda di concessione di un brevetto di invenzione industriale per l’ideazione di un sistema di visualizzazione tridimensionale con effetto stereoscopico multiplo mediante polarizzatori circolari, denominato Kaleidoscopio3D, in grado di visualizzare video 3D su di una sfera virtuale di grandi dimensioni. Il sistema, realizzato da SpecchioPiuma srl (www.specchiopiuma.it) è attualmente esposto a Genova in occasione del Festival della Scienza. Le nuove macchine e quelle antiche s’incontrano all’Osservatorio Ximeniano di Firenze che conserva una notevole collezione di documenti e strumenti scientifici. Se ci sono città abruzzesi che si sono sbarazzate della propria storia e dei propri strumenti sismologici senza troppi complimenti, esistono, grazie a Dio, altre realtà italiane che salvano la Scienza e la Tecnologia dall’azione di oscuri maestri del nulla. Nonostante il carattere meteorologico, astronomico, geofisico che ne ha caratterizzato l’attività fin dal 1775, l’Osservatorio ha ricoperto un ruolo importante anche per la nascita del primo motore a scoppio della storia, che data ufficialmente 5 Giugno 1853, ad opera del padre scolopio Eugenio Barsanti di Pietrasanta e dell’ingegnere Felice Matteucci di Lucca. In tale giorno “il padre Eugenio Barsanti e l’ing. Felice Matteucci depositano alla segreteria dell’Accademia dei Georgofili di Firenze un plico contenente una memoria nella quale descrivono una serie di esperienze da loro fatte sulla trasformazione dell’energia esplosiva di un gas in lavoro meccanico. Il plico, su richiesta degli stessi Barsanti e Matteucci, venne aperto successivamente nel 1863. Nella memoria, furono apposte in calce le

firme dei testimoni che attestarono la veridicità del contenuto. Si tratta di personaggi in vista nella Firenze di quegli anni, degni di stima: il padre Giovanni Antonelli, direttore dell’Osservatorio Ximeniano, i professori Tito Gonnella ed Emilio Bechi, l’architetto Pasquale Poccianti, il padre Filippo Cecchi delle Scuole Pie di Firenze. Ancora oggi attendiamo che il Cinema d’Autore renda loro il dovuto omaggio. Perché senza memoria non può esservi futuro. Gli americani ne sono consapevoli e, in via straordinaria, l’American Geophysical Union (AGU Fall Meeting, San Francisco 9-13 Dicembre 2013) ha nominato per un altro mandato il ricercatore Fabio Florindo come Editor di Reviews of Geophysics, la prestigiosa rivista di punta nel settore della Geofisica. “Nel corso del suo mandato – spiegano all’Ingv – la rivista ha avuto una crescita enorme fino a raggiungere un IF di 13.9, superiore a riviste del calibro di Nature Geoscience”. Proseguono i seminari e gli incontri scientifici nella sede Ingv del Centro Storico di L’Aquila, nella consapevolezza di sapere come far ripartire l’Italia, prima delle catastrofi naturali. È saggio leggere attentamente le avvertenze. L’Italia, insieme alla Cina, gli Usa e il Giappone è tra i Paesi più vulnerabili a causa dei disastri naturali, in particolare terremoti ed eruzioni vulcaniche. La nostra Penisola conta ben 25 vulcani tra attivi e spenti. Tutte potenziali “bombe nucleari”. L’Istituto Nazionale di Geofisica e Vulcanologia collabora con il Parco Campo dei Fiori, per promuovere la cultura scientifica nell’ambito delle Scienze della Terra. Il territorio di azione, la provincia di Varese, è stato scelto per sperimentare iniziative rivolte alla convivenza sostenibile con i terremoti anche nelle aree a bassa pericolosità. Qui l’esperienza pone di fronte a situazioni che colgono impreparati gli insegnanti e la popolazione in generale, nel momento in cui gli effetti di un evento ritenuto poco probabile, apparentemente molto lontano, ricordano quanto la nostra quotidianità possa essere influenzata dalle dinamiche nucleari interne alla Terra. Anche perché il ‘Core’ del nostro pianeta non può essere denuclearizzato senza pesanti conseguenze! In una società moderna sempre in frenetica attività, l’avvicinamento alla conoscenza dei fenomeni naturali potenziali cause di disastri, anche là dove non sono di casa, oltre a contribuire all’aumento della consapevolezza, ha una valenza di educazione alla sicurezza sostenibile, di sensibilizzazione verso l’importanza che semplici azioni (come sapere cosa fare e non fare: prima, durante e dopo un terremoto in montagna, in pianura, al lago o sulla costa del mare!) possono avere per mitigare il rischio e salvare la vita. Così, ripercorrendo le tappe della formazione ed evoluzione del Mediterraneo, la mostra Catastrofi Naturali approfondisce tematiche inerenti terremoti, eruzioni vulcaniche e maremoti. La mostra è il risultato di aggiornamenti di precedenti allestimenti presentati al Festival della Scienza di Genova a partire dal 2009. Attraverso la collaborazione con il Parco Campo dei Fiori sono stati aggiunti una serie di laboratori didattici rivolti alle classi quarta e quinta della Scuola Primaria ed a quelle della Secondaria di primo grado, a sostegno dell’apprendimento degli argomenti di scienza della Terra trattati. Allora, muoviamo la poderosa macchina del volontariato scientifico e tecnologico, a qualsiasi costo-investimento, prima degli eventi distruttivi!

Nicola Facciolini

Una risposta a “Terremoti, eruzioni vulcaniche, tsunami e previsioni, l’apocalisse è nel futuro”

  1. […] Terremoti, eruzioni vulcaniche, tsunami e previsioni, l'apocalisse è … – L'Impronta L'Aquil… […]

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *