Prevedere l’imprevedibile, ecco dove esplodono i più grandi terremoti nella Terra

“È crudele ed umiliante constatare che le opere umane, costate tanti anni di lavoro e sacrificio, possano venir distrutte in pochi secondi: la terra, simbolo stesso di solidità, può muoversi sotto i nostri piedi come una sottile pellicola su un liquido”(Charles Darwin). A 45 mesi dal catastrofico terremoto di L’Aquila del 6 Aprile 2009 (Mw=6.3; […]

“È crudele ed umiliante constatare che le opere umane, costate tanti anni di lavoro e sacrificio, possano venir distrutte in pochi secondi: la terra, simbolo stesso di solidità, può muoversi sotto i nostri piedi come una sottile pellicola su un liquido”(Charles Darwin). A 45 mesi dal catastrofico terremoto di L’Aquila del 6 Aprile 2009 (Mw=6.3; 309 morti; 1600 feriti), dopo 60mila terremoti finora registrati dall’Ingv, l’unica lezione impartita da quella drammatica tragedia che ha distrutto la Capitale d’Abruzzo non sembra concentrata sulle politiche di prevenzione e mitigazione degli effetti delle catastrofi naturali. Le Tredici Raccomandazioni dei geo-scienziati, verbalizzate in occasione del 45mo AGU Fall Meeting dell’Unione dei Geofisici Americani presso il Moscone Center di San Francisco (California, 3-7 Dicembre 2012) che ha visto la partecipazione di 20mila scienziati della Terra, fisici dello spazio, educatori, giornalisti scientifici, studenti e ricercatori dei più prestigiosi centri di ricerca riuniti per presentare al mondo i loro lavori, vanno fatte rispettare alla lettera in Italia e nel Mondo, separando il grano dalla zizzania. Nella prefazione del libro “Prevedere l’imprevedibile” della sismologa californiana Susan Hough (traduzione di Lucia Margheriti e Francesco Pio Lucente, sismologi dell’Istituto Nazionale di Geofisica e Vulcanologia, edito dalla Springer:http://images.springer.com/covers/978-88-470-2642-1.tif) si legge che “l’idea di tradurre questo libro, rendendolo così accessibile a una più ampia platea di lettori in Italia, ha molto – forse tutto – a che fare con il complesso groviglio di vicende che hanno accompagnato un momento cruciale della nostra vita personale, non solo lavorativa: il terremoto dell’Aquila del 6 aprile 2009. Le millantate previsioni da parte di coloro che nel libro sono definiti “amateur predictors”(dilettanti della previsione), le risposte insufficienti e spesso tardive degli amministratori alle domande della popolazione, le difficoltà di comunicazione tra comunità scientifica e società civile – le aristocratiche reticenze di una parte e la pervicace ostinazione nel non voler ascoltare dell’altra – il ruolo spesso ambiguo dei mezzi di comunicazione, sono temi ampiamente trattati in questo libro, nel corso della narrazione di una vicenda che ha come punto di vista gli Stati Uniti e abbraccia gli ultimi 100 anni”. Sono gli stessi temi che, guardando indietro, ritroviamo condensati, quasi annodati, intorno a quei drammatici giorni del 2009 a L’Aquila. “Come l’autrice del libro, Susan Hough, anche noi, autori della traduzione, guardiamo le cose da dentro quella che nel libro è definita comunità sismologica ufficiale “mainstream seismological community” e, come lei, siamo partecipi degli stessi dubbi e delle stesse speranze riguardo alla possibilità che un giorno i terremoti possano essere previsti. Chi, prendendo questo libro tra le mani, a dispetto del titolo, pensasse di trovarvi risposta alle fatidiche domande “dove?” e “quando?” rimarrà forse deluso, ma se avrà la pazienza di portare a compimento la lettura allora probabilmente riuscirà a scorgere i perché”. Gli scienziati, infatti, credono che sia questo il motivo principale che ha condotto l’autrice a scriverlo. “Ed è questo il motivo che ci ha spinti a tradurlo: spiegare perché, o meglio, aiutare a capire i “perché”, e farlo in modo che non rimangano confinati all’interno delle stanze chiuse in cui la ricerca spesso isola – e protegge – sé stessa, ma attraverso un libro sulla previsione dei terremoti rivolto a tutti. A tutti quelli che non si limitano a indignarsi per il fatto che certe domande non hanno ancora risposta. Per ora, a quelle fatidiche domande, che ogni sismologo si è sentito rivolgere centinaia di volte, la scienza ufficiale, “the mainstream scientific community”, non ha risposte da dare. E non sa nemmeno dire se ne avrà mai. E però l’Uomo ha imparato a volare migliaia di anni dopo aver cominciato, con Icaro, a desiderare di farlo”. La sismologia, infatti, è una scienza ancora molto giovane. Una frase nel libro efficacemente condensa l’insieme dei messaggi che la sismologia oggi può dare alla società:“Ma se, oggi come allora, il meglio che gli esperti possono dire è che il Big One potrebbe colpire domani o fra trent’anni, quando ci si deve preparare, se non oggi?”. Sapere che un forte terremoto potrà colpire una determinata regione entro un intervallo di tempo più o meno lungo non è cosa da poco conto. Come afferma l’Autrice, non è una notizia particolarmente “sexy”, di quelle che attirano l’attenzione del pubblico e guadagnano i titoli a tutta pagina sui giornali. “Ma è quello che serve agli amministratori per formulare leggi e norme di costruzione adeguate. Questo la sismologia oggi lo può fare, e lo fa. Nel tempo in cui viviamo gli investimenti cospicui di denaro pretendono ricavi altrettanto cospicui, certi, e soprattutto a breve termine. Quello che bisogna cominciare a chiedersi, come società e come cittadini, è se siamo finalmente pronti a investire in qualcosa che potrebbe restituire i suoi preziosi frutti solo dopo molto tempo, al di là del termine della nostra vita di singoli individui! Siamo convinti che la tragedia di L’Aquila, con tutte le sue contraddizioni, abbia dolorosamente contribuito a far crescere la comunità scientifica sismologica italiana. Vorremmo, come ricercatori sismologi, parte di questa comunità, continuare a crescere insieme alla società che ci è intorno e di cui noi siamo parte. La traduzione di questo libro è, speriamo, un piccolo contributo in questa direzione. Una cosa, tra le tante accadute a L’Aquila, non ha alcuna corrispondenza con i fatti narrati nel libro né con alcuna vicenda che la scienza sismologica si sia mai trovata ad affrontare: sismologi, nostri colleghi, sono stati messi sotto processo con l’accusa di “omicidio colposo e lesioni colpose”. Il primo grado di giudizio li ha condannati a 6 anni di carcere” – scrivono Lucia Margheriti e Francesco Pio Lucente, scienziati dell’Istituto Nazionale di Geofisica e Vulcanologia. Elementi di riflessione mondiale che sono stati al centro del 45mo AGU Fall Meeting 2012 dei geo-scienziati americani e di tutto il pianeta Terra, presso il Moscone Center di San Francisco (California, 3-7 Dicembre 2012). Giovedì 6 Dicembre 2012, la Comunicazione scientifica del Rischio Naturale è stata sistematicamente analizzata nelle prolusioni “Communicating Geohazard Risk Assessments: Lessons Learned from the L’Aquila Earthquake Verdicts”. L’evento ha visto la partecipazione del Presidente dell’AGU, Michael McPhaden, del famoso sismologo americano il professor Thomas H. Jordan, Direttore del Southern California Earthquake Center presso la University of Southern California di Los Angeles (http://earth.usc.edu/tjordan/), del professor Max Wyss, Direttore della World Agency for Planetary Monitoring and Earthquake Risk Reduction di Ginevra (Svizzera) e del professor Stephen Sparks della School of Earth Science presso la University of Bristol (Regno Unito).  Gli scienziati hanno focalizzato i loro contributi rispettivamente su:“Lessons of L’Aquila for Operational Earthquake Forecasting”(Jordan); “Who is Responsible for Human Suffering due to Earthquakes?”(Wyss) e “Scientific Advice, Risk Assessment and Communication During Volcanic Emergencies”(Sparks). Se Nature registra il fatto che sei scienziati italiani e un funzionario di governo sono stati condannati a sei anni di carcere (www.nature.com/news/2011/110914/full/477264a.html) in primo grado per le dichiarazioni rese prima del terremoto del 6 Aprile 2009 che ha ucciso 309 nella città di L’Aquila, il verdetto allarma gli scienziati della Terra. “Spero che gli italiani si rendano conto di quanto sono indietro in questo processo di L’Aquila e nel suo verdetto” – dichiara Erik Klemetti, assistente professore di scienze geologiche alla Denison University dell’Ohio, aggiungendo che “il verdetto è un terribile precedente”. Secondo il Giudice italiano gli scienziati e i pubblici ufficiali avrebbero minimizzato i rischi di un terremoto di grandi dimensioni a L’Aquila dopo una serie di scosse che avevano interessato non solo la città fin dall’inizio del 2009. Il 6 Aprile 2009, l’evento di magnitudo Richter 6.3 uccise oltre 300 persone. Nature sottolinea l’importanza dell’architettura medievale di L’Aquila come causa del crollo di numerosi edifici durante il terremoto. Anche la BBC registra il fatto che gli scienziati sono stati riconosciuti colpevoli di omicidio colposo plurimo. Al controverso “incontro” del 31 Marzo a L’Aquila, lo scienziato della Terra, il professor Enzo Boschi, imputato nella causa, avrebbe riconosciuto l’incertezza, definendo “improbabile” un grande terremoto, ma sostenendo che la possibilità non poteva essere esclusa. In un “post-meeting”, stile conferenza stampa, l’ufficiale del Dipartimento della Protezione Civile, Bernardo De Bernardinis, anch’egli imputato, avrebbe detto ai media che non c’era “nessun pericolo” immediato. All’inizio del processo, nel Settembre 2011, i geo-scienziati americani capirono che il nucleo del giudizio era tutto concentrato sulla comunicazione e trasmissione della valutazione del rischio sismico attraverso il sistema penale italiano. “La nostra capacità di prevedere i terremoti è francamente risibile – dichiara Seth Stein, professore di Scienze della Terra alla Northwestern University in Illinois – per cui criminalizzare qualcuno avrebbe senso soltanto se questi avesse saputo davvero fare la previsione e l’avesse fatta nel modo sbagliato”. Sapere se piccole scosse sono scosse prodromiche ad eventi distruttivi è oggi impossibile secondo sismologi. Uno studio del 1988 su altre regioni italiane a rischio sismico ha evidenziato che circa la metà dei terremoti di grandi dimensioni sono stati preceduti da deboli “foreshocks”. Ma solo il 2 per cento dei piccoli sciami ha segnalato una rottura più grande. Anche secondo il Wall Street Journal la condanna potrebbe compromettere il lavoro degli scienziati in Italia e nel mondo. Se passerà in giudicato, ciascuno dei sette imputati dovrà scontare sei anni di prigione e l’interdizione perpetua dai pubblici uffici. Certamente il rischio di un terremoto può essere previsto politicamente e, di conseguenza, può essere mitigato prima dei disastri con investimenti strategici e spese nettamente inferiori alla ricostruzione. Ma a chi spetta quest’arduo compito? Solo ai membri della Commissione nazionale Grandi Rischi della Protezione Civile? La Commissione era stata incaricata, nella Primavera del 2009, quando vari terremoti avevano iniziato a colpire la zona aquilana dal Dicembre 2008, di valutare i rischi di un grande terremoto. La Pubblica Accusa si concentra sulla minimizzazione del rischio di un terremoto distruttivo a L’Aquila, offerta dalla Commissione. I pubblici ministeri hanno sostenuto che, di conseguenza, i residenti della zona non erano adeguatamente preparati come avrebbero potuto essere in caso contrario. Dopo l’incontro del 31 Marzo 2009 la Commissione avrebbe detto che non c’era “nessun pericolo”, definendo importante “restare vigili, senza farsi prendere dal panico”. Alle ore 3:32 A.M. del 6 Aprile un terremoto di 6,3 gradi Richter colpì L’Aquila e i vicini comuni. Quali sono le responsabilità degli esperti di risposta alle catastrofi? Quali quelle dei “profeti” di terremoti e dei mass media? È giusto finire in galera per non aver messo in sicurezza la città di L’Aquila negli anni immediatamente precedenti? Chi si occupa di tirare la gente fuori dal fango e dalle macerie dopo le catastrofi, quali colpe avrebbe nella morte di 32 delle 309 persone? Il Giudice ha 90 giorni di tempo per fornire ad avvocati e magistrati, con argomentazioni scritte, le Motivazioni della sentenza. Gli imputati possono quindi decidere se fare appello. Se l’esito dovesse risultare ancora negativo la causa potrebbe poi proseguire in Cassazione. Il processo ha indignato molti scienziati che affermano da anni che la previsione di un terremoto specifico o di altri disastri naturali è praticamente impossibile e che non dovrebbero essere ritenuti responsabili per le mancate previsioni di un rischio del genere. “La preoccupazione è che questa sentenza, come precedente, potrebbe avere un effetto molto agghiacciante per gli scienziati di sismologia” – ha dichiarato Joanne Padrón Carney, direttore dell’Ufficio dei rapporti con il governo presso l’Associazione Americana per l’Avanzamento della Scienza. “Dove è la responsabilità? È davvero una questione politica, una questione di procedura, non è solo una questione di scienza”. Il verdetto potrebbe spingere gli scienziati italiani, in futuro, a tacere ovvero a peccare per eccesso di rischio, lasciando sola l’opinione pubblica, come ha sostenuto Brooks Hanson, portavoce per l’Associazione Americana per l’Avanzamento della Scienza. “Inutile dire che la sentenza potrebbe rendere più difficile in futuro la trasmissione di informazioni precise” – ha affermato il geologo Hanson. Gregory Beroza, Presidente del Dipartimento di Geofisica all’Università di Stanford, si è detto deluso dal verdetto, ma ha aggiunto che gli scienziati devono continuare a comunicare meglio il rischio sismico e naturale al pubblico. “Penso che quello che dovremmo fare è indicare con precisione lo stato delle conoscenze, ciò che sappiamo o ciò che pensiamo di sapere dei terremoti”. Gli scienziati stanno cercando di migliorare i modelli predittivi. Una collaborazione internazionale ha lavorato su un modello di Terremoto Globale per migliorare sia i calcoli a livello internazionale sia la comunicazione del rischio da presentare all’opinione pubblica. “Negli Stati Uniti ci sono stati alcuni casi in cui alcuni meteorologi del National Weather Service sono stati denunciati per aver offerto informazioni poco precise, ma non sono mai stati ritenuti responsabili di delitti simili a quello di L’Aquila” – sostiene Mike Smith, vice Presidente senior e meteorologo dell’AccuWeather Enterprise Solutions presso lo State College della Pennsylvania. Il professor David Spiegelhalter della Cambridge University ha reagito fermamente alla sentenza. “Sono rimasto veramente scioccato, sconvolto fisicamente. Senza parole. Sono sempre stato sorpreso del processo – ha dichiarato Spiegelhalter – ma non ho mai creduto di poter assistere alla condanna di scienziati, non in questo modo. Siamo molto sconvolti ed arrabbiati. Ma molti dei commenti credo siano stati un po’ fuorvianti, soprattutto nel Regno Unito, perché hanno suggerito che questo processo è un attacco alla scienza e che qualcuno sia stato in qualche modo accusato di non aver saputo usare la sfera di cristallo, cioè di non aver previsto cosa sarebbe successo di lì a poche ore. La mia sensazione è che questo non sia il classico caso di Giudizio alla Scienza. È molto più una questione di comunicazione del rischio nell’incertezza generale, visto e considerato che la gente si aspetta sempre dalla Scienza una previsione certa su tutto. In realtà, sembra che abbiano avuto trasmessa dai media la certezza, fin troppo rassicurante ed a-scientifica, della non possibilità della catastrofe. Piuttosto dell’attuale incertezza reale che naturalmente abbiamo nel cercare di prevedere i terremoti: un atto incredibilmente difficile”. Dunque, il tema centrale è quello della Comprensione pubblica del rischio. A Cambridge importantissima. In Italia quasi del tutto ignota alle persone, alla politica politicante. Ci sono evidentemente delle lezioni da imparare in questa storia. “La lezione principale è che, se gli scienziati continuano ad impegnarsi in importanti questioni pubbliche, hanno bisogno di comprendere ed essere consapevoli di quanto possa diventare importante nella società e su Internet l’impatto delle loro parole. Hanno bisogno di scegliere e di misurare le parole molto attentamente quando si fanno dichiarazioni al pubblico. Credo che questo non sia stato fatto bene a L’Aquila. E credo che questo significhi che gli scienziati hanno bisogno di ripensare le loro strategie per la Comunicazione del rischio. Coscienti del fatto che il loro lavoro oggi non può essere soltanto quello dell’analisi dei dati e delle probabilità approssimative: devono pensare a come le persone interpretano il loro lavoro. E questo, credo, fa parte della responsabilità di ciascuno scienziato pubblico. Questa terribile prova – secondo Spiegelhalter – è solo un avvertimento agghiacciante di ciò che può accadere quando questo lavoro non funziona correttamente”. Una siffatta Struttura di Comunicazione ideale nei casi difficili come L’Aquila per la valutazione immediata dei rischi di terremoto, in Italia ancora non esiste. “Il problema, in questo caso, è che si può essere indotti a fare dichiarazioni sui media enormemente difensive da parte di scienziati, con frasi del tipo: Io non sono effettivamente responsabile; Non posso dare alcuna garanzia, e così via. Ci deve essere un certo equilibrio nel modo in cui sono espresse le parole in modo chiaro al pubblico per non ingenerare false aspettative o previsioni. E credo che questo significhi equilibrio: gli scienziati non dovrebbero essere persone rassicuranti, ma nemmeno dei profeti di panico tra la gente”. Le persone, dunque, devono comprendere che conta molto più reagire prontamente alle catastrofi come L’Aquila, piuttosto che vivere nel terrore permanente paralizzante. “Nel Regno Unito abbiamo avuto alcuni errori terribili fatti da ministri del governo che ci hanno rassicurato sul morbo della mucca pazza, sul fatto che non poteva essere trasmessa in qualsiasi forma agli esseri umani. Abbiamo avuto alcuni costosi errori nel nostro Paese. Senza crocifiggere la Scienza”. Thomas Jordan, direttore del Southern California Earthquake Center presso il Dipartimento di Scienze della Terra della University of Southern California, all’indomani della catastrofe aquilana fu chiamato dal governo italiano a presiedere una Commissione internazionale per indagare su ciò che era accaduto durante il terremoto di L’Aquila. Fu stilato un rigoroso Rapporto scientifico unitamente alle famose Tredici Raccomandazioni per migliorare il Sistema di comunicazione del rischio. “Convocata un mese dopo il terremoto – dichiara Thomas Jordan – iniziammo il nostro studio che abbiamo continuato per oltre un anno. Abbiamo pubblicato una serie di raccomandazioni nel mese di Ottobre del 2009 indirizzate al Governo italiano, con una formulazione dettagliata di consigli su come la Comunicazione del rischio dovesse migliorare in questo tipo di situazioni. Fu molto chiaro che vi è spazio per l’implementazione delle ricerche su come prevedere i terremoti: oggi non possiamo prevedere i terremoti con alta probabilità, ma ci rendiamo conto che le probabilità possono cambiare, possono aumentare o diminuire secondo l’attività sismica. Questi metodi non sono ampiamente utilizzati per la previsione dei terremoti e non erano in uso al momento dal Dipartimento della Protezione Civile italiana, ma è consigliabile che siano messi in uso per migliorare la pratica di prevenzione del rischio. A mia conoscenza, le nostre Raccomandazioni non sono mai state attuate dal Dipartimento della Protezione Civile”. Un errore scientifico, tecnico e politico senza precedenti, se venisse confermato. “Nella scienza e nella sismologia si distingue tra pericolo e rischio. Un pericolo è quello che potrebbe accadere, ciò che la Natura potrebbe fare. Per esempio, il verificarsi di un grande terremoto in futuro rappresenta un pericolo, mentre il rischio è quello che succede quando si verifica un evento. In altre parole, il rischio è misurato in termini di danni, in denaro e in vite umane, mentre pericolo è più una descrizione, nel caso di un terremoto, dello scuotimento che potrebbe verificarsi”. Quindi il punto è un altro: il rischio è davvero percepito come un effetto che il pericolo ha sulla popolazione italiana? Subito dopo la condanna degli scienziati “ho pensato che fosse un verdetto piuttosto incredibile. Sono rimasto profondamente turbato – rivela Jordan – che alcuni scienziati impegnati a fare il loro lavoro in circostanze avverse sono stati condannati per un crimine come l’omicidio colposo. Chiaramente non erano responsabili per i danni causati da questo terremoto. Sappiamo che gli edifici in città antiche come L’Aquila sono a rischio, fatto ben noto prima del terremoto, e che nessuna delle loro azioni ha cambiato il rischio. “Siamo stati molto chiari nella Relazione che abbiamo presentato al governo italiano in merito a quale sia il ruolo dello scienziato in queste circostanze: vale a dire l’informazione scientifica sui pericoli e sui rischi da divulgare correttamente alla popolazione. Ora, è consigliabile che le informazioni vengano descritte in termini di probabilità di rischio. In altre parole – spiega Jordan – gli scienziati non dovrebbero essere messi in un ruolo decisionale. Le decisioni su cosa fare durante una crisi sismica come quella che si è verificata a L’Aquila, sono di competenza delle autorità civili, dei politici e degli amministratori, le persone che possono prendere informazioni scientifiche e combinarle con molti tipi di informazioni sui fattori economici, politici e giuridici necessari per prendere prontamente decisioni adeguate. Il ruolo dello scienziato – sottolinea Thomas Jordan – non è quello di prendere decisioni su come far fronte a situazioni ad alto rischio. Così è consigliabile una Commissione di consulenza le cui risultanze dovrebbero essere riferite dalla Commissione Grandi Rischi al Capo del Dipartimento della Protezione Civile: per comunicare informazioni scientifiche sui rischi e sui pericoli che poi l’autorità politica avrebbe il dovere di fare propri per assicurare che le sue decisioni politiche vengano eseguite immediatamente per affrontare una situazione del genere. Abbiamo una struttura del genere in California dove il rischio è analizzato da un organo consultivo, denominato California Earthquake Prediction Evaluation Council, cui prendo parte regolamente, che fornisce la consulenza scientifica al governo, ossia alla California Emergency Management Agency, l’equivalente della Protezione Civile. In quella sede consultiva noi teniamo in debito conto i nostri limiti e cerchiamo di assicurare che le informazioni sulla nostra corretta comprensione del comportamento dei terremoti rimanga in ambito scientifico. Quindi se, ad esempio, vi è una normale attività sismica, cerchiamo di valutare in che modo questo cambia le probabilità di avere un terremoto di grandi dimensioni. E poi comunichiamo al governo le nostre conclusioni. Ma le decisioni operative spettano all’organo politico, non agli scienziati”. Il pasticcio italiano è servito! Qualche giorno prima del disastroso sisma del 6 Aprile 2009, preceduto da un interminabile sciame di piccoli terremoti, la Commissione Grandi Rischi della Protezione Civile si riunì a L’Aquila per valutare se fosse possibile stimare il reale rischio corso dalla popolazione abruzzese. Tre anni e mezzo dopo, una sentenza ha condannato gli scienziati (non àncora i politici!) presenti alla riunione a sei anni di reclusione per non aver informato correttamente sul pericolo. Ancora più di quanto chiesto dal Pubblico Ministero (quattro anni). La faccenda è molto seria e complessa. Ha provocato reazioni contrastanti in tutto il mondo. La comunità scientifica internazionale, gli Istituti di ricerca, le Associazioni scientifiche e professionali estere hanno effettuato un’analisi approfondita di quanto è accaduto a L’Aquila, ed hanno scientificamente analizzato il fatto che gli scienziati sono stati condannati per non aver previsto e comunicato il terremoto (http://processoaquila.files.wordpress.com/2012/11/121031statement-laquila_en5.pdf). L’Associazione giapponese di ingegneria sismica, con le parole del suo Presidente Kazuhiko Kawashima, ha espresso viva preoccupazione per quanto riguarda la sentenza del 22 Ottobre 2012 che ha condannato sei esperti in sismologia e ingegneria sismica a sei anni di carcere per omicidio colposo nel caso del terremoto di L’Aquila. Secondo l’accusa, dopo la riunione della Commissione Nazionale dei Grandi Rischi del 31 Marzo 2009, gli esperti avrebbero fornito informazioni incomplete, imprecise e contraddittorie alla popolazione provata da mesi di scosse persistenti. Gli ingegneri sismici nipponici ritengono che il verdetto “non sia appropriato” per tre ragioni. “La prima riguarda la responsabilità dei sei esperti della Commissione. Questi sono stati invitati a fornire le informazioni sull’attività sismica disponibili nella comunità scientifica, e hanno fedelmente contribuito a questa richiesta. Erano il Dipartimento della Protezione Civile e il Comune di L’Aquila – si legge nel testo diffuso dall’Associazione giapponese di ingegneria sismica (Japan Association for Earthquake Engineering) – ad avere la responsabilità e l’autorità per comunicare il rischio sismico in una regione caratterizzata anche da costruzioni antiche e vulnerabili. Il Giudice ha spostato questa responsabilità dal Dipartimento della Protezione Civile e dal Comune di L’Aquila agli esperti della Commissione. La seconda ragione riguarda la questione se gli esperti della Commissione abbiano fornito informazioni scientifiche ragionevoli rispondenti alla richiesta del Dipartimento della Protezione Civile. Sulla base del verbale della riunione, gli esperti dissero che, poiché i forti terremoti in Abruzzo hanno periodi di ritorno lunghi, era improbabile che si verificasse un terremoto come quello del 1703, ma non poteva essere completamente escluso. Hanno inoltre discusso il fatto che in passato c’è stata una casistica molto limitata di sciami sismici che hanno preceduto un terremoto distruttivo. Sulla base del verbale della riunione, gli esperti non possono essere condannati per aver tratto, per loro negligenza ed per errori nella valutazione, conclusioni sbagliate sulla base delle conoscenze scientifiche. Hanno invece accettato le loro responsabilità verso la società nel contribuire al processo decisionale in una difficile situazione di intrinseca incertezza. È stata indubbiamente, una circostanza disgraziata che un terremoto di magnitudo momento 6.3 si sia verificato sei giorni dopo la riunione della Commissione, ma gli esperti non possono essere incolpati, perché è estremamente difficile fare una previsione a breve termine per un forte terremoto. Imparando da questa amara esperienza, gli esperti hanno la gravosa responsabilità di migliorare le conoscenze scientifiche per la previsione probabilistica dei terremoti. La terza ragione – secondo gli ingegneri sismici giapponesi – riguarda la comunicazione alla popolazione da parte del Dipartimento della Protezione Civile e delle amministrazioni locali a seguito della riunione della Commissione. Sembra che il Dipartimento della Protezione Civile e il governo locale abbiano minimizzato il rischio sismico della città. La popolazione avrebbe meglio compreso e sarebbe stata più preparata di fronte a tale rischio se le informazioni fossero state rilasciate insieme con il verbale della riunione della Commissione. Sulla base del verbale della Commissione, si è ulteriormente discusso del fatto che la misura più importante per prevenire danni durante un terremoto è rafforzare le vecchie strutture più vulnerabili in modo che non collassino durante un terremoto. È stato anche detto che una misura importante per la protezione della popolazione è quello di migliorare il livello di preparazione alle emergenze. È comunque essenziale prevenire o ridurre al minimo i crolli di vecchi edifici vulnerabili che provocano i decessi, i ferimenti e i danni. Questo può essere realizzato non attraverso la previsione dei terremoti a breve termine, bensì attraverso uno sforzo costante a lungo termine per migliorare le prestazioni sismiche degli edifici e delle infrastrutture, e migliorando anche le misure di risposta all’emergenza dopo l’avvenimento del terremoto. Questo è stato di fondamentale importanza in particolare a L’Aquila dove c’erano un certo numero di costruzioni in muratura vecchie e fragili. Noi riteniamo che la principale causa di questa tragedia sia legata alla mancanza di informazioni sul rischio sismico nella sua componente legata alla vulnerabilità della città, informazioni che avrebbero dovuto essere condivise tra gli esperti, le organizzazioni amministrative ed i proprietari di edifici e tutta la popolazione”. Il Verbale della Commissione Grandi Rischi (L’Aquila, 31 Marzo 2009) è ormai famoso in tutto il mondo: http://www.seis.nagoya-u.ac.jp/yamaoka/iweb/NU-site/LAquila_files/cgr-english.pdf. Anche la prestigiosa rivista Nature ne ha parlato e scritto a dovere. Al Lettore affidiamo le amare riflessioni sull’Italia e sul destino degli Italiani. La Scienza è un distillato del buon senso. La Scienza non è politica. Non è mistero. La Scienza nulla può contro le logiche imperanti nel mondo. I cittadini ne siano coscienziosamente consapevoli prima e dopo le catastrofi naturali. I più grandi terremoti sulla Terra si verificano nelle zone di subduzione, cioè in quelle località del pianeta dove le placche tettoniche si immergono sotto un’altra. Finora non si sapeva quanto fossero estese queste aree di subduzione e, conseguentemente, quanti terremoti siano in grado di generare e di quale energia distruttiva. Gli scienziati hanno scoperto che le regioni di frizione (anche sottomarina come nel nostro Mar Tirreno), ossia le aree di frattura antiche e nuove che incontrano le zone di subduzione sono ad altissimo rischio sismico perché in grado di liberare l’energia distruttiva di terremoti catastrofici epocali. I risultati di questa ricerca (“The link between great earthquakes and the subduction of oceanic fracture zones”) sono stati pubblicati il 5 Dicembre 2012 sulla rivista “Solid Earth”, un giornale “open access” della European Geosciences Union (EGU). “Abbiamo trovato che l’87 per cento dei 15 più grandi terremoti (8.6 gradi Richter e più) e la metà dei 50 sismi più comuni (magnitudo 8.4 e maggiori) del secolo scorso sono associati alle regioni di intersezione tra le zone di frattura negli oceani e quelle di subduzione” – dichiara Dietmar Müller della “University of Sydney” in Australia, lo scienziato autore del lavoro pubblicato su “Solid Earth”, insieme al collega Thomas Landgrebe (entrambi del “EarthByte Group”) della “School of Geosciences, University of Sydney”. La connessione sembra meno marcata per i terremoti più piccoli. I terremoti più potenti generati in queste località di intersezione includono l’evento catastrofico giapponese dell’11 Marzo 2011 di Tohoku-Oki e il disastroso sisma di Sumatra del 26 Dicembre 2004. “Se l’associazione che abbiamo scoperto fosse causata da una distribuzione casuale dei dati, solo circa il 25 per cento dei grandi terremoti da subduzione dovrebbero coincidere con questi speciali fenomeni tettonici. Quindi possiamo escludere che il collegamento trovato sia solo dovuto al caso” – fa notare Müller. Gli scienziati hanno preso in esame 1500 terremoti nella loro ricerca, utilizzando un database di eventi significativi a partire dal 1900, nonché dati geofisici con relativa mappatura delle aree di frattura e di subduzione. Tutte queste informazioni sono state integrate grazie a un potente modello matematico “originariamente sviluppato – rivela Thomas Landgrebe del team di ricerca – per l’analisi online dei dati: la tecnica da noi applicata è comunemente usata per trovare alcuni articoli specifici che dovrebbero essere più attraenti per un utente Internet. Invece, lo abbiamo usato per trovare quali ambienti tettonici sono i più adatti per generare i grandi terremoti”. Poiché i terremoti sono eventi naturali molto complessi, gli scienziati non hanno mai avuto una comprensione completa del perché i grandi sismi preferiscano le zone di intersezione. Forse a causa delle proprietà fisiche delle zone di frattura “che danno origine a forti e persistenti attriti nei confini di subduzione” – spiega Landgrebe. Ma questo significa che tutta l’area di frattura lungo la regione di subduzione bloccata è in grado di accumulare moltissima energia per lunghi periodi di tempo, preparando la catastrofe. “La connessione che abbiamo svelato offre informazioni critiche ai sismologi – fa notare Müller – per individuare, nel lungo periodo, particolari ambienti tettonici che sono statisticamente più soggetti a forti stress sismici e grandi terremoti ciclici”. In effetti, le aree interessate (la Cintura di Fuoco nell’Oceano Pacifico, ma anche altre regioni della Terra come il Mediterraneo) a terremoti distruttivi generalmente sperimentano gli eventi più catastrofici ogni diverse centinaia di anni o millenni. Non sempre a memoria d’Uomo e della Storia. Le regioni che hanno terremoti di lungo periodo di solito non vengono considerate (grave errore!) come zone ad alto rischio nelle mappe ufficiali di pericolosità sismica che sono costruite principalmente utilizzando i dati raccolti dopo l’Anno Domini 1900. La zona nel Pacifico responsabile del catastrofico terremoto nipponico di Tohoku-Oki (2011), non era neppure segnata sulle mappe! Perché non solo non erano stati registrati eventi significativi nel secolo scorso ma non erano state avanzate neppure ipotesi o predizioni scientificamente valide su un qualsivoglia rischio sismico significativo per la regione. “Le potenzialità del nostro nuovo metodo di analisi e di indagine – spiega Müller – sono tutte rivolte alla raccolta del maggior numero di informazioni su queste regioni finora ignorate dalle precedenti mappe del rischio sismico a lungo termine che oggi possono essere necessariamente migliorate e integrate. Anche se non capiamo pienamente fisica dei terremoti di lungo periodo, tutti i miglioramenti che possono essere fatti con l’analisi statistica dei dati devono essere considerati molto attentamente in quanto possono contribuire a ridurre i danni dei terremoti per limitare la perdita di vite umane”. Il fondale degli oceani della Terra è attraversato da sistemi montuosi subacquei, le creste oceaniche, come la dorsale medio-atlantica che corre da nord a sud tra le Americhe e l’Africa. E la dorsale pacifica. Queste creste dividono le due placche tettoniche che si allontanano tra di loro mentre la lava emerge negli abissi dalle aperture della crosta e si solidifica istantaneamente, creando nuova terra che poi sprofonderà altrove nelle zone di subduzione. Le faglie trasformi che si creano a zig-zag lungo i margini di placca, sono zone di frattura, cicatrici nel fondo dell’oceano lasciate da questi poderosi movimenti tettonici. Se ne parlerà a Vienna (Austria) dal 7 al 12 Aprile 2013, in occasione dell’Assemblea Generale dell’EGU dei 10mila scienziati della Terra (Agu Spring Meeting 2013). Stiamo parlando di terremoti molto più grandi di quelli made in Italy che sono decisamente inferiori alla media mondiale. Ad esempio, il recente sisma a nord di Ascoli Piceno, di magnitudo 4.0 Richter, verificatosi alle ore italiane 2:18 del 5 Dicembre 2012, a 26.8 Km di profondità, non regge assolutamente il confronto con le energie in gioco nel Pacifico. Figurarsi le due repliche, a distanza di dieci minuti (alle ore 2:21 e 2:31) che sono state di magnitudo 2.3, rispettivamente a 26.3 e 28.1 Km di profondità. E neppure la “prima” scossa delle ore 2:12, di magnitudo 2.1, registrata a un ipocentro di 26.8 Km. Nulla in confronto al terremoto di magnitudo 7.3 registrato in Giappone, negli abissi del Pacifico a 33 Km di profondità, al largo di Honshu, Venerdì 7 Dicembre 2012 alle 9:18 ore italiane. Secondo gli scienziati i danni provocati dai terremoti possono essere considerati come il risultato delle caratteristiche geologiche dei siti in cui avvengono, le quali sono studiate al meglio osservando direttamente i movimenti del suolo dovuti ai terremoti. Studi di questo tipo, però, sono ristretti alle aree che presentano un alto livello di sismicità (Nakamura, 1989). Per ovviare a questa limitazione, sono state effettuate analisi sistematiche del “rumore ambientale” che possono essere facilmente realizzate in aree con sismicità bassa o addirittura nulla (Dikmen & Mirzaoglu, 2005). Il “rumore ambientale” è un segnale stocastico risultante da un gran numero di processi di origine diversa: antropica, eolica, oceanica, sismica. Presenta nel tempo un’ampiezza indeterminabile a qualsiasi istante (Bormann, 2002). In frequenza, invece, è possibile individuare un’oscillazione dell’ampiezza tra un minimo e un massimo (Boashash, 2003). La conoscenza del rapporto tra le ampiezze della componente orizzontale e di quella verticale del rumore ambientale permette di identificare la frequenza naturale di vibrazione, ossia la frequenza di risonanza, del suolo (Nakamura, 1989) e di individuare in modo appropriato le frequenze specifiche di oscillazione di un edificio (Sungkono & Triwulan, 2011). Conoscere le frequenze specifiche di oscillazione di un’abitazione, può contribuire a salvare le vite umane. È possibile valutare rapidamente le caratteristiche dinamiche dei siti, senza bisogno di altre informazioni (McNamara & Buland, 2004). La definizione dell’ampiezza media del rumore ambientale in frequenza ad una rete sismica, è molto utile per stabilire il livello di rilevamento dei terremoti a quella stessa rete. A tale scopo, è vantaggioso ricorrere a modelli che permettono di definire, mediante la simulazione di terremoti intorno ad una rete sismica, l’ampiezza ad essi associata. In Italia l’area urbana napoletana, con oltre un milione di persone residenti, e visitata da milioni di turisti ogni anno, è inclusa nel più vasto distretto dei Campi Flegrei, una mega caldera vulcanica attiva e non meno pericola di Yellowstone negli Usa. Queste due zone (Napoli e i Campi) che insieme costituiscono l’area Flegrea, rappresentano un ampio complesso vulcanico attivo cui è associato un elevato rischio vulcanico. Che è definito come il prodotto della pericolosità per la quantità di danni (a edifici, persone e beni) che possono essere provocati. I vulcanologi stimano che il rischio è catastrofico o altissimo nella città di Napoli, altissimo nella parte centrale dei Campi Flegrei, alto o medio nelle zone circostanti (Quarto, Baia, Procida). Nonostante ciò, a causa dell’intensa urbanizzazione, l’assetto geologico di Napoli e la struttura dei depositi presenti sono stati indagati con maggiore difficoltà rispetto alla parte restante dei Campi Flegrei. Il riconoscimento della natura vulcanica dell’area Flegrea avvenne già in epoca greco-romana. Nel 1904 fu presentata la prima ricostruzione stratigrafica dell’area, e l’attività eruttiva fu suddivisa in tre periodi. Studi successivi permisero l’inclusione dell’eruzione del Tufo Giallo Napoletano nel secondo periodo, e di quella dell’Ignimbrite Campana nel primo periodo. L’intensità di queste due eruzioni principali è stata impressionante: l’area Napoletana fu completamente seppellita da decine a centinaia di chilometri cubici di frammenti piroclastici: blocchi vulcanici di ceneri, lapilli, o bombe, emessi durante l’eruzione esplosiva. Come testimonianza delle eruzioni, due caldere concentriche, che si chiudono a mare, sono state individuate nella porzione continentale dei Campi Flegrei. La caldera esterna è associata all’Ignimbrite Campana, avvenuta 39mila anni fa, mentre quella interna al Tufo Giallo Napoletano, avvenuta 15mila anni fa. Solo recentemente è stata proposta una dettagliata ricostruzione della storia vulcanica della città di Napoli, che ha portato alla rilevazione di criticità che possono essere risolte con l’ausilio di analisi per valutare l’età assoluta dei depositi. La stima delle età è avvenuta attraverso il metodo geo-cronologico che si basa sul calcolo del rapporto argon40/argon39. I depositi del vulcanismo autoctono della città di Napoli poggiano su rocce sedimentarie come dimostrano alcune indagini eseguite nell’area. Tra i prodotti più antichi è stato individuato, durante lo scavo di varie gallerie, un corpo lavico sotto la collina di San Martino. L’attività posteriore è stata esclusivamente di tipo esplosivo e ha prodotto una serie di depositi (Tufi di Parco Margherita, di Parco Grifeo, della Funicolare di Chiaia, di San Sepolcro e di Capodimonte). I depositi formati da piroclasti da caduta che poggiano sul cono di tufo di San Sepolcro risalgono a 78mila anni fa, un’età maggiore di ben 18mila anni della più antica datazione riportata in letteratura per i piroclasti affioranti lungo il bordo settentrionale dei Campi Flegrei. Un’importante eruzione successiva, datata direttamente grazie alla presenza di bombe vulcaniche (depositi con diametro maggiore di 64 mm) è quella di Capodimonte. L’età, valutata a 53mila anni, testimonia un’attività esplosiva avvenuta all’estremità orientale dell’area vulcanica ancora più antica dell’eruzione dell’Ignimbrite Campana. L’ultimo deposito datato precedentemente all’Ignimbrite Campana (39mila anni) ha circa 40mila anni. Anche se la differenza tra le due età è di solo mille anni, gli scienziati escludono che questo deposito possa rappresentare il prodotto di una fase iniziale dell’eruzione dell’Ignimbrite Campana, data la presenza di un suolo di separazione tra i due depositi. Durante l’Ignimbrite Campana, uno sprofondamento calderico ha formato a sud la ripida scarpata della collina di San Martino, ed a est la collina del Vomero e il lato meridionale di quella di Capodimonte. L’attività post-ignimbritica è stata caratterizzata dalla formazione di diversi centri eruttivi ed è testimoniata da diversi depositi piroclastici affioranti nella città di Napoli. Quest’attività vulcanica di tipo esplosivo moderato ha portato, ad esempio, alla formazione del vulcano di Trentaremi (21mila anni fa) ed all’accumulo di prodotti da caduta nell’area di Posillipo (16mila anni fa). Questi fenomeni, insieme alla formazione del vulcano del Chiatamone nell’area di Chiaia, completamente sepolto dalla successiva eruzione del Tufo Giallo Napoletano, testimoniano il proseguire dell’attività esplosiva nell’area dell’attuale città di Napoli dopo l’Ignimbrite Campana. L’eruzione del Tufo Giallo Napoletano (15mila anni fa) ha determinato il collasso di una seconda caldera, il cui bordo orientale attraversa l’area urbana Napoletana ed è visibile lungo il margine nord-occidentale della collina di Posillipo. Successivamente a quest’ultima grande eruzione freato-magmatica, si sono osservati dei periodi di intensa attività, quasi esclusivamente esplosiva, all’interno del bordo della caldera del Tufo Giallo Napoletano. Le eruzioni di Monte Echia e di Nisida (4mila anni fa) testimoniano la persistenza dell’attività vulcanica, dopo l’eruzione del Tufo Giallo Napoletano, ben all’interno dei confini urbani di Napoli. Questa dettagliata ricostruzione stratigrafica e geo-cronologica ha permesso agli scienziati di individuare la successione relativa dei depositi presenti nella città di Napoli, facendo emergere che il vulcanismo autoctono ha avuto un’evoluzione temporale molto simile a quella dei Campi Flegrei. L’analisi geo-cronologica è uno dei metodi fondamentali per le indagini sul rischio vulcanico. In molti casi, precedentemente, l’età geocronologica delle eruzioni verificatesi nell’area Flegrea e nella città di Napoli è stata valutata mediante il metodo del carbonio14. Il principale problema, nella datazione attraverso tale metodo, è che, essendo il tempo di dimezzamento del carbonio-14 di 5730 anni, le valutazioni della radioattività risultano abbastanza accurate fino a circa 25mila anni. Per tempi più lunghi, il livello di radioattività presente nei materiali naturali diventa sempre più basso e gli scienziati hanno bisogno di un’accuratezza sempre più elevata nelle datazioni. Già per età maggiori di 10mila anni, le datazioni ottenute portavano a calcolare un’età significativamente inferiore rispetto a quella reale. I depositi affioranti nell’area napoletana presentano un intervallo d’età, valutato con metodi stratigrafici, che varia da poche a un centinaio di migliaia di anni circa. La paragenesi di questi prodotti porta alla formazione di minerali con un’elevata percentuale di potassio, il cui isotopo principale (potassio-40) ha un tempo di dimezzamento pari ad anni 1,25 per 10 alla nona potenza (cioè sette ordini di grandezza in più dell’intervallo d’età valutato). Per questi motivi i ricercatori preferiscono rieseguire le datazioni mediante il metodo geo-cronologico argon40/argon39. Questo metodo permette di ottenere datazioni molto accurate con errori percentuali intorno all’un per cento anche abbastanza inferiori, non raggiungibili attraverso il metodo del carbonio14. L’area dei Campi Flegrei è anche nota per fenomeni vulcanici secondari come il bradisismo (termine che in greco significa “movimento lento”). Il bradisismo consiste in un periodico abbassamento o innalzamento del livello del suolo (il massimo sollevamento è registrato a Pozzuoli) normalmente dell’ordine di un centimetro per anno, e quindi relativamente lento sulla scala dei tempi umani, ma molto veloce rispetto ai tempi geologici. Il bradisismo è un fenomeno non molto diffuso nella regione del Mediterraneo, ma noto sin dall’epoca romana ed ampiamente studiato, come testimoniano le osservazioni condotte da diversi ricercatori nei secoli scorsi. In particolare, intorno alla metà del 1900 si riuscì a ricostruire la storia dei movimenti secolari del suolo nei Campi Flegrei attraverso lo studio dei fori lasciati da alcuni molluschi marini sulle colonne del Tempio di Serapide a Pozzuoli nei periodi di abbassamento, durante i quali le acque marine ne sommergevano le basi. Il sollevamento del suolo per effetto del bradisismo è stato oltremodo intenso nel XVI Secolo: nel 1538, dopo un sollevamento di circa 7 metri, il fenomeno culminò con l’eruzione del Monte Nuovo, che nacque in pochi giorni distruggendo il villaggio di Tripergole. Altri eventi bradisismici sono avvenuti nei Campi Flegrei anche prima di tale data, come confermano le datazioni effettuate sulle colonne del Tempio di Serapide con il metodo del carbonio-14. Esse indicano che ve ne sono stati almeno due, di cui il primo durante il V Secolo d.C., con un sollevamento di circa 7 metri, e il secondo all’inizio del Medioevo. In epoca molto più recente, si è verificato un notevole bradisismo nei due periodi tra il 1970 e il 1972, con un sollevamento del suolo di un metro, e tra il 1982 e il 1984, con un sollevamento di circa due metri. In conseguenza di ciò, nel triennio 1970-1972 vi fu lo sgombero forzato del Rione Terra, quartiere storico popolare di Pozzuoli, e il successivo trasferimento degli abitanti nei nuovi fabbricati costruiti al rione Toiano ed a Monteruscello, a circa tre chilometri di distanza dalla città. Nel triennio 1982-1984 trentamila persone furono evacuate da Pozzuoli ed alloggiate sempre nell’insediamento di Monteruscello. In ambedue i casi, molti dubbi sono stati espressi sull’efficacia delle misure adottate per la salvaguardia della popolazione, da molti ritenute addirittura inutili, soprattutto perché le nuove aree residenziali rientravano sempre all’interno della megacaldera dei Campi Flegrei. Episodi bradisismici di minore intensità si sono avuti poi nei tre periodi 1988-1989, 1993-1994, e 2000-2001. Attualmente, dal 2007, i Campi Flegrei sono entrati in una nuova fase di bradisismo di piccola entità. Sebbene il fenomeno sia stato studiato così a lungo e in dettaglio, la sua causa è ancora molto controversa e comporta notevoli implicazioni per la valutazione del rischio in un’area ormai molto urbanizzata come i Campi Flegrei e il comprensorio vesuviano. Recentemente, è stato proposto un modello geofisico che spiega l’origine del bradisismo, in cui si ipotizza che il fenomeno sia causato da un’attività magmatica profonda che avviene in una zona dove lo scorrimento delle rocce fuse sotto l’azione della pressione di carico è di tipo plastico. Potrebbe diventare la nostra Yellowstone di 650mila anni fa! L’area flegrea, dunque, sebbene mostri come importante fenomeno vulcanico secondario solo il bradisismo, potrebbe in futuro presentare un altissimo rischio sismico. La caldera dei Campi Flegrei è comunemente ritenuta una delle aree a più elevato rischio vulcanico. Il motivo principale è che un eventuale evento eruttivo sarà probabilmente caratterizzato da un’elevata esplosività. Le bocche vulcaniche potrebbero aprirsi ovunque nell’area, com’è avvenuto durante l’Ignimbrite Campana e il Tufo Giallo Napoletano, con il rischio di un’eruzione disastrosa in zone ad elevata densità abitativa. Per la serie virgiliana, l’Averno sulla Terra! Quindi diversi comuni (Pozzuoli, Baia, Bacoli, Quarto ed altri) ma anche l’area occidentale di Napoli (Bagnoli, Agnano, Fuorigrotta) sono potenzialmente a rischio. Certamente le eruzioni di tale entità sono state molto rare nel corso della storia. Per questo motivo, molti affermano che l’allarmismo sul rischio vulcanico dell’area è eccessivo, osservando anche che la storia degli insediamenti ha dimostrato che la popolazione di queste zone è stata capace di coabitare con tale pericolo. In realtà, bisogna tenere ben presente che gli agglomerati urbani di una volta erano molto meno densamente abitati rispetto a quelli attuali, superaffollati e senza strutture stradali idonee a sostenere pesanti flussi di traffico nei casi di emergenza e di evacuazioni di massa. Tale affollamento di per sé fa innalzare i livelli di rischio a prescindere dal pericolo che si vuole prendere in esame, secondo il modello di “minaccia catastrofica” prescelto. Molto recentemente, è stato proposto un modello probabilistico che ha portato a una valutazione quantitativa del rischio vulcanico nell’area Flegrea. Un’analisi siffatta ha inoltre un impatto diretto importante poiché permette l’identificazione delle aree caratterizzate da una pericolosità più alta nella caldera Flegrea. La suddivisione in zone è necessaria in quanto nei Campi Flegrei manca un apparato centrale dal quale aspettarsi un evento eruttivo. Il livello di rischio è stato suddiviso in quattro parti. Nella prima parte sono comprese le eruzioni moderate o a piccola scala, analoghe a quella avvenuta nel 1538 con l’eruzione di Monte Nuovo, che si possono definire stromboliane. Nella seconda parte, il tipo di eruzioni è sub-pliniano, paragonabili a quelle di Astroni e Averno avvenute 3700 anni fa. La terza parte include le eruzioni pliniane come quelle del Gauro o delle Pomici Principali avvenute 10mila e 9mila anni fa. La quarta parte, infine, racchiude le eruzioni ultra-pliniane regionali, cioè con effetti su un’area più ampia di quella flegrea e napoletana, confrontabili con quelle del Tufo Giallo Napoletano e dell’Ignimbrite Campana. La provincia di Napoli, che è l’area compresa in questo ultimo caso, si estende su di una superficie di 1171 chilometri quadrati con 92 Comuni e una popolazione di oltre tre milioni di abitanti, con una densità media di oltre 2600 abitanti per chilometro quadrato. Di conseguenza, si è giunti a un punto tale che per ridurre il rischio a valori “accettabili” (qual è il minor numero accettabile di perdite di vite umane?) sarebbe necessaria una drastica riduzione degli insediamenti abitativi esposti, cosa che non appare attuabile per gli alti costi sociali, politici ed economici. Certamente non per coloro che intendono affossare il Governo Monti, il più conservatore e il più efficiente nella storia della Repubblica, e i sacrifici degli Italiani. L’anniversario del terremoto di Basilicata e Campania del 23 Novembre 1980 ha concluso a  Potenza il 31mo Convegno del Gruppo Nazionale di Geofisica della Terra Solida. Una vera e propria maratona di scienziati italiani che si dedicano allo studio dei terremoti superficiali e profondi, di modelli matematici e metodi integrati, di pericolosità, scenari di scuotimento, previsione e rischio sismico, pericolosità vulcanica e campi geotermici.
Il convegno ha visto la partecipazione di rappresentanti di molti enti di ricerca Italiani (OGS, CNR, INGV), oltre al Dipartimento della Protezione Civile (DPC),  importanti Atenei, l’ENI e la sezione italiana della “European Association of Geoscientists & and Engineers – Society of Exploration Geophysicists” che con l’OGS ha organizzato l’evento scientifico lucano. Dal confronto di circa 350 ricercatori e tecnologi è emerso innanzitutto un quadro dell’importante  contributo che gli specialisti della materia stanno fornendo al progresso di discipline vitali per lo sviluppo di un Belpaese altamente sismico come l’Italia. Diversi i contributi mostrati sulla sequenza sismica aquilana, come, ad esempio, il lavoro di due giovani ricercatori Luisa Valoroso e Lauro Chiaraluce dell’Ingv. “La presentazione verte sulla ricostruzione del sistema di faglie attivatesi con il terremoto di L’Aquila 2009 – rivela Chiaraluce – attraverso localizzazioni non più di poche migliaia di terremoti, come avveniva fino a dieci anni fa circa. Ora siamo riusciti a calcolare la localizzazione di decine di migliaia di terremoti; esattamente nel  caso di L’Aquila sono più di 60mila avvenuti in otto mesi. Questa maggiore ricchezza di dati sismometrici ha permesso di ricostruire con un dettaglio molto più elevato la geometria del sistema di faglie nella zona aquilana, guadagnando circa 100 volte in potere risolutivo. Prima il dettaglio arrivava al chilometro, ora alle decine di metri”. Importanti sono gli  studi sulla “firma” dei terremoti  attraverso l’interferometria magnetica a larga banda che consente di rilevare segnali estremamente deboli. Questa tecnica permette di separare i segnali che vengono dall’interno della Terra, da quelli di origine esterni, generati nella magnetosfera e nella ionosfera. “Questa tecnica è estremamente complessa dal punto di vista gestionale – spiega il Professor Paolo Palangio, direttore dell’Ingv della sede aquilana – però apre un nuovo campo di studi che è quello legato all’elettromagnetismo generato, quasi sempre, dai processi geodinamici del sottosuolo. Questi processi sono sempre presenti in qualunque parte del mondo, con intensità più o meno elevata che dipende dalle zone più o meno sismogenetiche dell’area. Si è visto che questa attività genera campi magnetici continui e questi campi vengono modulati dall’attività geodinamica e quindi potrebbero essere legati strettamente ai terremoti”. Diversi i contributi di dottorandi presso l’Ingv. Come quello di Angelica Garone che nel suo studio effettuato nell’area di Lamezia Terme (Calabria) ha caratterizzato la geochimica dei fluidi e valutato il potenziale geotermico nell’ambito del progetto VIGOR. “Questo lavoro – spiega la Garone – è stato effettuato dall’unità funzionale di Geochimica dei fluidi, Stoccaggio di CO2 e Geotermia dell’Ingv di Roma: ha previsto una campagna di monitoraggio e l’integrazione di diverse metodologie di prospezioni geochimiche al fine di caratterizzare in maggior dettaglio l’area presa in esame. La ricchezza dei dati è stata indispensabile per valutare l’interazione acqua-roccia, le relazioni fluido-faglia e, ovviamente, il potenziale geotermico associato al sistema termale di Caronte”. Le discipline scientifiche s’intersecano tutte tra loro e sono indispensabili per studiare la Terra che è un grande sistema interconnesso. Essenziali sono gli studi sulla mappatura dello sforzo crostale e del campo di stress lungo sistemi di faglie attraverso osservazioni GPS. Queste ricerche si integrano con gli studi degli effetti dell’interazione tra la deformazione e l’erosione dei terreni per l’analisi delle caratteristiche visibili permanenti sugli interferogrammi SAR (Synthetic Aperture Radar). Con gli studi del monitoraggio spaziotemporale delle velocità delle onde sismiche nella crosta superiore, della deformazione crostale per il monitoraggio di processi preparativi di terremoti, del comportamento statistico della sismicità tettonica rispetto a quella naturale. Il Convegno non è servito solo ad illustrare le applicazioni sia scientifiche sia tecnologiche nel campo della geofisica della Terra, ma anche aspetti sociali, come la presentazione di Carlos Caracciolo dell’Ingv di Bologna sul discorso scientifico nei telegiornali in occasione del terremoto del Maggio-Giugno 2012 nella Pianura Padana Emiliana, attualmente sviluppato da vari attori con strategie, modelli e obiettivi differenti, evidenziando il punto di vista dello scienziato e quello del giornalista. “È importante essere consapevoli del ruolo dei mass media nella percezione che la popolazione ha del rischio sismico – rivela Caracciolo – occorre riflettere sui modi più adatti per rapportarsi con il mondo giornalistico. Anzi, poiché la mediazione giornalistica è necessaria, serve una maggiore collaborazione malgrado le logiche discorsive contrapposte degli scienziati e dei giornalisti”. I ricercatori Ingv hanno poi offerto un contributo ad una sessione speciale interamente dedicata alla comprensione dei terremoti dell’Emilia-Romagna. Dai loro studi sono emerse importanti particolarità dei sismi di quest’area. Il pronto intervento delle nuove Reti Ingv a seguito della scossa del 20 Maggio 2012, ha consentito di registrare la scossa del 29 Maggio in condizioni sperimentali eccezionali ovvero con strumenti posti immediatamente al di sopra della faglia sismogenetica. “L’insieme delle registrazioni ha un carattere di eccezionalità a livello globale e dovrebbe consentire di esplorare in modo particolarmente accurato i processi che hanno luogo alla sorgente di un forte terremoto – spiega Gianluca Valensise, coordinatore scientifico dell’evento – complessivamente la sessione ha ulteriormente contribuito a sfatare la convinzione che i terremoti del Maggio-Giugno scorsi fossero inattesi e imprevedibili. Al contrario, i dati e le elaborazioni prodotti dall’Ingv nell’ultimo decennio, in parte confluiti anche nella normativa nazionale antisismica, avevano consentito di anticipare con buona accuratezza quello che un giorno avrebbe potuto accadere in quelle zone”. Durante l’Assemblea dei Ricercatori, dal titolo “Il futuro della Ricerca Geofisica Italiana nell’ambito delle prospettive europee e di Horizon 2020”, il Professor Stefano Gresta, Presidente dell’Ingv, ha evidenziato la necessità di uscire dall’individualismo dei singoli ricercatori o dei singoli gruppi di ricerca al fine di porsi in maniera nuova verso un futuro nuovo. “È il percorso individuato dal Ministro Profumo – spiega Gresta – sinergia anche tra Enti diversi per andare a recuperare fondi esterni; allo stesso tempo bisogna fare attenzione al taglio sui fondi ordinari degli Enti, altrimenti il lavoro futuro dei giovani si baserà solo su progetti esterni e quindi sarà a tempo determinato. La cosiddetta fuga di cervelli va considerata, in una certa fase della vita, come un’opportunità in quanto da stimolo e di rafforzo a quelle capacità di stabilire nuove collaborazioni, che dovrebbero essere insite in ogni giovane che ha l’ambizione di diventare scienziato. È altresì vero che chi, come i nostri precari, lavora con capacità e successo da anni all’interno di un Ente, ha diritto ad una sicurezza sul proprio futuro, che solo scelte e decisioni politiche chiare possono garantire”. Per la cronaca, il premio per le Scienze della Terra AD 2012 è stato conferito dalla Fondazione Premio Balzan (ogni anno quattro sono i premi nelle categorie scelte tra lettere, scienze morali, arti e scienze fisiche, matematiche, naturali, e medicina) a Kurt Lambeck, Professore Emerito dell’Australian National University “per i suoi straordinari contributi alla comprensione delle relazioni tra aggiustamento isostatico post-glaciale e variazione del livello dei mari. Le sue scoperte hanno impresso una svolta radicale alle scienze climatiche”. Marco Anzidei dell’Ingv collabora da oltre dieci anni con l’illustre scienziato. “È stato emozionante lavorare insieme al Prof. Lambeck in questi anni – dichiara Anzidei – Kurt è una persona veramente speciale e gli sono riconoscente per avermi introdotto in questa disciplina. I risultati che egli ha raggiunto in anni di ricerche hanno rivoluzionato concetti di cruciale importanza nelle Geoscienze per la conoscenza della terra solida. Nelle ricerche sul Mar Mediterraneo, iniziate insieme nel 2000, grazie ad un finanziamento che avevo ricevuto dal Cnr e che riguardano argomenti inerenti le variazioni del livello marino, ho avuto l’onore di firmare con Lambeck più di dieci articoli scientifici. Kurt Lambeck mi ha insegnato a combinare insieme diverse discipline, quali geodesia, geologia, geofisica, oceanografia, paleoclimatologia ed archeologia, dimostrando che la interdisciplinarità della ricerca è determinante per riuscire ad ottenere risultati rilevanti. Le ricerche compiute da Lambeck hanno ricadute non solo sulle conoscenze, ma anche sulla qualità della vita umana”.

Nicola Facciolini