L’Aquila: Terremoti, la nuova Carta Ingv della sismicità italiana

“Niuno però presagì prima dell’avvenimento quello, che dopo l’avvenimento di poter naturalmente presagire dicevano quasi tutti” (Anton Ludovico Antinori). Nel mese di Maggio 2013, come in Aprile, sono stati registrati più di 1733 terremoti in Italia dalla Rete Sismica Nazionale dell’Istituto Nazionale di Geofisica e Vulcanologia, con una media di quasi 60 eventi al giorno. Tra i terremoti […]

“Niuno però presagì prima dell’avvenimento quello, che dopo l’avvenimento di poter naturalmente presagire dicevano quasi tutti” (Anton Ludovico Antinori). Nel mese di Maggio 2013, come in Aprile, sono stati registrati più di 1733 terremoti in Italia dalla Rete Sismica Nazionale dell’Istituto Nazionale di Geofisica e Vulcanologia, con una media di quasi 60 eventi al giorno. Tra i terremoti di Maggio non ci sono stati eventi di magnitudo maggiore di 4. Ma non ci sono più scuse. La nuova Carta della sismicità in Italia, pubblicata dall’Ingv, riporta la localizzazione degli oltre 50.000 terremoti con magnitudo maggiore di 1.6, avvenuti sul territorio nazionale italiano dal 2000 al 2012. In questi 13 anni l’Italia è stata colpita da numerosi importanti terremoti oltre ai tre drammatici eventi di San Giuliano di Puglia del 2002, di L’Aquila del 6 Aprile 2009 (Mw=6.3; 309 morti; 1600 feriti) e dell’Emilia Romagna del 2012. Nessun sisma, però, in questo periodo ha avuto magnitudo momento Richter superiore a 6.3, per cui secondo gli scienziati questo rappresenta uno dei momenti più lunghi della storia sismica del nostro Belpaese senza un forte terremoto altamente distruttivo. L’ultimo è quello avvenuto il 23 Novembre 1980 in Irpinia e Basilicata. La nuova Carta della sismicità italiana mostra che i terremoti avvengono principalmente nella parte superiore della crosta, a profondità minori di 15 chilometri. In Appennino settentrionale e nel Tirreno Meridionale, invece, si osservano terremoti anche a grandi profondità, fino a 600 Km, che evidenziano importanti processi geodinamici in atto come quello della subduzione di litosfera ionica al di sotto della Calabria. Completano la Mappa due inserti tematici: il primo rappresenta la distribuzione dei forti terremoti che sono avvenuti dall’Anno Domini 1000, dedotti dall’analisi della corposa documentazione storica del nostro Belpaese, che ha permesso di realizzare uno dei più importanti cataloghi sismici al mondo; la seconda mappa, ottenuta dai dati GPS, rappresenta la velocità alla quale si muove l’Italia oggi rispetto all’Europa “stabile”. A causa delle fortissime spinte delle placche tettoniche, la crosta si deforma e i massimi valori di deformazione coincidono con le aree sismiche del nostro Belpaese. È possibile consultare in modo interattivo i terremoti che compongono la nuova Carta sismica (http://terremoti.ingv.it/it/) che può essere scaricata anche in versione “pdf” per verificare dove poggiano i nostri piedi, dove abitiamo. Il 28 Maggio è iniziato nella sede centrale dell’Ingv un corso di due giorni per aggiornamenti e test della strumentazione sismica mobile. L’uso di questi dispositivi è fondamentale per i sismologi in quanto essi forniscono informazioni utilissime sulle caratteristiche delle faglie attive, sulla struttura della crosta e del mantello, sull’andamento spazio-temporale della sismicità durante le sequenze tettoniche. Avere il personale sempre aggiornato e pronto a intervenire in caso di crisi sismiche o di esperimenti mirati, è molto importante per la rapidità dell’intervento e per l’efficacia dell’esperimento. Hanno partecipato oltre 70 tra ricercatori, tecnologi e tecnici delle sezioni Ingv di Roma, Catania, Napoli, Milano, Ancona, Grottaminarda, dell’Inogs, del DipTeRIS dell’Università di Genova e della Fondazione Prato Ricerche, che si sono ritrovati per effettuare delle prove di trasmissione dati. Il corso prevedeva una prima sessione in sala convegni con varie presentazioni sugli aspetti tecnici di acquisizione e trasmissione dati, per poi effettuare prove di installazione di diversi tipi di sismometri a larga banda ed accelerometri, in varie configurazioni. Per simulare una vera installazione di un sismometro a larga banda, molto sensibile alle variazioni di temperatura e pressione, sono state scavate delle buche, costruite delle basi in cemento, avvolti i sismometri in sacchetti di plastica, riempite le buche con sabbia grossolana ideale per drenare l’acqua in caso di pioggia ed evitare così l’allagamento del sensore e la perdita dell’orizzontalità. Sono state sperimentate le modalità di collegamento con gli acquisitori sismici, verificando la funzionalità della registrazione, il corretto funzionamento dei sensori triassiali, sia quelli a larga banda sia gli accelerometri, la ricezione dei segnali Gps per la sincronizzazione e il posizionamento della stazione sismica. Tutti i partecipanti hanno installato gli strumenti, dialogato con le stazioni sismiche tramite i palmari, discusso sul campo dei problemi che si presentano in fase di acquisizione e di scaricamento dei dati. A 51 mesi dal sisma che ha distrutto la Città di L’Aquila, è ancora viva la mistificazione mediatica delle opinioni che hanno accompagnato la storica sentenza di un Tribunale italiano versus i soli scienziati (i politici e i burocrati del territorio tutti innocenti?) che componevano la Commissione Grandi Rischi durante il terremoto abruzzese. Sono sempre doverose delle riflessioni che vadano oltre il merito della sentenza che ha fatto il giro del mondo tra le università e i centri di ricerca pubblici e privati. Rilevante, per un serio dibattito esauriente tra esperti di campi di diverse discipline del sapere, non è tanto chi ha torto o ha ragione politicamente o giuridicamente, ma perché si sia fatta tanta confusione narrativa a fronte di una sintesi scientifica universalmente chiara degli assunti di fondo. Assumere decisioni operative in condizioni di incertezza, come ci ricorda il professor Thomas Jordan, costituisce una fonte di valori per la comunità scientifica. Ma in Italia pare che manchi ancora una Cultura del Rischio, una scienza, coscienza e conoscenza del Rischio Naturale che si costruiscono e si insegnano, non si improvvisano. I mass-media, in particolare il giornalismo scientifico, quel 6 Aprile 2009 devono evidentemente aver risentito di questa carenza culturale: la confusione mediatica alla sentenza può essere letta come l’esito spontaneo di un Belpaese che non è stato (e non sarà) all’altezza della situazione. Oltre ai soliti personalismi ed ai toni esasperati e polemici, non sembra vi siano margini di miglioramento in attesa della prossima catastrofe naturale. Il cittadino però non sembra più disposto a farsi trattare da eterno bambino immaturo da una classe politica politicante senza più speranze: il giornalismo scientifico telematico dimostra un’orizzontalità del sapere in grado di presentare il conto alle classi dirigenti e politiche in tempo reale. L’esperto si trova spesso spiazzato da questi nuovi giovani cittadini esigenti e informati (il 25 percento degli Italiani usa regolarmente Internet) come lo è il medico che non vuol sentire quel che il paziente ha scoperto in Biblioteca. La Rete appare come un sintomo che qualcosa non funziona e conferma quel fastidio crescente verso una cultura paternalistica che mistifica, semplifica e tranquillizza, come fanno certi “esperti della sismologia domestica fai da te” che non tengono nel debito conto l’incertezza del metodo scientifico galileiano e la complessità dei messaggi da trasmettere ai cittadini. Sulla base delle famose Raccomandazioni dei geo-scienziati. La mistificazione della comunicazione scientifica non riguarda solo il terremoto di L’Aquila del 6 Aprile 2009 ma anche quello che è accaduto dopo, tanto da far parlare di due eventi sismici distruttivi: l’evento naturale e quello politico-mediatico. Il secondo è stato quello operato con il trasferimento di massa degli Aquilani fuori dalla città, che ha separato le persone dalle proprie vite, dal proprio tessuto urbano in rovina e le ha tenute lontane dalla possibilità di compiere scelte decisive come quelle degli Emiliani all’indomani del terremoto del 2012. Scelta altrettanto “sismica” che ha reso sempre più passivi i cittadini Aquilani con la spiacevole conseguenza di frammentare luoghi, spazi, persone e comunità, separando il tempo dei cittadini da quello della città. La storica sentenza di L’Aquila che ha fatto Giurisprudenza condannando, nel primo grado di giudizio, i membri scientifici della Commissione Grandi Rischi (Commissione Nazionale per la Previsione e Prevenzione dei Grandi Rischi) che parteciparono alla riunione del 31 Marzo 2009, sta facendo discutere la comunità scientifica e l’opinione pubblica di tutta la Terra. Ma se n’è discusso poco nelle piazze d’Italia. Solo nei talk-show televisivi. Anzi, la narrazione “fresca” che della vicenda aquilana hanno dato i media, con un processo ancora in corso, ha impedito di affrontare seriamente il tema di quelle famose Raccomandazioni dei geo-scienziati che prevedono la creazione immediata in Italia di una Cultura Istituzionale e Politica del Rischio Naturale, con tutta la dotazione degli strumenti anti-crisi annessi e connessi. Non è stato ancora fatto nulla dopo 4 anni. Alla prossima catastrofe naturale (sismica, vulcanica o spaziale) continueremo a ripeterlo a chi di dovere, finanche per istruire altri processi per la ricerca della verità. Allora, cosa ci ha insegnato la distruzione della città di L’Aquila? Gli scienziati non vogliono assolutamente trovarsi in un’aula di Tribunale dalla parte dei colpevoli, contro la popolazione colpita dalle drammatiche conseguenze di un terremoto, uno tsunami, un’enorme frana, un impatto cosmico e un’eruzione vulcanica. Perché anche i ricercatori sono cittadini di questo Belpaese che alla sua crescita e rinascita vorrebbero contribuire facendo la loro parte, cioè lavorando per la conoscenza scientifica del territorio e informando popolazione e autorità sui rischi naturali. Questo fece chi partecipò alla riunione della Grandi Rischi. Senza porsi neanche per un attimo il problema delle conseguenze personali della sua partecipazione a quell’assemblea, come fanno abitualmente i ricercatori in tante occasioni. Gli scienziati hanno imparato che debbono impegnarsi maggiormente per promuovere la Cultura del Rischio collaborando con le istituzioni. Da anni hanno avviato molte iniziative in questo senso. Anche se i politici e gli amministratori continuano a fare orecchie da mercante perché ancora non si vedono lungo le strade e le vie delle città i cartelloni istituzionali per la promozione diffusa e capillare della Cultura del Rischio in Italia. Né la segnaletica anti-tsunami, con relativa indicazione delle vie di fuga, compare sulle nostre spiagge. Ma i nostri ricercatori continuano a lavorare affinché la società civile e la politica diventino sempre più sensibili nei confronti di questi temi cruciali. I sismologi hanno anche imparato che distinguere i ruoli è importante, nell’interesse e per la protezione dei cittadini Italiani. Il terremoto di L’Aquila e dell’Emilia hanno mostrato, ancora una volta, a tutti quanto sia vulnerabile il nostro territorio e quanto è importante mettere subito in sicurezza tutti gli edifici. Sappiamo che terremoti anche molto più forti sono accaduti in passato e accadranno in futuro. Anche i vulcani sottomarini e le antiche caldere spente (oggi stupendi laghi) potrebbero un giorno esplodere generando megatsunami. Dobbiamo prepararci. Un grande Programma Nazionale di riduzione della vulnerabilità dell’edilizia pubblica e privata in Italia, può essere uno stimolo incredibile per creare lavoro e per portare nell’arco di 20 anni a convivere tranquillamente con i rischi naturali. Non soltanto con i terremoti. Certamente si è parlato, impropriamente, di processo alla Scienza. La questione è mal posta. Nessuno nel XXI Secolo si sognerebbe di processare la Scienza salvando certa politica depressiva e schizofrenica. A L’Aquila, però, secondo alcuni pare che si sia processato il metodo scientifico galileiano, portando come assolute “prove” del delitto articoli di ricerca e risultati che per loro natura sono incerti, soggetti a revisioni continue, come insegna da 400 anni il metodo di Galileo Galilei, padre della Scienza moderna. In tal senso, sì, lo potremmo pensare come un processo a Galilei in chiave moderna. Anche perché non risultano condannati i responsabili politici ed amministrativi del territorio. Nel corso del processo, secondo alcuni, i dati e le ricerche sarebbero stati usati in maniera “a-scientifica” mascherando con articolati giri di parole l’idea per cui qualsiasi terremoto debba essere chiaramente previsto in tutta la sua potenza distruttiva. Bene. Ma cosa c’entrano gli scienziati! Proprio parlando di comunicazione, la sentenza aquilana pare mostrare una debolezza intrinseca preoccupante. Perché il punto critico di come si sia eventualmente creato un messaggio tranquillizzante per la popolazione, non è stato mai affrontato in tutta la sua portata. In verità, nessun messaggio scientifico sarebbe mai potuto uscire dalla riunione della Commissione Grandi Rischi coinvolta nel processo, semplicemente perché quel famoso verbale pare sia stato reso noto solo dopo il terremoto del 6 Aprile 2009. Le notizie uscite da quella riunione hanno seguito percorsi propri e non prestabiliti, per mano di autorità pubbliche e giornalisti. Tutti “errori” scientificamente prevedibili, che di certo non hanno coinvolto soltanto gli imputati e di cui non si è mai ricostruita la progressione. Anche per questo pare risultare strana la narrazione a posteriori secondo la quale il messaggio è venuto, tutto e soltanto, dai sette scienziati e tecnici condannati, per di più senza distinzione di ruoli e di responsabilità. Tutta la vicenda aquilana deve essere oggetto di dibattito pubblico! Finora tutte le discussioni si sono cristallizzate spesso su posizioni colpevoliste e non costruttive. A volte si è fatta confusione per questioni di invidie professionali, rancori personali, vendette politiche. Tutto questo sulla pelle dei cittadini Aquilani e degli scienziati. Nel frattempo i mass-media televisivi più importanti non hanno ricordato agli Italiani che le conoscenze sulla pericolosità sismica erano da anni legge dello Stato e che quelle sulla vulnerabilità degli edifici erano a disposizione delle amministrazioni locali dal lontano 1989. Utilizzarle per la protezione del territorio sarebbe stato compito della politica e non degli scienziati! Una buona comunicazione tra comunità scientifica, autorità di protezione civile e cittadini, può migliorare decisamente la prevenzione degli effetti di una catastrofe naturale, non soltanto sismica. Gli Istituti di ricerca hanno il dovere di fornire ai cittadini una corretta e costante informazione scientifica. Tutti abbiamo il sacrosanto diritto inviolabile, tra l’altro sancito dalle Nazioni Unite, di vivere in un ambiente sicuro. E gli scienziati che si occupano di temi con un forte impatto sulla società, hanno anche un compito educativo sulla mitigazione dei rischi naturali. I ricercatori Ingv si stanno impegnando anche con strumenti nuovi come i social network (sono stati premiati lo scorso anno ai Macchianera Award come canale Twitter più utile) e con un blog, creato un anno fa, che nei giorni del terremoto dell’Emilia raggiunse i 900mila contatti al giorno. Certamente nelle situazioni di emergenza e nelle questioni di protezione civile, bisogna riconoscere che i canali e le procedure della comunicazione richiedono di essere continuamente aggiornati, adattati ai contesti e migliorati. Questo però non vale soltanto nei confronti dei cittadini, quanto soprattutto in rapporto alle istituzioni: sono i sindaci, i presidenti di Regione e gli assessori che utilizzano le informazioni dell’Ingv per decidere. E, a seconda di come lo fanno o lo dovrebbero fare in situazioni di “pace”, con l’adeguamento dell’edilizia e la messa in sicurezza del territorio, decidono la sorte dei propri cittadini. Sono i sindaci, i presidenti di Regione e gli assessori, non gli scienziati, i primi a dover intervenire nelle crisi. Basti pensare a quanto è successo lo scorso Gennaio 2013 in Garfagnana quando l’informazione scientifica originaria dell’Ingv ha seguito “interpretazioni” istituzionali che hanno portato all’evacuazione di massa utile per l’esercitazione di protezione civile di un intero territorio! Sotto osservazione è come sempre la vetta del vulcano Stromboli con un esperimento unico per lo studio dell’attività esplosiva dei vulcani. Nell’ambito del Progetto europeo NEMOH, 15 ricercatori dell’Ingv di Roma e Catania, insieme a colleghi provenienti dalle Università di Palermo, Berlino, Monaco di Baviera e Lancaster sono stati impegnati nella raccolta di dati relativi alle esplosioni del vulcano, utilizzando le tecnologie più avanzate applicate in campo vulcanologico. Microfoni, telecamere termiche e ad alta velocità, sismografi e camere a ultravioletti di ultima generazione, sono state installati sul vulcano per registrare simultaneamente ogni tipo di segnale emesso dalla montagna durante le esplosioni. I dati, una volta elaborati e confrontati con quelli raccolti su altri vulcani del mondo, contribuiscono a migliorare le conoscenze sui meccanismi eruttivi dello Stromboli per la valutazione della sua pericolosità. Attualmente non esistono sistemi di rilevamento della deformazione associata ai fenomeni bradisismici sul fondale marino nel Golfo di Pozzuoli, la megacaldera del Mediterraneo, il nostro potenziale Yellowstone. L’Ingv, in collaborazione con la Marina Militare ha installato un prototipo di infrastruttura per valutare le variazioni termiche delle acque marine, comparate con dati satellitari, e contestualmente per prefigurare scenari sottomarini propedeutici all’installazione di sistemi di osservazione. È la campagna geofisica-oceanografica “RICAMAR 2013” condotta in sinergia tra l’Istituto Idrografico della Marina Militare e l’Istituto Nazionale di Geofisica e Vulcanologia nell’ambito dell’accordo di collaborazione con il Coordinamento Nazionale per la Geofisica Marina. La nave Ammiraglio Magnaghi, unità Idro-Oceanografica maggiore della Marina Militare, nel Golfo di Pozzuoli studia la caldera dei Campi Flegrei, una delle zone vulcaniche più densamente popolate del mondo. A bordo un’equipe di ricercatori dell’Ingv. Il progetto è di estrema utilità poiché attualmente non esistono sistemi installati sul fondale marino nel Golfo di Pozzuoli per il rilevamento della deformazione associata ai fenomeni sismici e vulcanici. Il focus è quello di realizzare un prototipo di infrastruttura con cavo sottomarino, su cui insistono alcuni punti di collegamento per sensori di monitoraggio. La Marina Militare Italiana concorre alla salvaguardia ambientale. La megacaldera dei Campi Flegrei è una delle zone vulcaniche più pericolose e popolate del mondo: da ciò nasce la necessità di un monitoraggio in tempo reale per scopi di protezione civile. Questa esigenza ha portato, nel tempo, a sviluppare progetti di cooperazione regionali e nazionali per integrare la rete di monitoraggio terrestre con un innovativo sistema marino. La megacaldera mediterranea dei Flegrei è un “punto caldo” che comprende la parte occidentale della città di Napoli e si estende nel Golfo di Pozzuoli. La caratteristica principale della sua attuale attività vulcanica è il movimento lento del suolo a carattere episodico e di grande ampiezza (bradisismo) accompagnato da un’intensa attività sismica e superficiale che si verifica solo durante la fase di sollevamento. L’immenso lago di lava sotterraneo e sommerso sarebbe in grado di liberare l’energia di decine di migliaia di megatoni. Si prevede, attraverso modelli deformativi calibrati con dati acquisiti a terra, che la massima deformazione sia localizzata nel Golfo di Pozzuoli. Nel periodo di massimo abbassamento, risalente probabilmente al Medioevo, come dimostrano alcuni studi, il livello del suolo era tra i 7 e i 10 metri più basso rispetto all’epoca di costruzione del Serapeo nel I secolo dopo Cristo. Nel 1500 un’importante crisi di sollevamento determinò un innalzamento complessivo dell’area di circa 7 metri e precedette l’eruzione del Monte Nuovo avvenuta nel 1538. Dopo l’eruzione iniziò un periodo di lenta subsidenza. In tempi più recenti, nel 1969-72 e nel 1982-84, si sono verificate due crisi bradisismiche accompagnate da attività sismica, che hanno portato a un sollevamento del suolo complessivo di circa 3,50 metri. Durante la prima delle due crisi, si registrò un sollevamento del suolo di circa 1,70 metri al quale seguì una lenta subsidenza fino al 1982. Fra il 1982 e il 1984 si ebbe un nuovo sollevamento del suolo di 1,80 metri accompagnato da circa 10.000 terremoti, il maggiore dei quali avvenne il 4 Ottobre 1983 e fu di magnitudo 4.2: durante queste crisi una parte della popolazione di Pozzuoli venne evacuata per il rischio di crolli provocati dalla forte attività tettonica. Dal 1985 il suolo ha ripreso ad abbassarsi, sebbene con periodi di sollevamento più brevi e di minore entità. Questi periodi sono puntualmente accompagnati da sciami sismici, l’ultimo dei quali si è registrato nel Giugno 2010. Il team di studiosi è composto dagli esperti della Marina Militare, dai ricercatori dell’Osservatorio Vesuviano Ingv di Napoli e dai ricercatori dell’Unità di Geofisica Marina della sede di Porto Venere. Questi ultimi partecipano alle attività a bordo delle unità idrografiche della Marina Militare mettendo a disposizione anche l’imbarcazione BigOne progettata per l’esplorazione geofisica in aree costiere. Sulla quale i tecnici Ingv, insieme ai piloti di Subonica, lavorano con il ROV Sirio, un robot sottomarino in grado di effettuare riprese video e campionamenti di gas emessi dalle fumarole. Infatti, in collaborazione con Ageotec, è stato progettato dai tecnici dell’azienda e dai ricercatori Ingv, un particolare dispositivo capace di catturare i gas e di fornire ai geochimici dell’Istituto una grande quantità di informazioni sulle sorgenti più profonde. Sulla BigOne è installato un innovativo Side Scan Sonar reso disponibile da una collaborazione con Oceanix che consente di acquisire immagini acustiche dell’area archeologica e delle fumarole presenti. Tramite la strumentazione imbarcata sulle idrobarche vengono condotti rilievi batimetrici a mezzo ecoscandaglio multifascio, rilievi stratigrafici con Sub-Bottom Profiler e magnetometrici. Prossima tappa: le Isole Eolie. Dal 3 al 5 Giugno 2013 a Oristano il Gruppo nazionale di oceanografia operativa (Gnoo) si è riunito per il suo terzo convegno nazionale. L’incontro ha offerto sia al grande pubblico sia agli specialisti del settore marino una panoramica dei più avanzati strumenti operativi e strategici per il monitoraggio e le previsioni del mare. Oltre quaranta relatori si sono avvicendati in tre giorni di convegno e tavole rotonde su “Oceanografia operativa, tecnologie e applicazioni innovative”. L’evento annuale riunisce il Gruppo nazionale di oceanografia operativa (Gnoo) che è un organo di coordinamento nazionale dell’Ingv, di cui fanno parte il Cnr, l’Enea, l’Ogs, l’Arpa dell’Emilia Romagna e della Liguria, il Conisma, il Cmcc, l’Istituto idrografico della Marina, il Centro nazionale di meteorologia e climatologia dell’Aeronautica Militare (Cnmca), l’Ufficio spazio aereo e meteorologia (Usam) e il Comando generale delle capitanerie di porto. “L’oceanografia operativa è una disciplina che si propone di realizzare un sistema integrato di dati osservativi in tempo reale e di modelli previsionali – spiega Roberto Sorgente, ricercatore del Cnr e responsabile del Gruppo di oceanografia operativa di Oristano – allo scopo di valutare con accuratezza lo stato dei mari e degli oceani per lo sviluppo sostenibile delle attività e per la protezione dell’ambiente”. Non solo. “La scienza e la tecnologia sviluppate in oceanografia negli scorsi venti anni – rivela Nadia Pinardi, docente di oceanografia all’Università di Bologna, direttore del Gnoo ed associato di ricerca dell’Ingv – hanno dimostrato che oggi è possibile monitorare il mare con satelliti e misure in situ che possono arrivare in tempi strettissimi ai centri di previsione delle condizioni del mare così da permettere di usare modelli per la previsione del mare e delle sue condizioni, dalle correnti alla biochimica marina”. Il convegno nasce per fare il punto sullo stato di sviluppo delle previsioni a livello globale e di Mare Mediterraneo, dei Mari Italiani e sulle applicazioni che ne derivano per la gestione delle emergenze e lo sviluppo sostenibile delle attività in mare. L’incontro di Oristano è il terzo di una serie iniziata nel 2008 a Genova e proseguita nel 2010 a Cesenatico. “Novità importanti dell’edizione 2013, una forte presenza internazionale e un’apertura al settore privato” – dichiara Nadia Pinardi. L’iniziativa mira infatti a divulgare, sia al grande pubblico sia agli studiosi, lo stato di avanzamento dell’oceanografia operativa in Italia ed i corrispondenti sviluppi a livello europeo ed internazionale, in un legame sempre più stretto con l’industria e con chi opera in mare a livello pubblico e privato. Ampio spazio è stato dedicato a diverse aziende italiane operanti nel settore. Il quadro di riferimento internazionale in cui opera il Gruppo è il Programma Goos dell’Unesco, le Partnership delle Nazioni Unite per lo sviluppo sostenibile, la Direttiva europea sulle acque (Wfd), la Direttiva quadro sulla strategia integrata per l’ambiente marino (Mfsd), Horizon 2020 e il Programma europeo per il monitoraggio globale dell’ambiente e la sicurezza “Copernicus” (ex Gmes). A livello nazionale il Gnoo fa riferimento alla strategia tematica del Ministero dell’ambiente per la difesa del territorio, per lo sviluppo sostenibile e la protezione dell’ambiente marino. Il 25 Maggio 2013 sono passati 25 anni dalla prima misura GPS svolta all’Etna dall’allora Istituto Internazionale di Vulcanologia nell’ambito di una collaborazione con l’Institut de Physique du Globe di Parigi. Da allora le iniziali ricerche metodologiche su questo nuovo tipo di misura geodetica si sono evolute in un moderno sistema di ricerca e monitoraggio geofisico, solidamente strutturato e pienamente inserito all’interno delle reti osservative dell’Istituto Nazionale di Geofisica e Vulcanologia. Il gruppo di ricerca di quella iniziale campagna di misura, composto da Giuseppe Puglisi, Pierre Briole e Pippo Nunnari, oggi rispettivamente in attività presso la Sezione di Catania dell’Ingv, l’Ecole Normale Superieure di Parigi ed il Dipartimento Elettrico, Elettronico e Sistemistico dell’Università di Catania hanno pensato di festeggiare l’anniversario organizzando una manifestazione a carattere divulgativo per fare il punto delle attività svolte con il GPS, in questo quarto di secolo, sull’Etna ed in Sicilia, con uno sguardo al futuro del monitoraggio delle deformazioni del suolo. Su Nature è apparsa una notizia di un esperimento molto singolare, costituito da una serie di microesplosioni sotterranee effettuate in un prato a Ashford, un sobborgo di New York. L’Ingv era tra i partecipanti all’esperimento di Buffalo finalizzato a simulare la formazione dei crateri ed il lancio e la diffusione di “ejecta” similmente a quanto avviene durante le eruzioni vulcaniche. Organizzata dal vulcanologo Greg Valentine dell’Università di Buffalo, al test hanno preso parte gli esperti dell’Ingv, i quali, nell’ambito del Progetto Europeo NEMOH, hanno registrato gli esperimenti con delle telecamere ad alta velocità per studiare la distribuzione delle polveri e le traiettorie delle “bombe” vulcaniche scagliate in aria dalle microesplosioni. L’importanza di questo studio investe anche il campo della Protezione Civile “per migliorare – rivela Jacopo Taddeucci dell’Ingv – la protezione della popolazione dalla caduta di ceneri, lapilli e bombe vulcaniche reali, che sono frequenti nel corso di un’eruzione nostrana, come per esempio avviene per lo Stromboli”. L’articolo è online su Nature (www.nature.com/news/experimental-volcanoes-make-a-blast-1.12970). Dai laboratori di geochimica dei fluidi dell’Ingv di Palermo i ricercatori hanno messo a punto un nuovo strumento per misurare i flussi di anidride carbonica dal suolo grazie ad un sensore che può essere inserito direttamente nel terreno. L’apparato, chiamato CADEMASO, si è rivelato particolarmente utile perché funziona anche in condizioni ambientali e meteo avverse ed estreme che potrebbero danneggiare i sensori tradizionali. “La possibilità di monitorare il flusso di anidride carbonica anche in condizioni critiche – spiega Sofia De Gregorio – ha una ricaduta di grande rilievo nell’ambito della sorveglianza vulcanica, infatti i siti più idonei per il monitoraggio continuo sono spesso ubicati in aree caratterizzate da tali condizioni, basti pensare ad esempio alle parti sommitali di apparati vulcanici attivi che spesso si trovano a quote elevate o risultano interessati da campi fumarolici, con conseguente rilascio di flussi di vapore e gas acidi”. Le applicazioni promettono bene. “Una prima verifica di campagna è stata effettuata nell’isola di Vulcano – rivela la scienziata – in una zona caratterizzata da flussi di anidride carbonica elevati e variabili. Questa prima applicazione ha avuto la finalità di testare il funzionamento dell’apparato: i dati acquisiti con Cademaso sono stati confrontati con quelli ottenuti attraverso l’uso di sistemi di misura tradizionali. A Settembre 2012 una stazione di monitoraggio in continuo, equipaggiata con tali sensori, è stata installata nel versante sud-orientale dell’Etna in un campo fumarolico di bassa temperatura, ubicato a circa un chilometro e mezzo dai crateri sommitali ad una quota di 2700 metri sul livello del mare”. Lo strumento ha funzionato correttamente fino ad Aprile 2013 senza alcun intervento di manutenzione. Molti sono i premi e i riconoscimenti conseguiti dall’Ingv. Il Primo Ricercatore Fawzi Doumaz è stato premiato dalla Esri Italia, Società che sviluppa software GIS (Geographical Information System – Sistema Informativi Territoriali) per aver sviluppato un insieme di strumenti per la gestione di dati e informazioni in vista di una comunicazione precisa e tempestiva. Il premio è stato consegnato alla presenza del Presidente dell’Istituto Nazionale di Geofisica e Vulcanologia, il professor Stefano Gresta, durante la 14ª Conferenza Utenti Esri che si è svolta il 17 e 18 Aprile 2013 all’Auditorium del Massimo a Roma. Ha suscitato notevole interesse la partecipazione dell’Ingv che da più di venti anni impiega tecnologia GIS nell’ambito delle sue attività di monitoraggio e ricerca nei settori dei terremoti, dei vulcani e dell’ambiente. L’Ingv, presente nelle due giornate romane con una postazione nella quale sono state mostrate le applicazioni GIS sviluppate dai tecnici e dai ricercatori, ha illustrato le potenzialità della tecnologia partecipando alle sessioni con gli interventi dei ricercatori Fawzi Doumaz, Maurizio Pignone e Mauro Buttinelli. Per l’occasione Esri Italia ha voluto consegnare all’Ingv l’Award 2013 del GIS scegliendo il lavoro presentato dal ricercatore Fawzi Doumaz, dal titolo “INGV e il GIS uno strumento catalizzatore per la gestione dati e per un’informazione precisa e tempestiva”. Con la seguente motivazione:“Per aver realizzato delle procedure molto efficaci che consentono in tempo reale, di conoscere ed analizzare la situazione durante eventi catastrofici, come i terremoti e le eruzioni vulcaniche, e trasmettere nelle forme più adatte i dati necessari alle strutture di protezione civile per consentirne la migliore operatività”. È noto che i forti terremoti sono preceduti da segnali elettromagnetici a frequenze molto basse, attribuiti alle cariche elettriche (non sempre viene emesso calore a causa della lubrificazione abissale) messe in movimento dalla fratturazione delle rocce: partendo da queste considerazioni è in fase di allestimento una rete di monitoraggio composta da sensori elettromagnetici in una delle regioni più attive del Mediterraneo, la parte sud-occidentale e meridionale dell’Arco Ellenico, dall’incredibile potenziale distruttivo. Secondo alcuni scienziati dell’Ingv “ci si aspetta di osservare segnali elettromagnetici caratteristici emessi alcuni giorni prima di eventi sismici importanti. Il fenomeno è ancora in fase di studio e l’esistenza di un’effettiva correlazione di causa-effetto tra questi segnali e il terremoto deve essere ancora verificata”. Quello su cui l’Ingv si sta impegnando è proprio la verifica a posteriori, dopo un evento importante, dell’esistenza di segnali simili a quelli già osservati sperimentalmente in laboratorio. L’iniziativa nasce da una collaborazione internazionale con un’istituzione greca. Quest’ultima vanta una forte conoscenza del territorio e si occupa della logistica locale. L’Ingv mette a disposizione il “know-how” e la strumentazione di misura con antenne e di sistemi di acquisizione realizzati nei propri laboratori. In Aprile l’ISIDe ha raggiunto e superato la quota di 100.000 dati di terremoti archiviati e pubblicati a partire dal 16 Aprile 2005, grazie al lavoro dei sismologi dell’Ingv che hanno analizzato alcuni milioni di sismogrammi. Nel data base ISIDE (http://iside.rm.ingv.it) è possibile effettuare delle selezioni dei dati per area, periodo o magnitudo, e creare così mappe di sismicità dove vengono anche riportati terremoti rilevanti avvenuti in altre zone della Terra. Non mancano le notizie più incredibili in salsa italiota. Il 2 Marzo 2013 pare sia stato accantonato per l’ennesima volta il fantomatico progetto “Ponte di Messina” resuscitato dal Presidente Silvio Berlusconi qualche anno fa con il suo “centrodestra”. Se è vero che con il Ponte di Messina se ne va anche il singolare lavoro sviluppato da un magnifico team internazionale di scienziati, è altrettanto vero che se ne vanno per sempre i leader nella progettazione di ponti sospesi. Quindi i soldi e gli investimenti per la messa in sicurezza dell’intera regione. Dagli Stati Uniti ad Hong Kong, dalla Corea all’Indonesia, ovunque sono programmati ponti sospesi, si fa ricerca scientifica e tecnologica d’avanguardia in tempo reale e non sulla base di progetti obsoleti. Ideazioni di progetti futuri di ponti che si richiamano al “Messina Type” sono all’opera altrove nel mondo dove la crisi economica non c’è mai stata. L’esultanza è soprattutto degli ambientalisti del “non-fare” poiché esiste una grande verità e cioè che Reggio Calabria e Messina, le due città che si affacciano sullo Stretto, negli ultimi decenni hanno avuto uno sviluppo edilizio caotico e si sono costruiti edifici pubblici e privati e infrastrutture in aree ad altissimo rischio idrogeologico come le fiumare, ma anche gli eventuali tsunami del Mar Mediterraneo. La priorità assoluta, secondo molti, si dovrebbe concentrare sugli interventi contro il dissesto, anziché sulla grande opera del Ponte di Messina più bello ed avveniristico del mondo. Ed è su questo aspetto che si critica un grande Progetto che parla una sola lingua, quella della Scienza e dell’Ingegneria. I tecnici assicurano che il ponte sullo Stretto di Messina non è una storia di sprechi, ma al contrario è un’impresa che ha portato all’Italia ed alla comunità scientifica internazionale uno straordinario bagaglio di conoscenze multidisciplinari riconosciute in tutto il mondo. E poi applicate altrove per creare lavoro e ricchezza all’estero! Anche questa è Politica. C’è chi poi invoca il terremoto di Messina del 1908 e gli esperti in sismologia rispondono che se si ripetesse una forte scossa, cadrebbe tutto, tranne il Ponte sullo Stretto. Volano via con il Progetto anche i 45 milioni di euro che il Governo Italiano dovrà risarcire a Eurolink, la cordata di imprese che avrebbero costruito il Ponte di Messina. Tra lo staff di illustri “illuminati” del Ponte c’è poi uno studio, che non si menziona mai facilmente, riguardante il rumore che può provocare una sintesi sensoriale uditiva: quello delle ricostruzioni audio delle sonorità che avrebbero potuto essere emesse dal Ponte sullo Stretto in presenza di forte vento. “Ogni cavo di sospensione del ponte sospeso (pendino) – dicono gli esperti – è caratterizzato da una “etichetta sonora” propria composta da una frequenza fondamentale, che rappresenta la nota dominante, e da armoniche di origine superiore (ipertoni) che determinano il timbro del suono. La sovrapposizione delle fondamentali genera gli accordi la cui componente udibile viene tradotta in stimoli sensoriali, cioè proprio come fosse la voce del Ponte”. Sempre più frequentemente viene richiamata la necessità di misurare in modo oggettivo la produttività scientifica delle Università e degli Enti Pubblici di Ricerca. Si ricorda, a titolo di esempio, quanto pubblicato nell’ambito del Programma Science Watch della Thomson Reuters (http://archive.sciencewatch.com/ana/st/earthquakes2/institutions/) oppure dallo Scimago Institutions Ranking World Report (http://www.scimagoir.com/index.php). Lo sviluppo delle banche dati internazionali, come ISIWeb of Science, SCOPUS e Google Scholar, rende oggi possibile verificare in modo veloce ed oggettivo la produttività scientifica, l’impatto e il posizionamento internazionale dei singoli ricercatori o di intere strutture di ricerca. Immaginate un’analoga valutazione seria e obiettiva dell’operato dei politicanti italiani. Recentemente è stata analizzata la produttività scientifica dell’Ingv utilizzando ISIWeb of Science nell’intervallo temporale compreso tra il 2003 e i primi mesi del 2013. Seppure nell’incertezza dovuta a diversi fattori, comprese le diverse modalità con le quali viene indicato il nome dell’Istituto (come sigla, per esteso, con il nome delle singole sezioni anteposto a quello dell’Istituto) sono riportati i risultati ottenuti dall’Ingv la cui dotazione organica, aggiornata al 30 Ottobre 2012, è costituita da 515 unità di personale di ricerca, distribuite tra il personale di ricerca di ruolo (227 ricercatori e 97 tecnologi) e non di ruolo (125 ricercatori e 66 tecnologi). C’è poi la delibera n. 66/2013 con la quale Tullio Pepe, ex Direttore Generale dell’Ingv, è stato nominato responsabile della prevenzione e della corruzione. Le disposizioni per la prevenzione e la repressione della corruzione e dell’illegalità nella Pubblica Amministrazione, rappresentano il primo tentativo sistematico, ad oltre un ventennio dalle tristi e significative vicende di “mani pulite”, di avviare un processo di sensibilizzazione ad una cultura del pubblico amministratore, improntata al rispetto della legalità oltre che all’apprestamento di strumenti di prevenzione volti ad impedire o, quantomeno, ridurre il fenomeno della corruzione, sia implementando il presidio sanzionatorio alle vigenti fattispecie criminose sia apprestandone delle nuove, come quella della “Corruzione tra privati”, conformandosi alle ripetute sollecitazioni della Comunità Europea. Troppo spesso i mezzi di informazione danno risalto all’emotività, a danno della correttezza scientifica. L’apocalisse delle attuali inondazioni in Europa è l’occasione per la fondazione di una FEMA nel vecchio continente, una Protezione Civile Europea dotata di poteri, responsabili e fondi adeguati.
© Nicola Facciolini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *