La Misura del Futuro e la Fine del Mondo, se in Italia non prevarrà la Società della Conoscenza nel 2015

“Sapere qualcosa in più non distrugge il mistero, perché la realtà è tanto più meravigliosa di quanto potesse immaginare alcun artista del passato! Perché i poeti non ne parlano?” (Richard Feynman). “Earthquake Warning!”. Tutto si gioca nella corretta Misura del Futuro, uno dei tanti possibili e immaginabili mondi cristallizzati nelle nostre vite “estratte” dalla somma […]

Sole-ai-raggi-X-by-NuStarSapere qualcosa in più non distrugge il mistero, perché la realtà è tanto più meravigliosa di quanto potesse immaginare alcun artista del passato! Perché i poeti non ne parlano?” (Richard Feynman). “Earthquake Warning!”. Tutto si gioca nella corretta Misura del Futuro, uno dei tanti possibili e immaginabili mondi cristallizzati nelle nostre vite “estratte” dalla somma sulle storie di quantistica memoria. Se i ciarlatani di fine e inizio anno, sono sempre all’opera per ingannare le menti più deboli, perché sforzarsi di immaginare l’inesistente, quando già sotto i nostri occhi, nella forma matematica delle scienze fisiche, la bizzarra fisica quantistica è il più grande sforzo intellettuale umano di sempre compiuto dalla mente per dare forma a “qualcosa” di apparentemente inspiegabile, irrappresentabile e impossibile, con il bacio dell’addio a fantasmi, violenza politica, vaticini e oroscopi? Il 2015 sarà l’ennesimo anno di fallimenti astrologici, morali, etici, sociali e politici? In Italia dal 1° Gennaio 2015 ogni famiglia pagherà mediamente 1656 euro di tasse energetiche in più, per la felicità dei Signori della guerra. Risibile, dunque, appare la riduzione del 3 percento sulla bolletta dell’elettricità e dello 0,3 percento su quella del gas della famiglia-tipo con consumi medi di energia elettrica pari a 2.700 kWh/anno con potenza impegnata di 3 kW, nel primo trimestre 2015. Per l’elettricità la spesa per la famiglia-tipo tra l’Aprile 2014 e il Marzo 2015 sarà di 513 euro, con un calo dello 0,6 percento rispetto ai 12 mesi equivalenti dell’anno precedente (Aprile 2013-Marzo 2014). Per il gas la spesa della famiglia tipo nello stesso periodo sarà di 1.143 euro, con una riduzione del 6 percento circa, corrispondente ad un “risparmio” apparente di 72 euro. Totale parziale di 1656 euro (Fonte Sole24Ore). Senza contare lo spettro dell’aumento dell’IVA (oggi al 22 percento in Italia) al 24 percento dal 1° Gennaio 2016 e i tragici effetti sull’economia italiana delle insensate sanzioni economiche imposte dai Warlords contro la Russia cristiana. Ma passiamo alla Scienza. Il “Physic World 2014 Breakthrough of the Year” è il riconoscimento che Physics World, rivista mensile dell’Institute of Physics, assegna ogni anno a quella che ritiene la maggiore notizia nel campo della Fisica. I criteri di attribuzione erano: la rilevanza della ricerca, il progresso nella conoscenza scientifica reso possibile, il rapporto tra aspetti teorici e sperimentali, e in generale l’interesse della notizia nel panorama della fisica contemporanea. “Per la Fisica questa del 2014 è stata una grande annata – dichiara Hamish Johnson, editor di Physics World – ed è stato bello avere da scegliere tra 10 lavori tutti di grande rilievo e ognuno dei quali rappresenta un grande passo avanti fatto dal team di ricercatori coinvolti”. Il vincitore del 2014 è stato l’accometaggio di Philae, modulo della sonda Rosetta, sulla cometa 67P/Churyumov-Gerasimenko. A poche settimane dal landing sono già due le scoperte interessanti effettuate dalla missione europea. La prima, annunciata appena pochi giorni dopo il touchdown, è il fatto che sulla cometa sono presenti molecole organiche. Fatto scientifico che consolida l’ipotesi di come i “mattoni della vita” possano essere arrivati sulla Terra, almeno in parte, dai corpi minori del Sistema Solare. La seconda notizia riguarda l’abbondanza di Deuterio nell’acqua della cometa 67P misurata dallo spettrometro di massa ROSINA a bordo di Rosetta. Tale abbondanza, troppo alta per essere compatibile con quella dell’acqua terrestre, rafforza l’idea che l’origine dei nostri oceani vada ricercata negli asteroidi piuttosto che nelle comete come 67P. Ma esistono molti astri chiomati ancestrali nel Sistema Solare, senza contare le esocomete aliene che vagano nello spazio interstellare. Physics World elenca le altre 9 scoperte in ordine sparso, senza stilare una vera e propria classifica. Quella sui primi neutrini solari è una ricerca condotta interamente in Italia, precisamente nei Laboratori Nazionali del Gran Sasso. L’esperimento Borexino ha compiuto la prima rivelazione diretta di neutrini prodotti dalle reazioni nucleari che alimentano il Sole. È stato poi osservato un filamento cosmico. I filamenti cosmici sono strutture che collegano gli ammassi e i superammassi di galassie, formando la cosiddetta Rete Cosmica (Cosmic Web), ma a differenza degli ammassi di galassie, gli scienziati non li avevano ancora osservati. Fino a quando Sebastiano Cantalupo, Piero Madau e Xavier Prochaska (Università della California), Fabrizio Arrigoni-Battaia e Joseph Hennawi (Istituto Max-Planck per l’Astrofisica, in Germania) hanno usato la radiazione ultravioletta emessa da un quasar lontano per osservare in maniera indiretta il gas di un filamento cosmico. Questa scoperta apre una nuova finestra di osservazione dell’Universo e avrà importanti conseguenze nello studio della formazione delle strutture cosmiche. È stata simulata una Supernova. L’Astrofisica è presente nella top ten con una ricerca condotta da Gianluca Gregori e Jena Meinecke (Università di Oxford) insieme ad altri scienziati. Il team ha creato in laboratorio l’analogo di una Supernova. Non una a caso, bensì della stella “Cassiopea A” che si distingue per la sua forma irregolare dovuta alla presenza di intensi campi magnetici, la cui spiegazione però rimaneva abbastanza misteriosa.
Grazie all’uso di un laser, Gregori e colleghi hanno fatto esplodere una barra di Carbonio immersa in un gas di Argon attraversato da una griglia di plastica che aveva lo scopo di simulare le disomogeneità del materiale nei dintorni dell’astro Cassiopea A. Facendo le dovute proporzioni, l’esplosione ha creato un’onda d’urto in tutto e per tutto analoga a quella prodotta da una Supernova.
Il risultato? Un campo magnetico simile a quello osservato proprio in Cassiopea A.
Il successo di questo esperimento ha fatto pensare che tale metodo di studio potrà essere usato per studiare in laboratorio molti altri fenomeni astrofisici. C’è poi la fusione nucleare “fai-da-te”. Un gruppo di ricercatori del Lawrence Livermore National Laboratory e dei Los Alamos National Laboratory, guidati da Omar Hurricane, ha condotto il primo esperimento di fusione nucleare in laboratorio in cui si sia ottenuta più energia di quanta ne fosse stata fornita precedentemente. Il team di fisici statunitensi ha acceso una piccola quantità di Deuterio e Trizio, isotopi dell’Idrogeno.
La strada è ancora lunga, ma l’esperimento segna un passo in avanti nella possibilità di produrre energia pulita infinita per uso civile tramite la fusione termonucleare che è molto più efficiente dell’attuale “fissione”. Non mancano le “compressioni quantistiche”. Siamo tutti esperti della compressione dei dati nei computer, pad e smartphone che utilizziamo quotidianamente. Ma prima dell’Anno Domini 2014 non c’era un modo per comprimere i dati nel contesto della computazione quantistica. Il primo successo l’hanno ottenuto Aephraim Steinberg e colleghi dell’Università di Toronto. Il gruppo canadese è riuscito per la prima volta a immagazzinare le informazioni quantistiche di tre fotoni in due soli fotoni. Sembra poco, ma è il primo passo per far viaggiare i dati in maniera efficace nelle prossime generazioni di computer quantistici che si alimenteranno da soli, assorbendo il calore ambientale invece che produrlo! Affascinante è la memoria degli ologrammi. Ha a che fare con la memorizzazione dei dati anche un’altro importante esperimento compiuto nel 2014, che riguarda gli ologrammi.
Questi sono il risultato dell’interferenza di due raggi laser identici, di cui uno ha compiuto un percorso libero, mentre l’altro ha incontrato un oggetto. Gli ologrammi permettono di condensare l’intera informazione dell’oggetto tridimensionale su una superficie bidimensionale. In questo modo si può immagazzinare l’informazione in maniera straordinariamente efficiente. Il problema è la lunghezza d’onda della luce laser. Più è corta, meglio si riesce a campionare con precisione l’oggetto, aumentando la quantità di informazione ricavabile con questo metodo. Ma realizzare ologrammi con laser di lunghezza d’onda molto corta è veramente arduo. Alexander Khitun e altri fisici dell’Università della California sono stati i primi a realizzare l’impresa nel 2014, riuscendo a memorizzare dati usando tecniche olografiche con luce di lunghezza d’onda minore rispetto a quella visibile. Ecco le fibre ottiche “disordinate”. La luce è la protagonista di un’altra grande scoperta targata AD 2014. Grazie alle fibre ottiche e in particolare a quelle “disordinate”. Più il materiale con cui si costruiscono le fibre ottiche è disordinato, cioè disomogeneo e impuro da un punto di vista chimico, peggiore sarà la qualità delle immagini trasportate dalle fibre stesse. Ma un gruppo di fisici statunitensi guidati da Arash Mafi ha scoperto che, organizzando opportunamente il “disordine” di una fibra ottica, si possono ottenere immagini di qualità superiore a quella delle migliori fibre ottiche attualmente in commercio. La scoperta apre la via per l’applicazione della tecnica usata dal team americano per ottenere imaging di altissima qualità a scopo soprattutto medico e biologico. Per quanto riguarda la fisica fondamentale, Physics World inserisce nella sua lista un esperimento “magnetico” effettuato da Shlomi Kotler, Nitzan Akerman, Nir Navon, Yinnon Glickman e Roee Ozeri del Weizmann Institute of Science. Il gruppo israeliano è riuscito per la prima volta a misurare l’interazione magnetica tra due singoli elettroni.
Le proprietà magnetiche dell’elettrone sono note da quasi un secolo, ma il magnetismo tra due elettroni non era mai stato misurato prima, perché è estremamente debole rispetto alle altre forze che agiscono tra le due particelle, per esempio la repulsione elettrostatica. Per misurarne l’interazione magnetica occorre che i due elettroni siano molto distanti, il che però rende gli effetti magnetici ancora più modesti. I ricercatori israeliani hanno risolto il problema studiando elettroni legati a distanza tramite il fenomeno dell’entanglement quantistico. Il 2014 si chiude con una nota fantascientifica. Se i raggi traenti luminosi di Star Trek non sono ancora realtà, Christine Démoré e Mike MacDonald dell’Università britannica di Dundee ne hanno realizzato un analogo “acustico”. I due fisici hanno realizzato due particolari sorgenti di ultrasuoni. I fronti d’onda curvi prodotti da queste sorgenti interagiscono in modo tale che, incontrando un oggetto lungo il loro percorso, gli conferiscono una quantità di moto rivolta in direzione delle sorgenti stesse. Nasce la doccia sonica per le nostre pulizie? Chissà! Questa tecnica potrà trovare applicazioni soprattutto in campo medico, specialmente per trasportare opportunamente il principio attivo di un farmaco all’interno dell’organismo. Oggi nessuno mette in dubbio che, per gli abitanti del pianeta Terra, tra gli elementi e i composti chimici noti, l’acqua rappresenti il bene più prezioso per la nostra esistenza. Nonostante questa indiscussa importanza, sull’origine del prezioso elemento le idee scientifiche non sono affatto chiare. A lungo aveva tenuto banco l’ipotesi che prevedeva un’origine endogena, cioè uno scenario in cui l’acqua terrestre fosse tutto sommato quella che era dispersa nei materiali presenti nella zona in cui, quattro miliardi e mezzo di anni fa, si stava formando la Terra. Nessun bisogno di scorte successive, dunque, se non in misura davvero minima. L’obiezione più pesante a questo scenario è sempre stata quella che chiama in gioco le elevate temperature che caratterizzarono i processi di aggregazione alla base della formazione della Terra bombardata incessantemente da asteroidi e comete: vaporizzando e disperdendo il prezioso elemento, il suo accumulo nelle quantità attuali non sarebbe stato possibile. L’obiezione è indubbiamente importante. Potrebbe, però, essere elusa se si mostrassero corrette le conclusioni di un team di ricercatori del Woods Hole Oceanographic Institution pubblicate a fine Ottobre 2014 su Science. Secondo lo studio, basato sull’analisi isotopica di meteoriti provenienti dall’asteroide Vesta studiato dalla sonda Dawn, la composizione di questi materiali è molto simile a quella di alcune rocce terrestri e a quella delle condriti carbonacee, una tipologia di meteoriti ricca d’acqua. Questo ha portato i ricercatori a sostenere che l’acqua terrestre probabilmente si sia accumulata fin dai primi momenti della formazione del pianeta, assieme all’accumulo delle rocce, grazie proprio all’apporto di questi materiali. Insomma, insieme al fuoco degli impatti cosmici. La Terra, insomma, si sarebbe formata come un corpo bagnato con acqua sulla sua superficie rovente. Se, però, mettiamo in conto che, ai primordi della sua vita, il Sole era più caldo e attivo di quanto non lo sia ora, i giochi si riaprono nuovamente. Questo, infatti, sposterebbe inevitabilmente più in là la distanza limite in grado di garantire che i materiali potessero essere sufficientemente ricchi d’acqua. Avremmo insomma comunque bisogno, per il benefico rifornimento d’acqua terrestre, di dover chiamare in causa un’opportuna fonte esterna e un meccanismo sufficientemente plausibile. Con l’aumentare delle nostre conoscenze sulle tormentate fasi iniziali dell’esistenza della Terra e la scoperta non solo di un periodo d’intenso bombardamento cosmico, ma anche del suo sgradevole persistere, fortunatamente con frequenza ed energie di gran lunga inferiori, il meccanismo degli impatti poteva rappresentare una modalità estremamente plausibile per l’apporto dell’acqua sul nostro pianeta.
Tra i proiettili più gettonati per rivestire questo ruolo di “innaffiatoi” cosmici vi erano, ovviamente, le comete. La loro natura di “palle di neve sporca”, secondo il modello suggerito nel 1950 da Fred Whipple, li rendeva gli oggetti celesti ideali per quel provvidenziale rifornimento. Occorreva però verificare che i ghiacci che le componevano fossero compatibili con l’acqua dei nostri oceani. Una verifica che doveva fondarsi sulla composizione stessa del prezioso elemento, valutando cioè quali isotopi di Idrogeno fossero coinvolti. Nell’acqua terrestre, infatti, ogni 6700 atomi di Idrogeno che, uniti all’atomo di Ossigeno, compongono la molecola del prezioso elemento, si trova un atomo di Deuterio, sostanzialmente un atomo di Idrogeno il cui nucleo contiene anche un neutrone. Una firma chiara e leggibile per individuare univocamente l’acqua del nostro pianeta Terra. Sfortunatamente le osservazioni da terra dei rapporti tra Deuterio e Idrogeno nelle chiome cometarie aveva sempre dato risultati incompatibili troppo alti. Sull’affidabilità di tali osservazioni, però, vi erano grosse ombre. Osservare le chiome cometarie attraverso un’atmosfera ricca di vapore d’acqua, non è mai stato un lavoro semplicissimo. L’occasione di scavalcare il fastidioso filtro dell’atmosfera si presentò nel 1986, in occasione del ritorno della cometa di Halley. Tra le numerose sonde lanciate per l’occasione, vi era anche la nostra mitica Giotto, costruita e gestita dall’ESA e destinata ad entrare nella storia come prima missione europea nello spazio profondo. Volando nella coda della cometa, gli strumenti di Giotto appurarono che l’acqua della 1P/Halley aveva un rapporto D:H (Deuterio/Idrogeno) ben più elevato, pari ad almeno il doppio di quello dell’acqua terrestre. L’individuazione delle comete come portatrici dell’acqua sulla Terra cominciò così a vacillare. Era però solo l’inizio di una intrigante altalena di risultati che avrebbero reso sempre più enigmatica l’origine cometaria dell’acqua terrestre. Dopo la Halley, infatti, vennero prese di mira altre comete per misurarne il valore del cruciale rapporto D:H, con risultati molto contrastanti. Nel 2011 il telescopio spaziale Herschel dell’ESA osservò la cometa 103/P Hartley 2, misurando un valore di quel rapporto davvero molto simile a quello dei nostri mari. Poiché ad analoga conclusione portavano anche le osservazioni della cometa 45P/ Honda-Mrkos-Pajdušáková, l’idea del rifornimento cometario riprese forza. Cominciò altresì a diventare evidente che non si poteva fare di tutte le comete un innaffiatoio cosmico terrestre a nostro futuro uso e consumo! Era piuttosto chiaro che le comete caratterizzate, come la Halley, da un periodo orbitale maggiore e provenienti dunque dalla più esterna Nube di Oort non potevano essere chiamate in causa per l’acqua terrestre: il rapporto isotopico Deuterio/Idrogeno che le caratterizzava era troppo elevato. Molto più promettenti apparivano invece le comete provenienti dalla Fascia di Kuiper più interna del Sistema Solare. In particolare si vedevano di buon occhio le cosiddette comete della Famiglia di Giove, oggetti che, in occasione del loro passaggio nella zona planetaria, erano stati catturati dalla potente Gravità del gassoso Pianeta gigante. Dato che a questo nutrito gruppo di comete appartiene anche la 67P/Churyumov-Gerasimenko, obiettivo del recente storico attracco cometario della missione Rosetta, si attendevano con ansia i dati che la riguardavano. Nei giorni scorsi, finalmente, sono stati pubblicati su Science i risultati delle misurazioni del fatidico rapporto D:H e le carte in tavola sono state nuovamente rimescolate. I dati raccolti dallo strumento ROSINA (Rosetta Orbiter Spectrometer for Ion and Neutral Analysis) hanno infatti indicato che l’acqua della cometa 67P contiene tre volte più Deuterio di quella terrestre. Il rapporto è persino più elevato di quello che caratterizza tutte le comete provenienti dalla Nube di Oort finora esaminate. I dati pubblicati dal team coordinato da Kathrin Altwegg dell’Università di Berna, sono stati ottenuti dalle rilevazioni dello spettrometro DFMS, 50 spettri raccolti tra i primi giorni di Agosto e i primi giorni di Settembre 2014. “Questo sorprendente risultato – rivela Kathrin Altwegg – potrebbe suggerire origini differenti per le comete della Famiglia di Giove indicando che probabilmente si formarono entro un intervallo di distanze molto più ampio di quanto abbiamo finora pensato. I nostri dati, inoltre, ci portano ad escludere che tali comete contengano esclusivamente acqua come quella degli oceani terrestri, offrendo dunque più consistenza ai modelli che chiamano in causa gli asteroidi quali principali responsabili”. In tal caso, beviamo acqua cosmica asteroidale! Tali modelli vantano già a loro favore il fatto che la composizione condritrica di un gran numero di asteroidi orbitanti tra Marte e Giove li rende potenzialmente ricchi di acqua con il giusto rapporto isotopico. A questo si aggiunga che recenti sviluppi del cosiddetto Modello di Nizza, lo scenario che descrive la dinamica della formazione del nostro sistema planetario, prevedono l’importante ruolo giocato dalla migrazione dei pianeti giganti. Un colossale Ultimo Viaggio nel Sistema Solare che, come contemplato nello scenario del cosiddetto Jupiter Grand Tack (la Grande Virata di Giove), avrebbe sconvolto non la Terra di Mezzo di Bilbo Baggins, bensì la popolazione asteroidale dirottandone parte verso le regioni più esterne e parte verso le regioni più interne, Terra compresa. I meccanismi dinamici, insomma, sarebbero efficaci, come pure la corretta ricetta isotopica degli oggetti coinvolti in quel violento carosello spaziale in definitiva responsabile anche della nostra stessa esistenza. Chi si aspettava, dunque, che l’incontro ravvicinato con la cometa potesse sciogliere una volta per tutte la diatriba riguardante la fonte dell’acqua terrestre, dovrà mestamente accantonare le sue attese anche nel 2015. Anche perché, come suggerito dall’ESA, anziché chiarire i molti dubbi, Rosetta ha finito col gettare benzina sul fuoco nell’annoso dibattito sull’origine della nostra acqua. Mentre
i cervelli italiani sono sempre più in fuga. Anche e soprattutto quando hanno idee vincenti. I cervelli stranieri, al contrario, non vengono in Italia. Anche quando avrebbero i soldi per pagarsi da soli le loro ricerche. L’esito della selezione dei progetti di giovani ricercatori (early-career top researchers) meritevoli di essere finanziati anche con 2 milioni di euro ciascuno, reso pubblico nei giorni scorsi dall’European Research Council, non lascia adito a dubbi o giustificazioni politiche. L’Italia ha molti bravi ricercatori e scienziati formati con i soldi pubblici delle tasse dei contribuenti. Ma questi bravi ricercatori, se possono, se ne vanno via per sempre, perché il Belpaese non offre loro l’opportunità di realizzare né i loro programmi scientifici né il loro sogno imprenditoriale tecnologico. Per la serie: “la navetta spaziale privata me la vado a costruire in Nuovo Messico o in Cina!”. Ma, al di là di ogni antifona, è sufficiente lasciar parlare i dati che sono chiarissimi. L’ERC ha selezionato 328 progetti presentati da “early-career top researchers”, dai migliori ricercatori all’inizio della loro carriera, attribuendo loro, complessivamente, 485 milioni di euro. È la settima edizione di questa iniziativa. La selezione è stata durissima. Il 90 percento delle 3.273 proposte presentate è stato scartato e solo una ristretta élite ha dunque ottenuto un ricco paniere di fiducia. Ciascuno dei vincitori spenderà il suo “grant” nell’istituzione scientifica che ha indicato, anche fuori dal Belpaese. Ebbene, nella classifica per nazionalità dei vincitori l’Italia, cioè gli Italiani, è come al solito in ottima posizione. Con 28 “grant” vinti, il Belpaese è secondo solo alla Germania, che con 68 vincitori fa la parte del leone, ed alla Francia con 36 premiati. Quasi commovente è il numero molto piccolo di vincitori britannici, appena 13. Un segnale molto positivo è che l’Italia vanta un numero di donne vincitrici decisamente alto (18). In termini assoluti le ricercatrici italiane premiate sono seconde solo alle tedesche (19). Ma in termini relativi le donne italiane sono di gran lunga le prime: il 64 percento degli Italiani premiati sono di genere femminile (18 su 28), contro il 28 percento (19 su 68) dei tedeschi. Non mancano però le dolenti note. Terza per numero di ricercatori premiati, l’Italia risulta nona per numero di ricercatori ospitati, appena 11. Preceduta nell’ordine  da Germania (70 vincitori l’hanno scelta come sede delle proprie ricerche), Gran Bretagna (55), Francia (43), Olanda (34), Israele (27) e Spagna (20). Poi viene l’Italia, alla pari con Paesi molto più piccoli come Austria e Danimarca. Incredibile è la performance della Gran Bretagna, da ottava per numero di vincitori a seconda per numero di vincitori ospitati, e dell’Olanda. Anche la Spagna ospita quasi il doppio dei vincitori dell’Italia. Il confronto tra questi due insiemi di dati, la nazionalità dei ricercatori vincitori e i Paesi che li ospiteranno, è  decisamente disarmante per il nostro Belpaese dei sogni di crescita e di gloria! L’Italia ha infatti il bilancio di gran luna più negativo: vanta 28 vincitori ma ospita solo 11 premiati (un delta di 17). La Germania, pur avendo un altro numero assoluto di vincitori, ha un bilancio leggermente positivo (+2), mentre la Gran Bretagna ha una capacità di attrazione davvero straordinaria perchè con appena 13 vincitori ha 55 ospiti, con un saldo molto positivo (+42). Ma anche il confronto con la capacità di attrazione degli altri Paesi, boccia l’Italia di Renzusconi ed associati. In Germania andranno 28 vincitori stranieri, in Olanda 16, in Danimarca 9, in Spagna 6. In Italia appena due! Davvero il nostro Belpaese non ha più alcun “appeal” nonostante l’Expo2015. Se poi consideriamo i vincitori che restano nel loro Paese, il quadro è ancora più netto. Restano in Germania 41 ricercatori vincitori su 68, cioè nel loro Paese, pari al 60 percento. In Spagna 14 su 19 (il 74 percento). In Francia, addirittura, 29 su 36, cioè oltre l’80 percento. Gli Italiani che invece hanno scelto l’Italia sono solo 9 su 28, appena il 32 percento. Due giovani “top researchers” Italiani su tre, insomma, vanno via, fuggono dall’Italia in crisi, evidentemente senza Futuro. L’insieme di questi dati dimostra l’assunto di partenza. L’Italia conferma di avere ottimi ricercatori, anche tra i giovani. E un numero di ottime ricercatrici, rispetto a quello di altri Paesi, risulta addirittura eccezionale. Ma queste bravi ricercatrici e questi bravi ricercatori che scelgono, probabilmente perché non hanno altra scelta, di andare all’estero per realizzare i loro progetti, sono in numero drammaticamente superiore alla normale e positiva migrazione dei cervelli di altri Paesi. Come dire che gli scienziati italiani resteranno all’estero per lavorare e formare una famiglia! Al contrario, la capacità di accogliere in Italia ricercatori dall’estero e far trovare loro un ambiente adatto, è oggi drammaticamente più bassa degli altri Paesi europei. E non vale evocare solo la contingenza economica e la bassa natalità italiana frutto di scellerate politiche contro la Famiglia naturale e la Vita (divorzio, aborto, eutanasia). La Spagna è nelle nostre stesse difficoltà economiche, ma ha numeri meno drammatici. È l’ambiente complessivo italiano, in primo luogo l’asfissiante burocrazia, la corruzione politica e la sindrome da fortezza assediata, a risultare respingente. Così il Belpaese cattolico che ha fondato la Scienza sperimentale con Galilei e le Università migliori del mondo, molte delle quali dirette da religiosi, viene bocciato dalla Storia. Il risultato è che agisce una sorta di Robin Hood al contrario: preziose risorse umane, come gli economisti definiscono le persone capaci e qualificate, vengono sottratte a un Paese relativamente povero e regalate a Paesi più ricchi. Non è questo un “spread” altrettanto significativo dell’indice finanziario il cui andamento viene giudicato decisivo per le sorti di una Nazione? Fino a quanto potremo sopportare questo continuo drenaggio di cervelli italiani in fuga? Israele vanta ben 27 vincitori, quarto Paese assoluto, uno in meno dell’Italia. Un risultato davvero significativo, frutto di una politica della ricerca molto attiva che ha portato il piccolo Stato ebraico a dotarsi di centri di ricerca di assoluta eccellenza anche con investimenti ingenti, pari quasi al 5 percento del Prodotto interno lordo! E i risultati si vedono. Tutti i 27 vincitori israeliani resteranno nel loro Paese dove trovano condizioni invidiabili. Ma nessuno straniero ha scelto un’istituzione scientifica israeliana per svolgere la sua ricerca d’avanguardia. Il Paese soffre di una certa chiusura con cui, pur dall’alto delle loro straordinarie performance, scienziati e politici israeliani dovranno confrontarsi. Come lavora la Scienza accademica? Non come la politica ricattata dagli speculatori. La “peer review” infatti lascia sempre un’impronta decisiva nella vera Scienza. Le riviste scientifiche, con i loro SI e con i loro NO determinano le sorti delle ricerche che vengono loro sottoposte ogni giorno, filtrano quello che dominerà il panorama scientifico e di cui parleranno i giornali nei mesi e negli anni successivi, e condannano all’oblio i frutti di altre ricerche giudicate non attendibili. Perché non tutto può essere pubblicato, o meglio, non tutto può venire pubblicato nelle pagine delle maggiori riviste di scienza del mondo. Funziona davvero questo metodo? La discussione nel mondo scientifico non manca di infiammare gli animi, ma secondo un nuovo studio pubblicato recentemente su PNAS pare proprio di SI. Secondo gli autori, Kyle Siler, Kirby Lee e Lisa Bero, i cosiddetti “gatekeeper”, quelli cioè che mettono in atto i meccanismi di peer review, sarebbero in grado di valutare nella maggior parte dei casi l’effettiva qualità dei lavori che vengono loro sottoposti. Fare bene però, come sostengono gli Autori, non significa certo essere perfetti. Vi sono infatti dei casi in cui articoli risultati esclusi si sono rivelati alla prova dei fatti delle scoperte scientifiche di prim’ordine o con un numero elevatissimo di citazioni, ma nonostante queste eccezioni, di norma pare che la macchina funzioni, per lo meno per la maggior parte degli studi considerati. Per permettersi quest’affermazione i ricercatori hanno interrogato un set di dati composto da 1.008 studi, 946 dei quali rifiutati e 62 accettati dalle tre riviste mediche più in vista: Annals of Internal Medicine, British Medical Journal e The Lancet. Inoltre, 757 dei 946 articoli rifiutati erano stati poi pubblicati su altre riviste con un “impact factor” minore. In particolare gli scienziati hanno esaminato quante citazioni hanno raccolto gli articoli pubblicati in una di queste tre riviste in dieci anni, dal 2003-2004, anno di pubblicazione degli articoli analizzati, fino al 2014, e quante invece quelli rifiutati e pubblicati in altre riviste. Lo scopo dello studio era di esaminare il grado di accuratezza attraverso cui gli “editor” e i “peer reviewers” prendevano le loro decisioni. È il giudizio dei “pari” a contare. Il primo aspetto emerso è che i 14 articoli più citati del “dataset” erano in realtà stati rifiutati dalle tre riviste ad alto impact factor, e 12 di questi addirittura a livello di “desk”, erano cioè stati reputati già a un primo esame di una qualità tale da non permettere loro di passare alla peer review vera e propria. Secondo gli Autori però questo fatto curioso si spiega in maniera semplice: il meccanismo dimostra delle falle quando si trova ad analizzare articoli considerati “non convenzionali”. Gli “uncommon work”, quelli che si rivelano spesso i maggiori portatori di innovazione e rivoluzione dei paradigmi scientifici sono, precisano gli Autori, particolarmente vulnerabili ad essere rigettati dalle riviste, già in una primissima fase. Questa spiegazione però sembra a tratti contrastare con un altro aspetto emerso nella ricerca e cioè che quello che importa ai “gatekeepers” è essenzialmente valorizzare la novità, purché questa sia scientificamente corroborata. E proprio la mancanza di novità è, sempre secondo quello che raccontano gli Autori dello studio, la ragione per cui i 14 articoli pluricitati sono stati in realtà rifiutati dalle tre grandi riviste e dai loro peer reviewer. “Perché anche la percezione della novità può solo essere relativa” si legge nello studio, come hanno testimoniato il Premio Nobel per la medicina Rosalyn Yalow, a cui Science rifiutò una pubblicazione, il Premio Nobel per l’economia George Akerlof e addirittura, un riferimento che si ritrova proprio nel paper, la famosa mamma di Harry Potter, J.K. Rowling. La macchina della peer review pare funzioni bene anche perché si sa correggere. Secondo i risultati ottenuti esaminando la relazione fra quando un articolo è stato pubblicato e il numero di citazioni ricevute, i ricercatori hanno notato che se un editor o un reviewer compie un errore di valutazione, nel sopravvalutare o nel sottovalutare un contributo, il sistema in realtà provvede autonomamente a dare a Cesare quello che è di Cesare. “Se uno dei tre grandi giornali rifiuta per sbaglio un articolo di valore, il lavoro in questione finisce infatti comunque per apparire in poco tempo su un’altra importante rivista. In ogni caso gli errori sono inevitabili e non esiste – precisano gli Autori – un revisore che possa garantire senza ombra di dubbio una valutazione perfetta ed efficiente. Inoltre, distinguere pessimi articoli è molto più semplice rispetto a individuare quelli davvero eccellenti”. Sebbene il sistema di revisione si sia rivelato negli ultimi anni un modo valido per determinare se un contributo è un buon articolo scientifico oppure no, si rivela in realtà meno efficiente quando si trova per le mani contributi che potrebbero rivelarsi davvero una svolta per la scienza. Insomma, “la complessità della scienza – si legge nello studio – è ancora oggi un limite per le abilità predittive anche del migliore fra i peer reviewer”. Nazione ben strana è la nostra che avrebbe già dovuto raggiungere le altre stelle ma non riesce a mettere in totale sicurezza antisismica le case degli Italiani. “Earthquake Warning!”. È illuminante il caso offerto al dott. Alessandro Amato dell’Ingv da due notizie, una pubblicata in California e l’altra in Italia.
“Parlavano quasi della stessa cosa – osserva lo scienziato – ma con approcci diametralmente opposti. Da un lato il piano di un sindaco di una città altamente sismica per la messa in sicurezza di un territorio prima del prossimo forte terremoto, dall’altro la notizia della vendita al pubblico per meno di 100 euro di un sistema di “allarme sismico” che garantirebbe ai cittadini di essere avvisati prima dell’arrivo delle onde sismiche più forti”. Riuscite a indovinare qual è la notizia italiana e quella californiana? “
Il Piano del Sindaco di Los Angeles, Eric Garcetti, preparato da un team di esperti dopo un anno di lavoro – rivela Alessandro Amato – pone le basi per un significativo aumento della sicurezza dei cittadini durante e dopo un sisma, e si basa su tre azioni fondamentali: rinforzare gli edifici; irrobustire il sistema di rifornimento dell’acqua; migliorare il sistema delle telecomunicazioni. Il primo punto include l’obbligo di adeguare o demolire gli edifici che non rispettino le norme antisimiche, gli altri due riguardano le criticità maggiori individuate per Los Angeles in caso di forte terremoto”. Il Piano di Garcetti segue un’analoga iniziativa avviata nel corso degli ultimi anni dalla municipalità di San Francisco per la difesa dai terremoti. “Nell’Ottobre scorso, infatti, dopo la pubblicazione dell’elenco degli edifici che non erano stati messi a norma antisismica come veniva imposto da una legge del 1992, il direttore del Department of Building Inspection Tom Hui ha apposto un cartello di “Earthquake Warning” sugli edifici incriminati, per segnalarne a tutti la pericolosità e stimolare un comportamento virtuoso del proprietario”. Se la immagina una cosa del genere fatta da un Sindaco italiano o da un equivalente nostrano di Tom Hui, come un funzionario della Protezione Civile? “Io no, pur essendo chiaro che secondo il nostro ordinamento è proprio il Sindaco – ricorda Alessandro Amato – il primo responsabile di Protezione Civile e quindi della sicurezza dei cittadini. Il Piano di Garcetti, infatti, ha un respiro trentennale, ben oltre quello di un mandato o due da Primo Cittadino. E da noi, si sa, si fa fatica a ragionare in tempi che vanno al di là di un mandato elettorale”. Ma veniamo all’Italia. “I pochi tentativi di operare in questo senso si sono sempre infranti in resistenze, proroghe, pastoie burocratiche, interessi di categoria, e siamo ancora punto e capo (ad esempio l’OPCM n. 3274 del 2003, realizzata sull’onda emotiva del terremoto di San Giuliano del 2002 e la morte di un’intera classe di bambini, che prevedeva la verifica obbligatoria degli edifici di interesse pubblico entro cinque anni). Da qualche giorno intanto passa insistentemente in televisione la pubblicità di uno strumento stile “salva-vita”, che aiuterebbe a ridurre il rischio sismico, allertando in caso di scossa sismica. In una pubblicità accattivante si vede una coppia di persone anziane (ma non troppo, altrimenti le cose si complicherebbero un bel po’) a cui un figlio spiega al telefono il funzionamento del sistema di allerta sismico. Il sistema punta sulla sua semplicità e sul basso costo (99 euro) e si basa sul fatto che le onde più energetiche, le onde S, arrivano dopo le P. Il sistema dovrebbe venire attivato dalle P e avviserebbe quindi prima delle S. Sul sito della ditta che lo produce – osserva lo scienziato – si dice che “l’intervallo di tempo tra questi due eventi può raggiungere anche decine di secondi”, ma quel “può” fa venire più di un dubbio, come spiegato sotto. Sullo stesso sito non viene specificata una soglia di sensibilità. In un recente articolo che contiene un’intervista all’Amministratore Delegato di Guardian, Maurizio Taormina, si parla di una soglia di M3-3.2, ma non essendo specificata la distanza dal terremoto questa indicazione non ha alcun senso”.  A cosa servirebbe? “La ditta che lo produce – osserva Amato – parla in modo generico di allertamento. Si sostiene che “una volta scattato l’allarme le persone hanno il tempo necessario per evacuare l’edificio o di mettersi al riparo da eventuali crolli. Si tratta di pochi attimi ma, in caso di eventi sismici, possono fare la differenza tra salvarsi o no”. Le persone che me lo hanno segnalato (amici e parenti) – prosegue Amato – dopo aver visto la pubblicità hanno tutti dichiarato che se fossero avvisati dallo strumento si precipiterebbero fuori dall’edificio. Ho dovuto loro spiegare alcuni concetti, non chiari a un non-sismologo”. E cioè? “La storia sismica italiana insegna che i terremoti causano i danni e le vittime in prossimità dell’epicentro, dove la differenza di tempo tra le S e le P è dell’ordine di un paio di secondi (altro che decine!)”. Un esempio? “Il terremoto del 6 Aprile 2009 a L’Aquila registrato al sismometro AQU dell’Ingv, ubicato in prossimità della città, nel Forte Spagnolo. L’onda S, quella più energetica, arrivò meno di 2 secondi dopo la P. Lo stesso discorso vale per le aree danneggiate dai terremoti emiliani del 2012, del Molise del 2002, dell’Umbria-Marche del 1997 e così via: danni seri entro una ventina di chilometri dall’epicentro, tempi S-P di pochissimi secondi. Nei casi come quello di L’Aquila – avverte lo scienziato – peraltro è chiaro che chi abita nell’area epicentrale di un terremoto di magnitudo 6, le onde P le avverte da solo, e non ha certo bisogno di un avvisatore. Anche per la soglia 3-3.2 di cui si parlava sopra, vale lo stesso discorso, se come probabile si intende in prossimità dell’epicentro. Provate a chiedere agli Aquilani, o agli abitanti del Modenese dove proprio poche ore fa (alle ore 8:01 del 12 Dicembre 2014) un terremoto di M3.2 è stato ben avvertito fino a oltre 30 km dall’epicentro. In caso di un terremoto più lontano (ad esempio lo stesso terremoto di L’Aquila registrato a Roma, a circa 90 km di distanza) il tempo di tragitto dell’onda P è di circa 15 secondi, quello della S di circa 26, quindi – rileva Amato – la differenza è di una decina di secondi. Ammesso che l’avvisatore si attivi all’arrivo della prima onda P a Roma, cosa farebbe la signora un po’ sorda della pubblicità alle tre di notte, svegliata (forse) dal marito o forse direttamente dal tremore? L’istinto di scappare di casa è comprensibile e difficilmente correggibile. Eppure è noto che le strutture più deboli durante un terremoto sono le scale, i balconi e i cornicioni, e ciò significa che fuggire in quella manciata di secondi espone le persone a un rischio maggiore di quello che corrono restando dentro casa. Nel terremoto di Lorca in Spagna nel 2011, di magnitudo modesta (5.1), alcune persone morirono in strada proprio per il crollo di balconi e facciate esterne, mentre le case rimasero in piedi. Per casi come questo spagnolo, e per molti altri analoghi, è sempre sconsigliato precipitarsi all’esterno di un edificio durante una scossa”. Per quanto sopra, la pratica consigliata da tutti gli istituti di sismologia e protezione civile è quella del “Drop! Cover! Hold on!”, cioè: “A terra! Copriti! Tieniti forte!”. Al professor Amato non risulta che “simili apparecchiature vengano proposte in altri Paesi sismici, e non credo sia il modo giusto né per salvare vite né per affrontare il problema del rischio sismico in Italia. Oltretutto, affidare la sicurezza a un apparecchio del genere mi pare fortemente diseducativo: potrebbe dare l’idea che con 100 euro si possa risolvere il problema, disinteressandosi della stabilità della propria casa”. In California come in Giappone, nonostante i grandi progressi fatti nella mitigazione del rischio, si ritiene ancora necessario puntare decisamente sulla riduzione della vulnerabilità degli edifici. “Ma noi Italiani – osserva Amato – siamo più furbi e aspettiamo sempre lo sciamano di turno che ci avverta del terremoto in arrivo qualche ora prima, o l’avvisatore sismico che ce lo dovrebbe segnalare addirittura in quella manciata di secondi tra l’onda P e l’onda S. E intanto continuiamo a non preoccuparci del resto. L’accostamento delle due notizie, e dei due approcci alla sicurezza dei cittadini, mi ha fatto venire in mente la sentenza del cosiddetto processo “grandi rischi”, istruito dopo il terremoto di L’Aquila per omicidio colposo nei confronti di sette esperti, accusati di avere indotto alcune vittime del sisma a non uscire dalle case la notte del 6 Aprile.
Nelle motivazioni della sentenza di primo grado, il Giudice definiva la riduzione della vulnerabilità un approccio “impraticabile” e questa necessità “tanto ovvia quanto inutile”. La sentenza Billi – ricorda lo scienziato – aveva condannato i sette esperti per omicidio colposo nei confronti di 29 persone, ma venne poi ribaltata nell’appello lo scorso mese di Novembre.
La frase riportata era stata giustamente criticata da sismologi, ingegneri e giuristi nel merito e anche per il suo effetto deresponsabilizzante. Un po’ come per chi decida di affidare la propria sicurezza a una macchinetta da 100 euro”. Il Dipartimento della Protezione Civile ha inviato una segnalazione all’Autorità Garante della Concorrenza e del Mercato (AGCM) relativa alla pubblicità del dispositivo denominato “Guardian SismAlarm” affinché “verifichi la sussistenza dell’ingannevolezza del messaggio pubblicitario e, nel caso di accertamento, ne inibisca la continuazione”. Secondo il Dipartimento, infatti, nei messaggi pubblicitari diffusi nell’ultimo periodo su vari media mancherebbero “informazioni rilevanti di cui il potenziale consumatore medio avrebbe bisogno per compiere una scelta consapevole, nel momento in cui decide se acquistare o meno un prodotto commerciale di “allarme” sismico. In particolare – spiega il DPC – la pubblicità sembra indurre il consumatore a sentirsi “al sicuro” acquistando il prodotto: i messaggi veicolati sono privi dei necessari riferimenti alle caratteristiche dei forti terremoti che potrebbero colpire l’Italia, in cui il raggio di azione del fenomeno distruttivo è tipicamente limitato, con conseguenti tempistiche di allerta nulle, ovvero di pochi decimi di secondo o pochi secondi, nelle aree epicentrali in cui possono manifestarsi condizioni di pericolo per le persone. Caratteristiche del territorio italiano che non consentono di garantire con certezza che, attraverso l’acquisto di un dispositivo, in qualsiasi situazione si trovi, il consumatore abbia il tempo necessario per evacuare un edificio o comunque mettersi al riparo da eventuali crolli. Al contrario, un messaggio pubblicitario che fornisce una simile certezza secondo il Dipartimento pone il consumatore in una posizione di svantaggio e di vulnerabilità. Infine – sottolinea il Dipartimento – non va mai dimenticato che una vera mitigazione del rischio sismico può essere perseguita seriamente attraverso una matura conoscenza del territorio, una consapevolezza dei comportamenti di auto-protezione da adottare sia quotidianamente che in situazioni di emergenza, la diffusione dei piani di emergenza alla popolazione, la messa in sicurezza degli edifici”. Tempi quantistici bizzarri. “Durante l’adolescenza ero un avido lettore di una rivista intitolata The Unexplained”, rivela Jim Al-Khalili, docente di fisica teorica alla University of Surrey dove tiene anche una cattedra di comunicazione scientifica. Vicepresidente della British Science Association, è anche membro onorario della British Association for the Advancement of Science, membro della Royal Society e Ufficiale dell’Ordine dell’Impero Britannico (OBE). Nel corso della sua attività ha ricevuto il Michael Faraday Prize e il Kelvin Prize. Come comunicatore, Al-Khalili è spesso presente nei canali televisivi e radiofonici britannici, oltre a scrivere per il Guardian e l’Observer. Tra i suoi libri, Buchi neri, wormholes e macchine del tempo (2003). Per Bollati Boringhieri ha pubblicato La fisica del diavolo. Maxwell, Schrödinger, Einstein e i paradossi del mondo (2012) e La casa della saggezza. L’epoca d’oro della scienza araba” (2013). Il suo è un ricordo, nitido, preciso, per aprire le 288 pagine del suo libro “La Fisica Dei Perplessi”, appena tradotta per Bollati Boringhieri nella collana Nuovi Saggi, in libreria con la traduzione di Laura Servidei. L’uso parsimonioso degli aggettivi “strano, bizzarro e misterioso” è indubbiamente una buona regola. Per mettere bene in chiaro che l’argomento è davvero molto interessante, Jim Al-Khalili lo dice subito, e si capisce perché. Il tema è infatti il mondo del molto piccolo dei Quanti, dove le regole del nostro mondo non valgono e, in molti casi, sono completamente rovesciate. Dopo più di un secolo, la Fisica si è ormai abituata a scendere a patti con le implicazioni della Meccanica Quantistica: questa Teoria controintuitiva si è dimostrata solidissima e perfettamente adeguata a descrivere i fenomeni della Natura, costringendo la Filosofia a un rapido aggiornamento! Ma chi, sempre a causa della Probabilità, non ha avuto in sorte l’occasione di studiare Fisica, è piuttosto perplesso come Alice nel Paese delle Meraviglie. E fa bene ad esserlo. In che senso una particella può passare da due parti contemporaneamente? Cosa vuol dire esattamente che un corpo si comporta simultaneamente come un’onda del mare e come un granello di materia? Ma davvero il gatto nella scatola è allo stesso tempo “vivo-e-morto” finché non lo guardiamo? Com’è possibile che agendo su una particella qui sulla Terra si ottenga un effetto simultaneo sulla sua gemella, che ormai naviga oltre Plutone, verso il vuoto interstellar, o ai “confini” dell’Universo, a 93 miliardi di anni luce? Sembra il mondo di Star Trek e Star Wars. Invece è il “nostro” mondo reale, benché ci siano pure il teletrasporto e la velocità di curvatura del Carlo Rubbia Warp Engine che non abbiamo ancora inventato! Questa è la materia ideale per uno straordinario divulgatore come Al-Khalili, perfettamente a suo agio con l’ironia implicita dell’argomento che racconta. Gli apparenti Paradossi della Fisica sono tantissimi. L’importante è farsi accompagnare, con brevi saggi illuminanti, da invitati d’eccezione, come Anton Zeilinger, Frank Close e Paul Davies. È normale essere perplessi di fronte a queste stranezze, ma, in fondo, la cosa più bella è farsele raccontare da chi ne sa, e finalmente capire la Verità. Per chi non pratica il genere, “The Unexplained” era una fanzine piena di avvistamenti Ufo, miti e leggende sul Triangolo delle Bermuda, fantasmi e altri fenomeni paranormali assortiti, sempre molto in voga a Capodanno. Una rivista che negli Anni Settanta del secolo scorso attraversava anche l’infanzia del sottoscritto, grazie alla famosa Barcarella abruzzese del mio carissimo nonno Giuseppe Pallini, rappresentando un tabernacolo di conferme circa la stranezza del mondo, quell’Universo pieno di cose che nessun genio, mai, finora è riuscito a capire. Il meglio di queste riviste stava nelle illustrazioni, nelle fotografie apparentemente scattate con macchine amatoriali, sfuocate, sottoesposte o più semplicemente brutte, impaginate in quadricromia a controprova di apparizioni di ectoplasmi, dischi volanti alieni e mostri di Loch Ness. “Non ho idea se la rivista venga ancora pubblicata – scrive Al-Khalili – di certo non mi è capitato di vederla recentemente, ma la fascinazione del pubblico per ogni sorta di fenomeno paranormale che sembra fuggire a una precisa e puntigliosa classificazione scientifica continua senza sosta. Sembra che molti traggano conforto dalla nozione che esistono ancora zone del nostro mondo resistenti all’inesorabile avanzata della scienza, zone dove la magia, il mistero, e la trascendenza sopravvivono e prosperano. È un peccato che sia così”. Verissimo. Specie quando Tv e giornali sottopongono le menti più deboli, con più o meno eleganza, alla solita girandola di oroscopi radiosi per il 2015, per essere sempre pronti a giurare che l’anno nuovo “sarà l’anno dei Pesci”, magari come gli ultimi dieci, o che “Saturno si opporrà” ai nostri desiderata e sa il ciarlatano cos’altro ci riservano “le stelle”! È frustrante che tutti i successi della scienza nello spiegare e razionalizzare la moltitudine di fenomeni dell’Universo siano considerati scontati, banali, atti dovuti e comunque incapaci di destare la nostra meraviglia e quella dell’economia reale. Anche il grande fisico Richard Feynman non riusciva a capacitarsi della cosa. Perché dannarsi a cercare l’incomprensibile quando è la scienza stessa a offrirci mille interrogativi su quanto ancora non riusciamo a capire o immaginare con la nostra testa? Qualcosa che ci è impossibile razionalizzare utilizzando il linguaggio di tutti i giorni esiste già. E non si tratta di quelle idee vaghe basate su concetti pseudo-scientifici come l’astrologia o le percezioni extrasensoriali. Al-Khalili pensa a una scienza propriamente detta, un campo di studio così pervasivo e fondamentale per la nostra conoscenza della Natura, che costituisce il fondamento di una parte delle scienze fisiche, la Meccanica Quantistica. Da insegnare fin da piccoli. Al-Khalili trova le parole per spiegarla accompagnando il lettore in un reame straordinario dove sembrano esserci gradi di libertà per scegliere più spiegazioni valide agli stessi fenomeni, ognuna delle quali è così sorprendente “da far sembrare i rapimenti da parte degli alieni perfettamente ragionevoli”. Razzie extraterrestri documentate dalle testimonianze dirette dei protagonisti che subiscono il delitto cosmico. Altro che “The Unexplained”. Qui l’inspiegabile è la bizzarria dei fenomeni quantistici. Un tipo di stranezza che sconvolge le nostre misere certezze e che in cent’anni di studi sulla Relatività di Einstein ha acquisito una costruzione matematica meravigliosamente accurata, utile a descrivere la Natura nei minimi dettagli, anche quelli subatomici, dall’Inizio alla Fine. Dalle origini del Cosmo ad Einstein, dall’imprevedibilità al Principio di indeterminazione di Heisenberg, dal subatomico alle teorie della Grande Unificazione. Non manca nulla nella carrellata di storie con esempi pratici per convincere anche i più scettici, compresi i politicanti. La Fisica dei Perplessi è l’incredibile mondo dei Quanti. Non ci credete? Osservate il Sole sotto un’altra luce. È stato progettato per indagare i fenomeni più violenti che avvengono nell’Universo: stelle nere, stelle di neutroni e supernovae sono alcuni dei principali obiettivi del telescopio spaziale NuSTAR della Nasa. Allora perché, oltre questi remoti oggetti, non osservare anche il nostro vicinato inrstellare? Grazie a questa semplice domanda gli scienziati del team di NuSTAR hanno deciso di puntare il telescopio in direzione della stella più vicina, il “nostro” Sole. Ed ecco lo spettacolare risultato della sua prima osservazione della corona solare. Alla ripresa del disco e della bassa atmosfera ottenuta dal Solar Dynamics Observatory (SDO) della Nasa nell’ultravioletto (in rosso-arancio) sono sovrapposte quelle di NuSTAR in verde e blu che svelano la radiazione di alta energia (in verde i raggi X tra 2 e 3 KiloElettroVolt, in blu quelli tra 3 e 5 KiloElettronVolt) emessa dal Sole. A produrla è il gas della corona riscaldato a temperature superiori ai 3 milioni di gradi Kelvin. Una ripresa mozzafiato, da copertina, dal punto di vista estetico e altrettanto emozionante per i fisici solari. La capacità che possiede NuSTAR di osservare, nelle alte energie, la corona solare può essere decisiva per catturare finalmente in azione i “nanoflare”, i mini brillamenti che sono i principali indiziati del riscaldamento della corona solare, nettamente più energetica (magnetica) della superficie del Sole. Per capirsi, qualche milione di gradi Kelvin versus i 6mila del disco. Se da una parte la nostra stella sembra voler ancora conservare gelosamente i segreti dei mini brillamenti, dall’altra è assai generosa, anche in queste ultime ore, di quelli maxi assai più potenti che potrebbero decretare un giorno la Fine del Mondo (cf. film Segnali dal Futuro). L’ultima, di classe X, la più potente esplosione solare nella scala della classificazione di questi eventi nei raggi X, è stata registrata sempre da SDO il 19 Dicembre 2014. Fortunatamente, pochi i problemi sulla Terra e grande, come sempre, lo spettacolo sui Poli, con aurore cangianti e brillantissime. Nel frattempo una nuova tappa è stata conquistata dal progetto Advanced Virgo dell’Osservatorio italo-francese EGO. Il 2014 si chiude, infatti, con l’installazione del primo specchio (beam splitter) che ha il compito di dividere il fascio laser dell’interferometro per la rivelazione delle onde gravitazionali che si trova a Cascina, nella campagna pisana. Lo specchio, con il suo sistema di sospensione e controllo, è stato collocato sul superattenuatore, il sistema di isolamento sismico del dispositivo interferometrico. La costruzione di Advanced Virgo, che ha l’obiettivo di migliorare le prestazioni del rivelatore Virgo, procede così secondo i piani. I gruppi Virgo dell’Infn sono stati protagonisti di questo complesso lavoro di integrazione. Il beam splitter di Advanced Virgo, con i suoi 55 cm di diametro, è il più grande specchio mai realizzato al mondo per un rivelatore di onde gravitazionali. “Dopo che lo scorso Giugno è iniziata la regolazione del sistema di ingresso del fascio laser  (input mode cleaner), l’integrazione del beam splitter segna un altro passo significativo verso il completamento del rivelatore – spiega Giovanni Losurdo, coordinatore del progetto Advanced Virgo – l’installazione è entrata nella fase più delicata, quella dell’integrazione in situ delle componenti sviluppate nei diversi laboratori. Abbiamo appena ottenuto un successo importante, un passo cruciale nel complesso processo di costruzione del rivelatore che sarà completato entro il prossimo anno”. Fulvio Ricci, coordinatore della collaborazione Virgo, rivela che “la Collaborazione Virgo è concentrata al massimo sull’obiettivo di realizzare Advanced Virgo, e questo risultato ci rende ancora più fiduciosi che nel 2016 Advanced Virgo sarà parte del network di rivelatori di seconda generazione e inizierà la presa dati insieme alla coppia di rivelatori americani LIGO”. Con giustificato ottimismo Federico Ferrini, Direttore di EGO, osserva che “passi significativi nell’integrazione del nuovo interferometro si susseguono a ritmo sostenuto: la sfida di completare Advanced Virgo per accenderlo entro la fine del prossimo anno sarà conclusa con successo”. I successi della Fisica italiana parlano una lingua che non conosce crisi. “Alla collaborazione Borexino per essere stati i primi a rivelare i neutrini prodotti nella principale reazione nucleare che alimenta il Sole”. Con questa motivazione la rivista internazionale Physics World ha inserito nella classifica dei dieci risultati scientifici più importanti del 2014 la ricerca, pubblicata lo scorso Agosto su Nature, dall’esperimento per lo studio dei neutrini in attività ai Laboratori Nazionali del Gran Sasso dell’Infn in Abruzzo (Italia). Borexino ha realizzato la prima misura in tempo reale dell’energia della nostra stella, grazie all’osservazione dei neutrini prodotti nella reazione nucleare primaria che avviene nel cuore del Sole. Questa osservazione ha consentito di concludere che l’energia rilasciata oggi al centro della nostra stella è in perfetta corrispondenza con quella prodotta 100mila anni fa. È la prima volta nella storia dell’indagine scientifica del Sole che la sua energia è misurata nel momento stesso in cui viene prodotta. “Questo riconoscimento – rivela Gianpaolo Bellini, scienziato tra i padri di Borexino – premia l’eccellenza non solo dell’esperimento, al quale hanno dato un contributo fondamentale i gruppi di ricerca dell’Infn, ma anche quella dei Laboratori Nazionali del Gran Sasso, una grande infrastruttura con caratteristiche uniche al mondo e un centro di ricerca di prestigio nel panorama internazionale”. È anche iniziato il lungo viaggio del più grande rivelatore ad Argon liquido, il gigantesco cacciatore di neutrini ICARUS del professor Carlo Rubbia, l’esperimento “Re Sotto la Montagna” che nel 2014 ha lasciato i Laboratori del Gran Sasso alla volta del Cern (Organizzazione Europea per la Ricerca Nucleare) di Ginevra. ICARUS T600 dal 2010 ha osservato, sotto il Re degli Appennini, il fascio di neutrini in arrivo dal Cern, dopo un percorso di 730 Km attraverso la crosta terrestre. ICARUS, con un delicato trasporto per mezzo di due convogli eccezionali, è stato trasferito a Ginevra per la manutenzione e l’upgrade delle performance, in previsione di un suo probabile impiego futuro negli Stati Uniti d’America. I fisici lo considerano elemento essenziale, e attualmente insostituibile, per un esperimento con neutrini a bassa energia del Fermilab di Chicago. ICARUS è, infatti, l’unico rivelatore al mondo con più di 600 tonnellate di Argon a funzionare in modo appropriato. La tecnologia di ICARUS, proposta originariamente nel 1977 dal Premio Nobel per la Fisica Carlo Rubbia, che tutt’oggi è portavoce dell’esperimento, rappresenta così un esempio del primato italiano della Fisica Nucleare e Subnucleare (Infn) nel proporre una soluzione originale. La cui validità è stata provata dal successo dell’esperimento ai Laboratori Nazionali del Gran Sasso, che ha mostrato di ottenere una rivelazione precisa di neutrini prodotti artificialmente in acceleratori, come quelli del fascio dell’esperimento CNGS (Cern Neutrinos to Gran Sasso) in attività dal 2006 al 2012. Il dispositivo coniuga così l’originalità dell’idea italiana con la precisione e l’efficienza della realizzazione tecnica. In effetti ICARUS T600 non è un cyborg alla Terminator, bensì è un rivelatore a ionizzazione ad Argon liquido con 600 tonnellate di gas liquefatto. Il sistema di criogenia dell’impianto di purificazione dell’Argon e dell’elettronica di lettura del rivelatore, è unico e originale, ed è stato sviluppato in Italia dalle Sezioni dell’Infn. La tecnica di rilevazione permette di osservare gli eventi ionizzanti nei processi di neutrini o altri eventi rari. Il rivelatore è completamente elettronico, continuamente sensibile e si comporta come un’enorme macchina fotografica tridimensionale che visualizza gli eventi su un volume di 6 metri di larghezza, 18 di lunghezza e 4 di altezza, con la risoluzione del millimetro. Il principio di funzionamento è basato sul fatto che, nell’Argon liquido estremamente puro, gli elettroni liberati da particelle ionizzanti possono essere facilmente trasportati su distanze macroscopiche (metri) da un campo elettrico uniforme, ed essere raccolti da una struttura anodica multifilo collocata alla fine del percorso di deriva. Questa struttura è costituita da tre piani di fili distanti fra loro 3 millimetri (con fili spaziati 3 millimetri) che costituiscono quella che viene chiamata dai fisici “camera a fili”. I segnali raccolti dai circa 52mila fili, elaborati da un complesso sistema elettronico, permettono così la ricostruzione al computer dell’immagine dell’evento subnucleare. “Una delle proprietà più marcanti di questa tecnologia – osserva Carlo Rubbia – è l’estrema purezza dell’Argon liquido che permette di mantenere liberi gli elettroni prodotti, e che si misura in parti per trilione (un trilione è un uno preceduto da ben 12 zeri) equivalenti di Ossigeno residuo dell’aria da cui viene inizialmente estratto l’Argon”. La tecnologia di ICARUS e le sue prestazioni destano pertanto grande interesse nella comunità scientifica mondiale per l’impiego in futuri esperimenti sul neutrino su fasci a breve e lunga distanza, come quello al quale stanno lavorando i fisici al Fermilab di Chicago. Per questa ragione, finita l’attività nei LNGS dove ICARUS ha raccolto alcune migliaia di eventi di neutrino, è stato trasferito al Cern per la messa a punto in preparazione di nuove importanti sfide. ICARUS, una volta uscito dal tunnel del Gran Sasso, al cui interno si trovano i Laboratori Nazionali dell’INFN, ha dovuto effettuare uno stop tecnico di alcune ore in un’area si sosta dell’autostrada, per consentire i lavori di ripristino dell’assetto del tir utilizzato per il trasporto, che era stato ribassato al fine di permetterne l’uscita dal tunnel. ICARUS ha percorso tutta l’Italia, passando per Roma, Genova e quindi Torino. Infine, ha imboccato il traforo del Monte Bianco, oltrepassando così le Alpi per poi arrivare a Ginevra, nei laboratori del Cern. L’Ultimo Viaggio è durato circa una settimana. “Nei giorni precedenti il trasporto, nei Laboratori Nazionali del Gran Sasso si è lavorato per garantire che le operazioni di uscita del rivelatore di ICARUS avvenissero nella maniera più sicura e lineare possibile, nel rispetto della preziosità e delicatezza della camera – spiega Chiara Zarra, coordinatore per le operazioni di movimentazione e trasporto di ICARUS – le straordinarie misure dell’oggetto hanno dovuto fare i conti con la presenza di nuovi grandi esperimenti e con una configurazione della sala particolarmente vincolante, l’assetto dei laboratori sotterranei è infatti molto cambiato rispetto a quando ICARUS ha fatto il suo ingresso nel 2000 ed è quindi stato necessario apportare le giuste modifiche ai numerosi equipment attualmente installati e apprestare idonee misure per garantire la massima sicurezza anche degli altri apparati sperimentali presenti: il margine di manovra è stato infatti molto stretto e la tolleranza durante la traslazione era dell’ordine dei centimetri. È stato fondamentale poter contare sulla simulazione 3D effettuata dal team Cern e, di concerto con lo staff di ricercatori e tecnologi, una squadra di tecnici impiantisti e gruisti specializzati ha presieduto e vigilato sull’intera durata delle varie fasi operative: il lavoro di squadra LNGS-CERN e la cooperazione di tutti, incluse le altre collaborazioni sperimentali, hanno permesso la riuscita dell’operazione e l’inizio del Viaggio”. Avventuroso quanto quello di Bilbo Baggins. I successi dell’avventura scientifica italiana proseguono nello spazio. Il 15 Dicembre di 50 anni fa, dalle coste della Virginia, a Wallops Island (Usa), un satellite di produzione italiana inizia ad orbitare intorno alla Terra. Il nostro è stato il terzo Paese sulla Terra, dopo le grandi potenze di Urss e Usa, a inviare nello spazio un satellite. Nazione ben strana la nostra che avrebbe dovuto raggiungere già le altre stelle! Quello che viene giustamente rivendicato con orgoglio come un record che vide davanti l’Italia agli altri Paesi europei, non è tale da giustificare adeguati investimenti e continuità politico-strategica. Che pena! Eppure l’Italia ha una storia spaziale importantissima, degna di Interstellar, che inizia negli Anni ‘40 del XX Secolo con gli studi sulla propulsione portati avanti dall’Aeronautica militare di cui Luigi Broglio, il padre del progetto San Marco, così era denominato il satellite, fu parte fondamentale. Una storia fatta anche dell’appassionato appello alla condivisione europea per la ricerca e la ricerca spaziale, che ebbe in Edoardo Amaldi il suo più fervente sostenitore e portò alla creazione dell’ESRO, la European Space Research Organizzation, da cui nacque poi l’attuale Agenzia Spaziale Europea (ESA). Il progetto San Marco prevedeva anche la creazione di una base di lancio italiana, in Kenia a Malindi, con una piattaforma marittima che vide il lancio dei satelliti voluti da Broglio fino al 1988. Spediti nello spazio grazie al vettore americano Scout, in attesa che fosse realizzato il lanciatore italiano Vega. Quel Vega che ebbe la forza di diventare un programma europeo solo nel 1999 e che viene rappresentato come il successo italiano delle ultime tre ministeriali dell’Esa. Mentre i successi spaziali russi con i vettori Proton e Angara molto più appetibili nonostante le folli sanzioni economiche occidentali contro la Santa Russia (http://rt.com/news/218171-proton-astra-2g-satellite/), oggi non sono secondi ad alcuno! Il nostro, di fatto, è un Belpaese dei sogni che sembra andare avanti per strappi e transizioni gravitazionali, senza quella capacità strategica di lunga durata che auspicava Giorgio La Malfa. All’epoca valeva per il CNR, al quale faceva riferimento il Piano Spaziale Nazionale. Oggi vale per l’ASI che ne è una derivazione. Gli strappi sono rappresentati dai molti successi, da Sirio nel 1977 a Italsat F1 e F2 agli inizi degli Anni ’90, fino alla Stazione Spaziale Internazionale, vissuta con doppio ruolo, nazionale e come Paese dell’ESA, senza dimenticare il meritato riconoscimento internazionale della nostra Scuola di Astronomia delle Alte Energie, ottenuto grazie ad un progetto nazionale come BeppoSax, portato poi avanti dai telescopi AGILE, XMM e Integral con l’ESA e Swift e Fermi in bilaterale con la Nasa. E naturalmente le molte missioni interplanetarie europee (Rosetta, Mars Express, Venus Express) in trilaterale come la missione Cassini condivisa con Nasa e ESA, o in bilaterale come sulla sonda Dawn della Nasa che si sta avvicinando al pianetino Cerere. Tutto questo sforzo mette insieme scienza e capacità industriale italiana, come per l’osservazione della Terra, anche questa frutto della scuola di eccellenza italiana sostenuta in programmi ESA come ERS 1 e 2, o nazionali come SRTM e Cosmo Skymed. Tutto frutto di scelte avvenute tra la fine degli Anni ’80 e il primissimo inizio degli Anni 2000. Dopo, pare

che lo Spazio Italiano sembra essersi arrestato, se si esclude l’interesse industriale e militare per Cosmo SkyMed e quello, sempre più militare ma non ancora industriale privato, per il vero volo umano tra le stelle. Che pena! Alla fine degli Anni ’90 la quota dedicata alla scienza nel bilancio ASI era del 20 percento. Negli primi anni di questo decennio è scesa al 4 percento. La scienza spaziale italiana di fatto si esaurisce nei fondi destinati all’ESA. Ma la scienza è cultura, è conoscenza, è libertà, è sovranità, è crescita del PIL. Per un Belpaese come l’Italia che, in pieno Expo 2015, vuole restare evoluto, non si può non investire di più nella sua crescita culturale, scientifica e tecnologica. Non tutto può esaurirsi nell’Europa dei burocrati, non tutto può esaurirsi nel solo aspetto politologico. La liberalizzazione dell’impresa spaziale privata resta in Italia la priorità assoluta, prima delle tasse. Passeggiando per i corridoi degli stabilimenti della Thales Alenia Space a L’Aquila sembra di trovarsi in una realtà che stona con il resto delle aziende e industrie, o almeno quelle che rimangono, della Città Capitale della Regione Abruzzo. Eccellenze tecniche, strumenti all’avanguardia, commesse provenienti da tutto il mondo. L’obiettivo è lo spazio, più precisamente l’orbita geostazionaria della Terra, ma non solo. È passato ormai poco più di un anno dall’inaugurazione del nuovo sito industriale Thales Alenia Space di L’Aquila e quasi sei anni da quel terribile 6 Aprile 2009 quando la città venne devastata dal sisma. Quel giorno, o poco dopo, i dirigenti dell’azienda e gli azionisti decisero non solo di non abbandonare la città e i propri dipendenti, ma di fare di più con la razionalizzazione della produzione, spostando tutta la componentistica su un unico sito, proprio quello aquilano. Dodici mesi dopo l’inaugurazione, che tanto ha significato per i 307 dipendenti e per il tessuto economico aquilano, è stato presentato il libro “L’Aquila nello Spazio, il cuore della tecnologia satellitare”, edito da Mondadori Electa. Si tratta di un volume, testo e foto, scritto da un gruppo di dipendenti e da chi ha lavorato decenni nell’azienda. Il libro racconta il cammino della Città delle Aquile nell’alta tecnologia, dalla nascita del polo elettronico all’evoluzione delle tecnologie spaziali, dal tragico terremoto alla realtà del nuovo stabilimento, celebrando la scelta e l’impegno della Thales Alenia Space e dei suoi azionisti di mantenere la produzione in un territorio nel quale l’azienda è presente da oltre trent’anni, trasformando la tragedia in opportunità. Più di 16 mila metri quadrati di superficie, 42 milioni di euro di investimenti, 22 mesi di realizzazione e un indotto impressionante. La ricostruzione del sito ha consentito di valorizzare e di mantenere sul territorio un patrimonio di competenze tra i più avanzati nel mondo, certificate anche dall’ESA. “Il terremoto del 6 Aprile è stato un evento tragico ma significativo nella storia della nostra Azienda – ricorda Elisio Prette, presidente e amministratore delegato di Thales Alenia Space Italia – perché da quel momento è iniziato un cammino, un percorso fatto di tappe concrete, sfide vinte e obiettivi raggiunti, che ci ha portato fino ad oggi, alla celebrazione di un sito innovativo e all’avanguardia e della intensa ed eccellente attività tecnologica che in esso si svolge”. Il Ceo tiene a sottolineare che sono stati necessari quattro mesi per ultimare il “trasloco” di tutte le produzioni e dei macchinari nello stabilimento aquilano, dopo l’inaugurazione. Il difficile è venuto dopo: convincere i clienti e i partner che la produzione sarebbe andata avanti senza intoppi. E così è stato. Lo stabilimento aquilano è ora totalmente funzionante e le commesse continuano ad arrivare. Giovanni Fuggetta, responsabile del Centro di Competenza Elettronica, ha detto che le aree produttive sono state progettate con criteri di Lean Design, con l’obiettivo di ottenere flussi di lavoro continui, ottimizzati e tali da soddisfare esigenze di variazione di volume di produzione e tecnologiche. “Il layout della struttura è estremamente innovativo, costruito con la tecnologia antisismica più avanzata – spiega – ma l’investimento non è solo economico: si tratta di un impegno anche umano e culturale sul territorio”. Quella della Thales, infatti, è una delle poche realtà industriali che ancora dà linfa vitale all’economia locale, essendo anche uno sbocco lavorativo diretto per molti laureati dell’Università di L’Aquila. Qui potrebbero essere inventate e prodotte le prime navette spaziali private superaccessoriate come quelle di Star Trek, Star Wars e Interstellar, ma anche i primi Pad trasparenti (indossabili o meno) made in Italy in grado di funzionare grazie al calore prodotto dal corpo umano, senza emissioni nocive di gas serra in atmosfera! Oggi nel sito si svolgono attività di sviluppo tecnologico, di industrializzazione dei prodotti, nonché la completa produzione di equipaggiamenti elettronici, ibridi, antenne e strutture in materiale composito per una vasta tipologia di applicazioni per lo spazio, come telerilevamento, telecomunicazioni, applicazioni radar per difesa e sicurezza, e molte altre. Gli specialisti lavorano come dei veri e propri artigiani, creando da zero (o quasi) quasi tutti i componenti elettronici a cui lavorano. Thales Alenia Space è fortemente impegnata in tutti quei programmi che rappresentano il futuro del settore spaziale e delle comunicazioni, come COSMO-SkyMed e Copernicus, con i satelliti Sentinel1A e 1B. Il progetto più importante su cui Thales sta lavorando a L’Aquila è IRIDIUM, una costellazione di 81 satelliti (72 in orbita e 9 in attesa di lancio) che impegnerà i tecnici altamente specializzati per tutto il 2015 e oltre. La produzione italiana per IRIDIUM interessa moduli di trasmissione e ricezione (TR), dei computer di bordo e dell’elettronica di controllo dell’Antenna di missione della costellazione: in tutto 15mila componenti e i tecnici sono già a un terzo della produzione. Lo stabilimento aquilano si occupa anche di diversi componenti della missione ExoMars (ESA e Roscosmos insieme alla Russia) tra cui il radar altimetro che servirà a garantire la velocità e la distanza corrette in fase di discesa del lander sulla superficie di Marte, senza confondere i “metri” e i “piedi”! Da non dimenticare sono i transponder, attualmente imbarcati su tutte le missioni spaziali come la sonda europea Rosetta, che orbita attorno alla famosa cometa 67P. La nuova struttura si occupa anche di nuove linee produttive dedicate in particolare alla realizzazione di antenne satellitari SAR, leggere e di grandi dimensioni, nonché degli importanti elementi per sonde interplanetarie di esplorazione dello spazio profondo come Bepi Colombo e Solar Orbiter. Sono, inoltre, in fase di realizzazione apparati di TTC (Tracking Telemetry Command) per satelliti commerciali, moduli TR per telerilevamento radar nell’ambito del programma italo-argentino SIASGE e le Antenne di Navigazione del Programma Galileo attivo dal 2020 anche sui Pad. Saranno prodotti, proprio nel sito Thales Alenia Space di L’Aquila, importanti elementi dei satelliti della costellazione italiana Cosmo Seconda Generazione, in particolare dell’Antenna Attiva, moduli TR in banda X e larga parte dell’elettronica di controllo e gli strumenti del sottosistema radar. Si tratta del primo sistema duale civile-militare di satelliti radar di osservazione terrestre, promosso dall’Agenzia Spaziale Italiana e dal Ministero della Difesa. A quanto pare, per grazia ricevuta, la Legge di Stabilità Finanziaria AD 2015, contiene almeno tre sorprese che invertono una tendenza negativa da 15 anni. A beneficiare di questo, seppur lieve, cambio di direzione sono: l’Agenzia Spaziale Italiana, l’Istituto Italiano di Tecnologia e l’Istituto Nazionale di Astrofisica. L’Agenzia Spaziale Italiana beneficerà di trenta milioni di euro per tre anni, destinati alla seconda generazione del programma Cosmo SkyMed. Un probabile sospiro di sollievo per l’ente spaziale nazionale il cui bilancio è praticamente tutto impegnato in Europa, nei programmi dell’Agenzia Spaziale Europea. Con questo finanziamento dedicato e un incremento del budget annuale ci si augura possa tornare ad investire anche per programmi nazionali, bilaterali, multilaterali. Tre milioni di euro in più quale dotazione annua per l’Istituto Italiano di Tecnologia, utili a promuovere lo sviluppo tecnologico del Paese e l’alta formazione tecnologica. Ma anche 30 milioni in tre anni per l’Istituto Nazionale di Astrofisica per sostenere le ricerche e lo sviluppo di partenariati con imprese di alta tecnologia su progetti internazionali per lo sviluppo e la realizzazione di strumenti altamente innovativi nel campo della radioastronomia (SKA-Square Kilometer Array) e dell’astronomia a raggi gamma (CTA-Cherenkov Telescope Array). Il paradosso è che queste misure ed altre sono state definite in extremis nei giorni scorsi nei “pastoni” localistici politici tipici italiani frutto del proverbiale “assalto alla diligenza”, senza una visione strategica industriale spaziale complessiva. Altro che liberalizzazione dell’impresa spaziale privata! Così si vanifica un segnale di speranza che manca da troppo tempo in Italia: le parole “ricerca” e “innovazione” non possono essere considerate come pura fantascienza, non possono essere confinate negli inascoltati appelli del Capo dello Stato o nei vuoti studi televisivi di talk-show politici sempre più inquietanti al termine delle campagne elettorali. Le parole costituzionali “ricerca” e “innovazione” sono la chiave del Futuro dell’Italia e degli Italiani. La Storia della Scienza docet. Fisico di fama internazionale con una lunga esperienza nel campo della ricerca sperimentale, Massimo Inguscio è presidente dell’Istituto Nazionale di Ricerca Metrologica (INRIM), l’ente italiano che si occupa di svolgere e promuovere le attività di ricerca sulle “misure” in ogni settore. In occasione dell’80esimo anniversario dello storico Istituto “Galileo Ferraris” di Torino, è utile ripercorrere la storia della Metrologia in Italia, le sue prospettive future e il ruolo che questa assume nell’evoluzione del nostro Belpaese. “La storia della Metrologia, ovvero la scienza che si occupa della misurazione delle grandezze fisiche in qualsiasi campo scientifico e tecnologico – rivela Massimo Inguscio – ha visto il suo inizio alla fine dell’800 con la “Convenzione del metro” firmata da 17 Nazioni tra cui l’Italia, che oggi vede la partecipazione di circa un centinaio di Paesi. L’obiettivo della convenzione, che riguardava le varie grandezze fisiche come il metro, il chilogrammo, le unità di pressione ed energia, era quello di avere degli standard di riferimento su tutte le grandezze impiegate nel mondo industriale, che fossero accettate da tutti. Dopo questa convenzione, le varie nazioni cominciarono a dotarsi di istituti metrologici che avevano un’interazione importante con le industrie”. In Italia era il momento della grande ricostruzione industriale, Torino si candidava ad essere la “capitale” dell’industria italiana e un grande scienziato piemontese, Galileo Ferraris, con il suo “campo magnetico rotante” aveva da poco inventato un sistema per trasformare l’energia idrica dell’acqua che scendeva dalle Alpi in energia elettrica. “Proprio a Galileo Ferraris fu intitolato l’Istituto Elettrotecnico Nazionale fondato a Torino nel 1934, che si occupava inizialmente della standardizzazione delle grandezze elettriche come corrente, resistenza e capacità, e che ha rivestito un ruolo centrale nella crescita industriale del nostro Paese. In seguito, con la fusione dell’Istituto Galileo Ferraris con l’Istituto di metrologia “Gustavo Colonnetti” avvenuta nel 2006 è nato l’odierno Istituto Nazionale di Ricerca Metrologica (INRIM)”. L’INRIM ora con le sue numerose palazzine si sviluppa in un moderno campus scientifico e tecnologico. Nella prestigiosa sede storica fanno tra l’altro bella mostra strumenti ed apparecchiature, a cominciare dalle dinamo di Galileo Ferraris. Conoscenza quindi ma anche sviluppo industriale. “L’INRIM infatti partecipa all’avanzamento in tutti settori scientifici con la ricerca di misure sempre più stabili e affidabili. La metrologia odierna si sviluppa in due direzioni principali: da un lato c’è lo studio delle grandezze fisiche, un fronte che vede in corso una sorta di “gara” tra le diverse Nazioni nel mettere a punto unità di misura del sistema internazionale sempre più precise e riproducibili; dall’altro lato esiste la necessità di mettere ordine in alcuni settori scientific, come quello della chimica, dell’agricoltura, dell’ambiente o dell’alimentazione, in cui non esistono ancora standard internazionali o riferimenti precisi. In ambito ambientale, ad esempio, l’obiettivo della metrologia è quello di fornire standard di temperatura e umidità che siano condivisibili su tutto il pianeta Terra, verificando l’esattezza dello strumento di misurazione in condizioni differenti da quelle normali. Per questa ragione alcuni ricercatori del nostro Istituto si sono recati a testare alcuni misuratori fin sull’Everest o al Polo Nord. Sul fronte agroalimentare, invece, la misura esatta dell’umidità dell’aria è di fondamentale importanza per la sicurezza dei cibi, per il mantenimento delle loro proprietà nutritive e la digeribilità dei cibi. A questo proposito, il nostro Istituto si è visto da poco approvare un progetto europeo proprio riferito alla misurazione dell’umidità per la sicurezza alimentare”. Tematiche dell’Expo 2015 a Milano. Non esiste insomma settore scientifico che non veda coinvolta la Metrologia, inclusi gli ambiti che riguardano più da vicino la nostra salute, come la Medicina. “Un campo di ricerca molto importante interessa proprio l’imaging biomedico: la risonanza magnetica e l’ecografia. Il nostro compito in questo caso è contribuire a comprendere a che livello possano essere nocive altre tecniche di diagnostica o terapia. Inoltre, grazie alle moderne tecnologie che permettono di effettuare una scansione del cervello tale da consentire l’osservazione dei singoli neuroni, possiamo controllare in maniera estremamente precisa gli effetti che hanno molti farmaci sulle cellule cerebrali”. Affascina da sempre la misurazione del metro, un settore che interessa molto da vicino l’Istituto. “Nell’immaginario collettivo il metro campione è rappresentato dalla barra di platino-iridio depositata al Bureau International des Poids et Mesures (BIPM) di Parigi. La definizione di metro è stata tuttavia ridefinita inizialmente nel 1960 come la lunghezza d’onda di una radiazione luminosa, poi nei primi Anni ‘80 come la distanza percorsa dalla luce in un determinato intervallo di tempo, pari a una frazione infinitesima di secondo. Dalla definizione del nuovo standard si intuisce quindi che il metro non rappresenta più una unità a sé stante, ma viene definito come una misura strettamente legata al tempo. Ma questo settore è estremamente ampio e prevede la necessità di definire gli standard di lunghezza su range enormi, che spaziano dall’infinitamente grande all’infinitamente piccolo. Tra i nostri compiti, ad esempio, c’è quello di standardizzare il processo con cui si producono le nanoparticelle utilizzate nei cosmetici o nelle protesi, per garantire che queste mantengano le loro proprietà e non diventino inefficaci o addirittura nocive, oppure la misurazione esatta della distanza che intercorre tra i satelliti. La metrologia dimensionale è cruciale per  il controllo degli ambienti e dei processi di produzione nelle fabbriche moderne, a cominciare da quelle meccaniche”. Proprio la misura del tempo interessa filosofi, teologi, scienziati, artisti, inventori e pensatori come rivela anche il kolossal Interstellar di Christopher Nolan. “La misura del tempo nell’era moderna nasce con il Pendolo di Galilei, la cui oscillazioni avvenivano tutte nello stesso arco di tempo. La corsa è stata poi quella di creare oscillatori, quindi dei pendoli, che oscillassero sempre con maggior frequenza nell’arco di un secondo. Questo portò alla nascita degli orologi al quarzo, in cui la misura è determinata da un cristallo di quarzo che effettua decine di migliaia di oscillazioni al secondo, fino ad arrivare agli attuali orologi atomici, in cui il tempo è scandito dall’oscillazione degli atomi. Il tempo ufficiale odierno, ad esempio, è dato dalle oscillazioni di un atomo di cesio (miliardi in un secondo) che si riescono a misurare con precisioni migliori di miliardesimo di milionesimi di secondo. Questi  orologi (possediamo un paio di “fontane atomiche” al nostro Istituto di Torino) servono a distribuire al mondo quello che definiamo il tempo universale”. Sempre alla ricerca degli standard migliori di sempre nella misura del tempo. “Anche in questo ambito si aprono nuove frontiere. Al fianco degli orologi atomici al cesio, operanti da ormai 20 anni, abbiamo infatti sviluppato un nuovo tipo di orologi atomici che funzionano con un atomo di itterbio, che riescono a compiere oscillazioni misurabili almeno con precisioni almeno cento volte migliori. Sembra superfluo ma questo ulteriore livello di precisione rende questi orologi sensibili alla Gravità poiché – come spiegato dalla Relatività Generale di Albert Einstein – il tempo scorre leggermente più veloce in montagna piuttosto che in pianura. Questo ci permette di misurare con estrema precisione i cambi di Gravità e quindi ottenere informazioni sulla Geodesia, ovvero la forma della Terra, e sulla variazioni di Gravità con il succedersi delle stagioni. Proprio su questo tema abbiamo al momento in sviluppo un esperimento in cui un orologio atomico presente a Torino verrà confrontato con  un orologio posto in montagna nel traforo del Frejus, in collaborazione con istituti nazionali di altri paesi europei”. Dal traforo del Frejus fino allo Spazio, con la partecipazione dell’INRIM al progetto europeo Galileo per la creazione di un sistema di navigazione satellitare. Che sarà molto utile per prevenire i disastri aerei. “Siamo molto orgogliosi di rappresentare uno dei centri europei per il controllo dei dati di tutti i satelliti del sistema satellitare Galileo. Si tratta di un ruolo di enorme importanza, dato che la misura dell’accuratezza del tempo è strettamente connessa all’accuratezza della localizzazione fornita da questo primo sistema satellitare civile europeo. In fondo nello scandire il tempo abbiamo alle spalle una tradizione antichissima, come ben ricordano quei famosi Bip che scandivano il tempo, trasmessi per anni alla sera dai canali RAI, gentilmente offerti dall’Istituto Galileo Ferraris”. La Fine del Mondo, dunque, sarà per mano dei ciarlatani politicanti, non dei Maya, non degli scienziati, se in Italia non prevarrà la Società della Conoscenza nell’Anno Domini 2015. La pessima interpretazione del Calendario Maya nel 2012 si è rivelata più che fondata, affondando in un oceano di vergogna gli autori e gli editori di tomi pubblicati all’uopo per fare affari sul borsellino di milioni di deboli menti. Le varianti del Giorno del Giudizio sono altrettanto note. In verità, periremo tutti, prima o poi, sulla base delle Leggi delle Natura, come programmato nel nostro Dna, e secondo le regole quantistiche dell’Universo in cui viviamo, nel quale gli accidenti casuali condizionano pesantemente le nostre libertà fondamentali piccole e grandi. Big Crunch, Big Rip, Morte Termica, Transizione di fase? È altresì noto ciò che resta della sovranità degli Italiani tartassati dai politicanti. In Italia dal 1° Gennaio 2015 ogni famiglia pagherà di più per la felicità di un sistema obsoleto che, in attesa di fare la pezzi la Costituzione della Repubblica Italiana, oggi spedisce regolarmente al Creatore, per suicidio, mediamente tre Italiani al giorno: lavoratori e imprenditori sani di mente che hanno perso la speranza in un Futuro migliore! Essi sono i nostri fratelli, le nostre sorelle, i nostri santi martiri del XXI Secolo, vittime dell’indifferente burocrazia palaziale, della crisi economica generata dall’irresponsabilità politica, dal Drago rosso dell’Apocalisse, la causa di ogni male sulla Terra. Felice Anno Nuovo 2015 di Pace! Che sia autenticamente un Nuovo Anno prospero, fortunato e degno di persone libere, sovrane e forti in Italia e nel Mondo, capaci di abbattere il Drago Smaug come l’arciere Bart nel capolavoro di J.R.R. Tolkien e del regista Peter Jackson, Lo Hobbit (La Battaglia delle Cinque Armate). I segni del cielo non preannunciano nulla di buono o cattivo. Il nostro destino dipende esclusivamente da ciascuno di noi. Tutte le comete e i meteoriti, senza contare quello di Čebarkul, finora sono volati accanto alla Terra, sbriciolati dalla nostra atmosfera, da quella gioviana e solare, lasciando il nostro povero Mondo intatto, grazie a Dio. Possiamo finalmente tirare un sospiro di sollievo? No. I disastri naturali peggiori sono scientificamente tutti nel Futuro. L’importante è l’esserne coscienti, consapevoli e pronti. Per il 2015, come al solito, vengono proposte altre varianti del Giorno del Giudizio che stavolta hanno le loro radici in miti e leggende di qualche popolo nordico estinto da tempo. Che i capolavori cinematografici della Marvel Comics sull’eroe Thor magicamente hanno richiamato in vita. Nel 2015 sarà il turno degli antichi Vichinghi a intimorire i deboli di cuore con una vicina e inevitabile fine cosmica del Mondo, secondo le più classiche, fosche e infondate previsioni di maghi e cartomanti di turno? La Terra verrà forse distrutta da alcune nubi acide di polveri cosmiche provenienti dal centro della Galassia, che spazzeranno via tutto sul loro cammino, da una Ipernova, da un Gamma Burst collimato o da una stella nera? In verità, ben prima che questi fenomeni naturali scateneranno le loro spaventose energie sulla Terra, gli Italiani diventeranno sempre più poveri, nonostante le finte “riforme” a marce forzate e le rivoluzioni di velluto, con le altrettanto finte sceneggiate di clown, saltimbanchi e marionette in servizio permanente effettivo per dare libero sfogo alle paure di cittadini allo stremo. In verità, la Gran Bretagna supererà la Francia e la Germania diventando la maggiore economia in Europa entro l’Anno Domini 2030. È la previsione scientifica del Centre for Economic and Business Research (Cebr). Un regime fiscale leggero, l’indipendenza dall’Euromoneta e una popolazione in crescita grazie all’ingresso di Italiani meritevoli, sono i tre fattori positivi decisivi che contribuiranno a far salire il PIL britannico di Sua Maestà dagli attuali 1.590 milioni a 2.640 milioni di Sterline nei prossimi quindici anni, come riferisce l’autorevole Il Sole24Ore. A livello globale la Gran Bretagna scenderà in classifica, passando dall’attuale sesta posizione alla settima, a causa dell’inesorabile ascesa delle economie emergenti. La Cina, grazie anche alle spese folli degli Italiani, supererà gli Stati Uniti d’America diventando la prima economia al mondo entro il 2028. L’India che ora è in decima posizione salirà al terzo posto spodestando il Giappone. Il Brasile passerà dal settimo al quinto posto, mentre il Messico entrerà in classifica al nono posto. L’Italia che nel 2013 era in ottava posizione, uscirà con le ossa rotte dalla sfida globale, indipendentemente dalle controriforme incostituzionali in corso d’opera, cioè sparirà del tutto dalla lista dei Top Ten scendendo al quindicesimo posto! Nigeria, Iraq, Egitto e Filippine entreranno nella classifica delle prime trenta economie al Mondo. Il Centre for Economic and Business Research prevede che nei prossimi quindici anni il Prodotto Interno Lordo tedesco continuerà a crescere ma a un ritmo più lento, passando dagli attuali 2.200 miliardi a 2.690 miliardi di Sterline. La popolazione che invecchia, la debolezza dell’Euro senza gli Stati Uniti d’Europa politici e le incertezze sull’Eurozona (creata a quanto pare in folle opposizione alla Russia!) si riveleranno ostacoli insuperabili. La Germania entro il 2030 sarà superata dalla Gran Bretagna. Il sorpasso dell’economia britannica su quella francese avverrà entro il 2018, secondo lo studio. La Francia, attualmente al quinto posto nella classifica globale, scivolerà fuori dalla Top Ten a causa di una crescita debole, soffocata da un regime fiscale punitivo, e verrà superata dalla Turchia. “Prevediamo che la Gran Bretagna diventerà la seconda economia occidentale dopo gli Stati Uniti d’America – rivela lo studio del Cebr – una situazione demografica positiva con un’immigrazione che continua, una minore vulnerabilità ai problemi dell’Eurozona rispetto agli altri Paesi europei e un regime fiscale benevolo in confronto ai vicini, incoraggeranno una crescita più rapida degli altri Paesi occidentali. Entro il 2029 la Gran Bretagna avrà quasi raggiunto la Germania e prevediamo che superi la Germania intorno al 2030, diventando la maggiore economia dell’Europa occidentale”. Sempre che prima non vengano fondati gli Stati Uniti d’Europa insieme alla Russia, grazie al nuovo Partito Conservatore innovatore di un novello Abramo Lincoln made in Europe come il Presidente Vladimir Putin. Il fatto è che la capacità di rilanciare le esportazioni e trovare nuovi mercati, è fondamentale per le prospettive di crescita di un Paese. In questo oggi la Francia, sempre secondo lo studio, sta fallendo ed anche la Gran Bretagna rischia di trovarsi indietro. La crescita è ripartita ma spinta dai consumi interni invece che dalle esportazioni, rileva il Cebr. Altri tre fattori di rischio per l’economia britannica sono i continui dissidi con l’Unione Europea, i limiti all’immigrazione, nonostante la fallita separazione della Scozia in seguito al referendum del 2014. Ma torniamo alle altre Fini del Mondo. Nella prima variante troviamo la data fatidica di Ragnarök del 22 Febbraio 2015 che secondo gli scienziati non sarà per nulla diverso da tutti i giorni precedenti o successivi. I media stanno cercando di creare intorno a questa data la stessa agitazione che si era creata per la pessima interpretazione del Calendario Maya. Infatti, nei miti di Ragnarök, parola che è spesso tradotta come La morte degli dei, non vi è alcuna menzione di una data specifica. Se si prendono in considerazione gli eventi che precedono la Fine del Mondo nelle credenze germano-scandinave e li si confronta con quelli attuali, diventa evidente che si tratta solo di una pura speculazione. Nella raccolta di canzoni sugli dèi antichi islandesi e sugli eroi, “The Elder Edda” e “The Younger Edda”, si fa riferimento ad un Terribile Inverno della durata di tre anni, il Fimbulvinter, che dovrebbe precedere Ragnarök. Il nome è composto da “ragna”, il genitivo plurale di “regin”, dèi-poteri organizzati, e il plurale neutro “rǫk”, fato-destino-meraviglie (genitivo: raka) poi confuso con “røkkr”, il crepuscolo. Il termine più antico è “ragnarǫk” che significa Fato degli dèi. Ragnarøkkr significa Crepuscolo degli dèi ed è la denominazione più celebre dei Ragnarǫk, grazie anche all’opera di Richard Wagner, Götterdämmerung. Gli storici hanno corretto la traduzione e il francese Claude Lecouteux ha sostenuto che il significato originario sia Giudizio Delle Potenze. I Ragnarǫk sono noti principalmente grazie a tre fonti: Völuspá (Profezia della veggente), Vafþrúðnismál (Discorso di Vafþrúðnir) e Gylfaginning (Inganno di Gylfi). Völuspá è il primo e più famoso poema dell’Edda poetica: racconta la storia della Creazione del Mondo e la sua futura fine narrata da una “völva” o veggente che parla ad Odino. È una delle più importanti fonti primarie per lo studio della mitologia norrena che ha ispirato i capolavori assoluti del professore cattolico britannico J.R.R. Tolkien, autore de Lo Hobbit, Il Signore degli Anelli e il Silmarillion. La profezia inizia con un discorso ad Odino. La veggente inizia a narrare la storia della creazione del mondo in una forma ridotta, spiega come abbia ottenuto la sua conoscenza, l’origine dell’onniscienza di Odino ed altri segreti degli dèi di Ásgarðr, cioè di Asgard, il Mondo di Odino e Thor, celebrati al cinema e chiaramente ispirati anche dalla Marvel Comics. La veggente parla di avvenimenti passati e futuri, toccando la maggior parte dei miti norreni, come la morte di Baldr avvenuta per mano di Höðr, architettata con l’inganno da Loki, e racconta la fine del mondo, il Ragnarök, e la sua seconda venuta. Il poema è interamente conservato nel Codex Regius dell’Anno Domini 1270 e nei manoscritti dell’Hauksbók dell’A.D. 1334. Buone parti della storia vengono citate nell’Edda in prosa di Snorri Sturluson dell’A.D. 1220. Il Codex Regius è composto da 63 strofe. Il poema si apre con la veggente che dice ai figli terrestri di Heimdallr di fare silenzio e chiede ad Odino se voglia che lei declami le antiche tradizioni e leggende, affermando di ricordare ancora i giganti che molto tempo prima l’hanno allevata. Così inizia a narrare il Mito della Creazione: il Mondo era vuoto finché i figli di Borr fecero emergere la Terra dalle acque del mare. Gli Æsir misero ordine nel Cosmo trovando un posto per il Sole, la Luna e le stelle, dando così inizio al ciclo del giorno e della notte. Seguì un’epoca meravigliosa, durante la quale gli Æsir disposero di oro in grande abbondanza, costruendo con gioia i templi e ogni altra meraviglia. Ma poi dallo Jötunheimr arrivarono tre giovani e potenti gigantesse. E l’età dell’oro ebbe così fine. Gli Æsir allora crearono i Nani Norvegesi, i più potenti dei quali sono Mótsognir e Durinn. Dopo 10 delle 66 stanze di cui è composto il poema, iniziano sei stanze che contengono semplicemente un elenco di nomi di Nani. È il Dvergatal, il Catalogo dei Nani. Dopo si racconta la creazione di Askr ed Embla, il primo uomo e la prima donna, e si descrive lo Yggdrasill, l’albero del mondo. La veggente ricorda allora gli eventi che condussero alla prima guerra di tutti i tempi e come si svolse la lotta tra gli Æsir e i Vanir. La veggente rivela ad Odino di conoscere alcuni dei suoi segreti, e sa che cosa egli abbia sacrificato per ricercare il sapere. Gli dice che sa di Mimir e dove sia finito il suo occhio, e come lui l’abbia ceduto in cambio dell’onniscienza; continuamente gli chiede se voglia ascoltare oltre. Lo avverte che seguirà la narrazione di terribili avvenimenti. L’assassinio di Baldr, il migliore e il più giusto degli dèi, la ribellione di Loki e di altri, come infine tutti gli dèi periranno quando il fuoco e la violenza delle acque travolgeranno il cielo e la terra mentre gli dèi combattono la loro ultima battaglia contro i loro nemici. Questa è la sua profezia, questo è il destino degli dèi: il Ragnarök. E descrive i richiami alla battaglia e le sofferenze personali di ogni dio. Narra la tragica fine di molti degli dèi e come Odino stesso venga ucciso. Alla fine, dalle ceneri dei morti e dalla distruzione risorgerà un mondo meraviglioso dove Baldr vivrà nuovamente, un mondo nuovo nel quale la Terra darà messi in abbondanza senza nemmeno bisogno di essere seminata. Dove i tronfi politicanti italiani saranno solo un lontano ricordo! Quest’opera ebbe anche un discreto influsso sulle opere di Tolkien: il professore britannico cattolico, ad esempio, trasse dalle stanze 9-16 che elencano i nomi dei Nani, molti personaggi delle sue opere, come Oin e Balin, creati dall’autore de Lo Hobbit (anche nella trilogia cinematografica di Peter Jackson) per confermare i vincoli di parentela con altri personaggi che invece prendono il nome dalla Völuspá, come Gloin e Dwalin. Balin deriva da un personaggio de La morte di Artù di Malory. Il Vafþrúðnismál, in norreno Il Discorso di Vafþrúðnir, è il terzo canto dell’Edda poetica, che segue l’Hávamál, Il Discorso di Hár, e precede il Grímnismál, “Il Discorso di Grímnir”, nel manoscritto Codex Regius. Per la sua datazione, gli studiosi non sono concordi, ma non sembra distaccarsi dallo stesso periodo in cui fu redatta La Profezia della Veggente, cioè intorno alla prima metà del X Secolo. Il poema è un dialogo, eccetto la quinta strofa che è narrativa. Dopo un breve colloquio introduttivo tra Odino e la moglie Frigg, incentrato sulla reputazione del gigante Vafþrúðnir, Odino decide di recarsi alla corte di quest’ultimo per disputare con lui una gara di sapienza. Presentatosi col nome di Gagnráðr, Odino comincia la sua disputa con Vafþrúðnir sul sapere delle cose remote. Per primo il gigante pone al dio quattro domande che stabiliscano chi sia il più saggio dei due. Odino risponde correttamene. Poi rivolge a Vafþrúðnir dodici domande riguardanti la Creazione del Mondo. A tutte, il gigante risponde correttamente. Allora Odino pone al gigante altre cinque domande riguardanti la fine del mondo, il Ragnarök, nell’ultima delle quali il dio chiede al gigante chi sarà a ucciderlo nell’ultima Battaglia. Di nuovo il gigante risponde a tutte e finalmente Odino pone la sua ultima domanda, a cui però non è possibile dare una risposta: “Cosa disse Odino, mentre era sulla pira, all’orecchio di suo figlio?”. Vafþrúðnir capisce che il suo avversario non è altri che lo stesso Odino e riconosce la sconfitta. Il Vafþrúðnismál è un poema gnomico-sapienzale. Nella disputa di sapienza tra il dio e l’antico gigante viene ricapitolata la conoscenza mitica del mondo norreno. Il Gylfaginning, L’Inganno di Gylfi, è la prima parte dell’Edda in prosa di Snorri Sturluson. Il Gylfaginning è una narrazione completa ed organica dei miti norreni: tratta della creazione e della distruzione del mondo da parte degli dei con molti altri aspetti della mitologia norrena. La seconda parte dell’Edda è chiamata Skáldskaparmál (Arte poetica) e la terza Háttatal (Trattato di metrica). Il Gylfaginning parla dell’incontro del re Gylfi con gli Æsir, e del suo viaggio travestito da Gangleri fino a Ásgarðr dove Gylfi è apparentemente esposto alla gloria di Ásgarðr e dei suoi abitanti. Le fonti sui Ragnarök, come quasi tutte quelle sulla mitologia norrena, sono frammentarie, confuse, contraddittorie, ricche di riferimenti criptici e spesso quasi incomprensibili nella loro laconicità. I Ragnarök verranno preceduti dal Fimbulvetr, un inverno terribile della durata di tre anni, in seguito al quale avverrà lo sfascio dei legami sociali, politici e familiari, in un vortice di sangue e violenza al di là di ogni legge, regola e immaginazione. Spariranno quindi Sól (Sole) e Máni (Luna). I due lupi Skǫll e Hati che, nel corso del tempo, perennemente inseguivano i due corpi celesti finalmente li raggiungeranno, divorandoli, privando il Mondo della luce naturale diurna e notturna. Anche le stelle si spegneranno. Yggdrasill, l’albero cosmico, si scuoterà. Tutti i confini saranno sciolti da terremoti, tsunami, alluvioni, impatti cosmici ed altre catastrofi naturali. Le creature del caos attaccheranno il Mondo: Fenrir il lupo verrà liberato dalla sua catena, mentre il Miðgarðsormr emergerà dalle profondità delle acque. La nave infernale Naglfar leverà le àncore per trasportare le potenze della distruzione alla battaglia. Al timone ci sarà il dio Loki. I misteriosi Múspellsmegir cavalcheranno su Bifrǫst, il ponte dell’arcobaleno, facendolo crollare. Scene descritte nel film Thor. Heimdallr, il bianco dio guardiano, soffierà nel suo corno Gjallarhorn per chiamare allo scontro finale Odino, le altre divinità e i guerrieri del Valhǫllr, gli Einherjar. Nel grande combattimento finale che avverrà nella pianura di Vígríðr, ogni divinità si scontrerà con la propria nemesi, in una distruzione reciproca. Il lupo Fenrir divorerà Odino che quindi sarà vendicato da suo figlio Víðarr. Poi Þórr e il Miðgarðsormr si uccideranno a vicenda, e così Týr e il cane infernale Garmr, e Surtr abbatterà Freyr. L’ultimo duello sarà tra Heimdallr e Loki che si uccideranno a vicenda. Quindi il gigante del fuoco Surtr, proveniente da Múspellsheimr, darà fuoco al Mondo con la sua spada fiammeggiante. Dalle ceneri, il Mondo risorgerà. I figli di Odino, Víðarr e Váli, e i figli di Thor, Móði e Magni, erediteranno i poteri dei padri. Baldr, il dio della speranza, e Hǫðr suo fratello, torneranno da Hel, il regno della morte. Troveranno nell’erba dei nuovi prati le pedine degli scacchi con cui giocavano gli dèi scomparsi. La stirpe umana verrà rigenerata da una nuova coppia originaria, Líf e Lífþrasir, i due soli sopravvissuti che si erano nascosti nel bosco di Hoddmímir o nel frassino Yggdrasill, a seconda dei miti. La rinascita del Mondo è tuttavia adombrata dal volo, alto nel cielo, di Níðhǫggr, il drago di Niðafjoll, misteriosa creatura tra le cui piume porterà dei cadaveri. L’apparente assenza di paralleli corrispettivi escatologici nelle mitologie europee ha portato diversi studiosi a ipotizzare influssi più o meno decisi, nei Ragnarǫk, dell’immaginario cristiano, in particolare dall’Apocalisse di Giovanni. L’ipotesi sarebbe corroborata dal fatto che la mitologia norrena sia stata codificata quasi interamente dopo l’arrivo del Cristianesimo nell’Europa settentrionale. Proprio per questo motivo, l’ipotesi rimane per ora tale. Georges Dumézil, studioso francese dei miti, ha messo in luce le forti somiglianze tra i Ragnarǫk e, nella mitologia Hindu, la battaglia tra Pāndava e Kaurava, così com’è narrata nel Mahābhārata. Se il Ragnarǫk è posto nel futuro, l’analoga battaglia epocale del Mahābhārata si trova nel passato della Terra. Come corrispettivo dei Ragnarǫk in area mediterranea, troviamo la titanomachia che vede contrapposti gli dèi olimpici guidati da Zeus contro creature deformi e caotiche. Il portale nord della Stavkirke di Urnes (XI Secolo) rappresenta proprio i serpenti e i draghi attorcigliati per la fine del Mondo secondo la leggenda nordica dei Ragnarök. Chi lo sa? Forse gli Antichi vogliono semplicemente avvisarci. L’altra variante catastrofica è la nube cosmica acida e mortale che dovrebbe investire la Terra il 1° Giugno 2015. “Una gigantesca nube acida di 16 milioni di chilometri, generata da un buco nero punta decisamente verso di noi a grande velocità dal centro della Galassia – secondo gli interpreti delle ricerche scientifiche effettuate dal Chandra X-ray Observatory – ci raggiungerà il 1° Giugno 2015 e distruggerà tutta la civiltà. Sorprendentemente, gli scienziati americani hanno scoperto che si tratta di una nube che distrugge tutto al suo passaggio: pianeti, stelle e asteroidi”. Quindi, sarebbe “impossibile sfuggirle”. Queste sarebbero le infelici prospettive per i sopravvissuti Italiani alla crisi economica, antropologica e politica del XXI Secolo! È interessante sapere quanto sarà veloce il processo di distruzione del nostro povero Mondo. “Secondo le informazioni dell’Osservatorio americano la velocità della nube è quella della luce. In realtà, non avremo nemmeno il tempo di avere paura e di rendercene conto, che saremo già tutti morti”. Ma gli scienziati non credono in queste farneticanti allucinazioni. In effetti il Chandra X-ray Observatory effettuò la sua “scoperta” il 6 Gennaio 2005. Gli scienziati dichiararono pubblicamente le misure sulla massiccia emissione di particelle provenienti dal più massiccio buco nero di sempre nella storia dell’Universo e delle osservazioni astronomiche. Ma i fatti scientifici non osarono “predire” nulla di più. Le emissioni provenienti dall’ammasso di galassie australi MS 0735+742 che distano dalla Terra 2,6 miliardi di anni luce, equivalenti a 10 elevato alla 55ma potenza di Joule, sono frutto del pasto più ricco di sempre per un buco nero supermassiccio, dai tempi del Big Bang. Almeno 600 milioni di masse solari! È la stella nera più grande dell’Universo visibile. Le due cavità di 600mila anni luce di diametro osservate dal Chandra, ricolme di radiazioni, non destano preoccupazioni. Altro che nube di acido! Semplicemente non avranno il tempo di raggiungerci. Ma tutti sono in trepidante attesa che almeno una delle profezie, di carattere scientifico o mitico che sia, si avveri anche per il 2015. Non si può sempre promettere e imbrogliare. Presto nessuno crederà più ad alcuna notizia fondata riguardante la vera Fine del Mondo! I decreti milleproroghe e millecondoni profetizzano altre sciagure. Quello che tutti aspettano nel nuovo anno pare davvero terribile? Nessun anno nuovo come il 2015 si preannuncia così nefasto. Nessun Capodanno, quando in realtà si celebra la Madre di Dio, Maria Santissima, ha ancora consegnato alla Storia così tanta miseria e disastri, quanti ne sono previsti per il 2015. Per alcuni un’epidemia di influenza aviaria mutata, più pericolosa e mortale che mai, come l’Ebola, sterminerà un quarto dell’intera popolazione mondiale! La nuova ondata di grave crisi economica fagociterà il Mondo, portando a conseguenze irreversibili. Le catastrofi naturali cancelleranno dalla faccia della Terra molte delle più belle città costiere. Mega-tsunami si abbatteranno su molti Paesi. Queste “previsioni” inondano già le praterie digitali di Internet e dei principali network televisivi. Medium e veggenti si accavallano senza soluzione di continuità in nome del profitto per offrire le proprie versioni del prossimo Futuro. Tanto più è terribile ciò che ci aspetta, tanto è migliore l’audience. La gente è letteralmente stregata dalle storie sull’imminente Fine del Mondo. Un’apocalisse biblica è sempre possibile. Ma oggi sono più di moda le “visioni” dei veggenti moderni. Le loro “previsioni” sono state analizzate per capire di quali di queste ci si possa fidare. Ebbene, nessuna! Uno degli “eventi” più attesi per il 2015 è quello dello scoppio della Terza Guerra Mondiale che presumibilmente inizierà con un conflitto armato su larga scala in Iran e Siria, in cui sarà poi coinvolta tutta la comunità mondiale, per poi diffondersi a tutti i Paesi d’Oriente. La Corea del Nord raccoglierà le forze, invaderà con le sue truppe la Corea del Sud. La Russia non potrà rimanere neutrale e verrà trascinata in una sanguinosa guerra di difesa. “Profezie” destinate ad essere cestinate tra un anno! Grazie a Dio. Tali previsioni ovviamente non hanno nulla a che fare con la “chiaroveggenza” dei veri mistici. Basta essere una persona minimamente di buonsenso, per capire che tali dichiarazioni farneticanti sono basate sempre su fatti reali, come la situazione molto agitata in Medio Oriente, ma con la pretesa di credibilità estesa alla pura invenzione. La notizia più incredibile di sempre nasce dall’impossibilità di spiegare alle persone, sempre con gli stessi mezzi, come mai questi imbroglioni non perdano la loro faccia e reputazione. La differenza tra la previsione “potrebbe iniziare una guerra” e “inizierà una guerra” è molto grande. Allora perché prenderla sul serio? Se l’avesse preconizzata una persona seria che non ha mai sbagliato nelle proprie previsioni come nel caso dei rumor sugli iPad della Apple Inc., dichiarando anche la data e l’ora esatta dell’inizio del terzo conflitto mondiale, allora sì che bisognerebbe preoccuparsi sul serio. In caso contrario, si tratta solo di una conversazione vuota ed astratta che merita la nostra indifferenza, magari cambiando programma e sito. Certamente i tre disastri aerei della Malaysia Airlines nel 2014 sono molto inquietanti. “La prolungata crisi economica aumenterà nel 2015 e questo porterà a un forte calo del dollaro e dei prezzi del petrolio. Che, a sua volta influenzerà negativamente i Paesi produttori ed esportatori di questo combustibile fossile inquinante. Le azioni di molte grandi aziende saranno danneggiate e verrà ridotto il numero di posti di lavoro. Molte persone saranno sull’orlo del fallimento e del suicidio”. Alcune cose sono vere. Altre no. Questo tipo di “predizioni” è rivolto principalmente al pubblico dei lavoratori. Tutti si chiedono se sarà stabile la situazione del proprio lavoro, se riusciranno a mantenere se stessi, le loro famiglie e imprese. C’è sempre il rischio di rimanere senza lavoro per tutta la vita, soprattutto in una situazione politico-economica relativamente instabile come quella attuale in Italia. Quando c’era l’Unione Sovietica, tutti sapevano che nessuno sarebbe stato lasciato senza lavoro. Ora, nessuno ha questa certezza in Russia. Pertanto, i temi della disoccupazione e dell’acuta crisi finanziaria sono sempre attuali in Europa, ma le “profezie” dei buontemponi hanno poco in comune con la realtà delle economie mondiali. “Il riscaldamento globale a cui abbiamo assistito negli ultimi anni causerà un forte aumento del livello negli oceani durante il 2015”. Il risultato sarà ovvio nelle gravi inondazioni. “Saranno minacciate tutte le città costiere, in particolare Venezia, San Pietroburgo, Tokyo e New York. Tsunami, tifoni e uragani con una forza devastante si abbatteranno sulle regioni dell’Asia orientale e degli Stati Uniti”. Anche queste “previsioni” si basano sulla ben nota verità scientifica che la Terra è diventata molto più calda di quanto non fosse 150 anni fa. Il clima è atipico in molte regioni del Mondo già da diversi anni. Tuttavia, se questa è un’anomalia, lo è in misura ancora piccola. Non influenzerà un “brusco aumento del livello degli oceani”. Venezia, come New York e San Pietroburgo, sono sempre a rischio, ma nel 2015, come anche nel prossimo secolo, non dovrebbero essere in pericolo imminente. Fatta eccezione per le conseguenze degli impatti cosmici distruttivi e delle frane di montagne sottomarine ed isole vulcaniche. Per quanto riguarda i tifoni e gli uragani, sono tipici nelle regioni della Terra generalmente colpite. Non c’è nessuna notizia nuova in questo senso. “Una nuova epidemia di influenza aviaria modificata spazzerà via un quarto della popolazione mondiale. Le città saranno devastate. Inizierà il panico generale. Non si riuscirà a trovare un vaccino”. Questa “previsione” è semplicemente illogica. L’ultima epidemia di influenza aviaria non ha fatto più vittime di una qualsiasi influenza ordinaria. Non regge nemmeno il confronto con il numero di persone che muoiono ogni anno di cancro, infarti, ictus ed altre malattie. Naturalmente, se il nuovo supervirus devasterà le città, inizierà il panico generale. Ma queste fantasie non hanno alcuna relazione con la realtà dei virus killer passati, presenti e futuri. La Medicina attuale, grazie alla scienza ed alla tecnologia, ha raggiunto un livello sufficientemente elevato per evitare un simile scenario anche nella peggiore delle ipotesi, perché non siamo più nel Medioevo e i protocolli medici sono progrediti moltissimo. Quindi è saggio trattare queste storielle con un ragionevole grado di scetticismo. Tutte le fosche previsioni per il prossimo futuro sono sempre basate sulla paura che il Potere ama suscitare nelle persone per il controllo sociale. L’unica cosa da sapere è che la vita sta tutta nelle nostre mani. E come sarà il nuovo 2015, dipende solo da noi. Anche il “terremoto” politico per l’Europa nel 2015, è stato profetizzato da alcuni “esperti”. Secondo le loro sapienti “previsioni”, nelle elezioni del Parlamento Europeo che si sono tenute nella Primavera 2014, avrebbero dovuto avere (un anno fa) buone probabilità di successo gli Euroscettici e i Radicali. Nulla di più sbagliato. Alcuni analisti ritenevano che questo sviluppo degli eventi fosse del tutto logico: la dura presa di posizione di partiti come il Fronte Nazionale francese e il Partito della Libertà olandese avrebbe dovuto bloccare qualsiasi altra scivolata europea verso una tolleranza eccessiva! I politici attuali definiscono il crescente livello di euroscetticismo e la popolarità delle tendenze di estrema destra, come una direzione molto pericolosa per il futuro dell’Unione europea. Potrebbe essere vero. Tali sentimenti potrebbero portare alla trasformazione nel Parlamento più antieuropeo nella storia dell’Unione. L’influenza del Parlamento sulla vita di un’Europa unita solo dall’Euromoneta, non è cosa da poco, in quanto la rappresenta almeno sulla carta. È un organo apparentemente accessorio che non ha il diritto di prendere in considerazione i progetti di legge europei. Ma i suoi deputati approvano il bilancio dell’Unione Europea ed hanno anche il diritto di rifiutare i progetti di legge della Commissione Europea. In previsione delle elezioni, alcuni esperti temevano una bassa affluenza alle urne ed il possibile successo degli Euroscettici e dei Radicali. Falso. L’Europa oggi non è ancora in grado di esprimere grandi leader come il Presidente Abramo Lincoln capaci di unire e non di dividere. Solo la Russia che ama le proprie tradizioni millenarie, invece di tradirle, può farlo. La crisi dei valori in Europa occidentale è invece molto forte. Le perversioni etiche e morali, il relativismo privato di massa, sono problemi molto seri che dovrebbero entrare nell’Agenda politica di ogni eurodeputato degno di questo nome e della rappresentanza che intendono vantare nel Mondo. Per quanto riguarda le affluenze al voto europeo del 2014, sappiamo com’è andata. Ma lo stato d’animo in Europa degli ultimi anni non lascia molte speranze. Il leader francese del Fronte Nazionale, Marine Le Pen, incontra a l’Aia il capo del Partito della Libertà olandese, Geert Wilders? Entrambi i politici vogliono formare un “fronte euroscettico” al Parlamento europeo? A questo si unirà anche il partito belga “Vlaams Belang” e il Partito della Libertà austriaco? Solo il partito di estrema destra ungherese “Jobbik” non accetta di entrare in questa unione? Non entrerà nel “sindacato” nemmeno l’Independence Party del Regno Unito? Bruxelles prima guardava all’attività di simili partiti che stanno sorgendo anche in Italia, come a dei giochini tra bambini. Tuttavia, nella nuova situazione ucraina davvero esplosiva, i funzionari europei hanno capito che la situazione è molto seria! Il più importante partito nazionalista attuale è il Fronte Nazionale francese, che già in tutti i sondaggi relativi ai voti per le elezioni al Parlamento Europeo, era risultato vincente. Marine Le Pen, capo del partito, potrebbe davvero dare un nuovo impulso all’organizzazione? Negli ultimi anni il partito ha guadagnato in Francia grandissimi successi. È facile immaginare una situazione simile anche in Italia, portando a conseguenze molto interessanti e/o preoccupanti sui temi attuali. Alcuni osservatori ritengono che questo sviluppo sia abbastanza logico. La posizione rigida del Fronte Nazionale francese, della Lega Nord in Italia e del Partito della Libertà olandese dovrebbe evitare un’ulteriore scivolata dell’Europa verso il caos? Secondo altri, la portata delle proteste e dei sentimenti nazionalisti nella UE sono fortemente esagerate. L’Europa vive in uno stato di paralisi burocratica permanente. La crisi economica, il problema delle migrazioni, le folli sanzioni alla Russia e la crisi finanziaria nell’Unione stanno spingendo al voto di protesta in diversi Paesi dell’Unione che rischia di andare in pezzi. Assistiamo all’ascesa ed alla popolarità di Radicali di destra e di partiti anti-integrazione, ad esempio, nel Regno Unito, che non vogliono assolutamente gli Stati Uniti d’Europa politici insieme alla Russia. Ma non si devono sopravvalutare la portata di queste ondate o le loro prospettive future. L’esperienza e la storia dimostrano che il voto di protesta ha in realtà dei margini piuttosto ristretti che non vanno oltre una certa soglia. L’astensione futura degli Europei potrebbe essere il problema vero. Tuttavia, non è il primo anno che l’Unione Europea è alle prese con la più grave crisi dalla fine del secondo conflitto mondiale: in questa situazione la vera urgenza è la questione di trovare una seria strategia di risanamento e di crescita che tenga il passo con lo sviluppo di Paesi come l’India e la Cina. L’austerità condurrà al terzo conflitto mondiale? Chissà. Per la Pace servono Istituzioni politiche europee autorevoli, forti, democratiche e credibili. L’Unione ha bisogno di un suo Presidente politico eletto direttamente dai cittadini. Attualmente l’unico vero leader europeo sembra il Presidente russo Putin. Si richiedono misure drastiche e più rigorose? L’ottenimento del mandato da parte dei Deputati dei partiti europei conservatori e innovatori appare logicamente giustificato. Alcuni analisti ritengono che la presenza della destra nel Parlamento Europeo potrebbe cambiare il corso strategico in direzione di un irrigidimento. Altri ancora pensano il contrario. Insomma, è una vera Babele. Dopo le elezioni del 2014, nulla è cambiato se non in peggio. In Futuro si possono attendere misure per affrontare i problemi interni: la disoccupazione, gli scandali politici, la crisi finanziaria ed anche un probabile rifiuto popolare dei piani eversivi della NATO di un ulteriore allargamento della UE verso Est in funzione anti-russa. I timori che i nuovi “euroscettici” (Patrioti) possano “fare strage” delle visioni burocratiche del Parlamento Europeo nella storia della UE, tuttavia, appaiono francamente ingiustificati. Un sano scetticismo aiuterà a separare il grano dalla pula, e lo spostamento a destra della politica europea, quindi verso un sano pensiero conservatore innovatore, riuscirà a rafforzare l’Unione Europea dei popoli liberi dal giogo burocratico, salvando l’alleanza fraterna con la Russia. Occorre liberalizzare la impresa spaziale privata, commerciale, scientifica e industriale. La Scienza e la Tecnologia non esistono solo per i pochi “astronauti” privilegiati che galleggiano, in assenza di peso, a 400 Km di quota sulla Stazione Spaziale Internazionale, in attesa dell’Apocalisse. I loro strumenti servono all’effettiva crescita dei popoli. I brevetti devono poter essere materializzati in invenzioni utili per tutti. Occorre inaugurare l’era dell’Idrogeno, delle centrali a fusione termonucleare e dell’industria delle navi spaziali commerciali e familiari. Nel corso del 2014, il tema della ricerca scientifica italiana è stato al centro della buona stampa. Prima delle elezioni politiche del Febbraio 2014, il Gruppo 2003 che raggruppa scienziati italiani che lavorano in Italia e figurano negli elenchi dei ricercatori più citati al mondo, ha stimolato il mondo politico a rispondere a dieci domande sul tema della Scienza nel nostro Belpaese. Stimolo raccolto solo parzialmente: il tema della ricerca scientifica, come al solito, è stato il grande assente anche dalla campagna elettorale europea. Fatto gravissimo. Molti sono stati i contributi che hanno raccontato lo stato di salute della Scienza in Italia. La fotografia della Higher Education and Lifelong Learning è impietosa sull’Italia. Tutte le regioni del Mezzogiorno si trovano al gradino più basso dell’intera Europa, in una condizione paragonabile solo a quella dei Paesi ex comunisti! È la verità. Nel mese di Luglio 2013 è stata pubblicata la prima valutazione della ricerca targata Anvur che ha fatto molto discutere ma che rappresenta un primo passo per cercare di capire meglio dove concentrare le risorse per migliorare il Sistema della Scienza Italiana. I dati del Settimo Programma Quadro sottolineano, invece, come la città di Milano sia uno dei principali poli della Scienza italiana, almeno nella sua dimensione collaborativa europea e internazionale. Il biennio 2013-14 sarà ricordato come l’archètipo di un classico pasticcio all’italiana: il caso Stamina. Ancora oggi fra ricorsi a tribunali e fantomatici protocolli terapeutici, non si vede la luce in fondo al tunnel. Un altro tema che ha visto un dibattito fra il mondo della politica e quello della Scienza, è relativo alla sigaretta elettronica. Da mesi si stanno susseguendo normative e leggi, mancano “trial” clinici controllati, indipendenti e di grandi dimensioni. Non è ancora chiaro se il suo utilizzo nasconda pericoli per la salute, soprattutto sul lungo termine. Il 2014 è stato l’anno del Telescopio Spaziale Gaia e della conferma ufficiale della scoperta del bosone di Higgs, avvenuta grazie agli esperimenti Atlas e Cms condotti con il Large Hadron Collider al Cern di Ginevra. È un enorme passo in avanti per la fisica delle particelle e per la conoscenza scientifica in quanto tale. L’evento di portata storica si è verificato nel corso della più grande crisi economica globale degli ultimi ottant’anni. “In che modo il bosone di Higgs può aiutarmi a vivere meglio?”, è la domanda che si pone il cittadino costretto ad affrontare problemi molto più pressanti ed evidenti di una particella subnucleare. Ha senso investire tanti soldi in ricerca, in particolare in un settore così distante dalla vita di tutti i giorni come quello della fisica particellare? Quali sono, se ci sono, le ricadute economiche e pratiche in grado di migliorare la nostra vita? Voleremo sulle altre stelle a bordo di eleganti navi interstellari come la Prometheus, l’Endurance e l’Enterprise grazie al bosone di Higgs ed alla liberalizzazione della impresa spaziale privata? All’inizio del 2013 la European Investment Bank, l’ente europeo che si occupa della erogazione di finanziamenti per la realizzazione di grandi infrastrutture, ha assegnato un “grant” del valore di 300mila euro a un gruppo di ricerca coordinato da Massimo Florio, professore di scienza delle finanze al Dipartimento di Economia, Management e Metodi Quantitativi dell’Università di Milano. La finalità del progetto chiamato “Cost/Benefit Analysis in the Research, Development and Innovation Sector” è quella di eseguire un’approfondita analisi costi/benefici nelle grandi infrastrutture per la ricerca di base e uno studio delle ricadute economiche e sociali della fisica. Fanno parte del progetto anche Stefano Forte del Dipartimento di Fisica dell’Università di Milano e il Centre for Industrial Studies. Insomma, possiamo far finire la crisi economica con nuove grandi invenzioni come quella di una nave spaziale interstellare made in Italy frutto delle ricadute pratiche della ricerca scientifica di base? Sì, se siamo liberi di poterlo fare. Il progetto in questione prevede in primo luogo di esaminare criticamente lo stato dell’arte della valutazione in questo campo. Vi sono fondamentalmente due filoni: una letteratura di tipo accademico in economia, a sua volta con tagli rispettivamente macro e micro: sotto il profilo macro nei modelli di crescita endogena è stato studiato l’effetto sul prodotto nazionale della spesa in ricerca e sviluppo, trovando una correlazione positiva. Il problema è che questa correlazione non è di per sé molto utile per prendere decisioni su una specifica infrastruttura. Il taglio micro di fatto in genere utilizza dati empirici ex post su campioni di progetti e potrebbe essere usato per fare dell’inferenza, ma i risultati sono incerti. Una serie di metodi di management delle decisioni scientifiche (roadmaps, peer reviews) molto eterogenei e spesso non del tutto utili a rispondere alla domanda di ricerca: qual è il valore economico-sociale delle infrastrutture scientifiche? Di qui la proposta di affrontare il problema con un approccio nuovo,  di analisi costi/benefici, su cui vi è molta esperienza in infrastrutture economiche, estendendolo alle infrastrutture di ricerca. Questo implica una serie di adattamenti che si stanno studiando. La collaborazione con il CSIL è utile in quanto questo Centro da oltre venti anni si occupa di analisi costi/benefici dei progetti nel quadro della politica regionale della Commissione Europea, della Banca Mondiale, dell’EIB e di altre istituzioni internazionali, quindi ha un’importante esperienza sul campo. La collaborazione del Dipartimento di Economia, Management e Metodi Quantitativi con il Dipartimento di Fisica dell’Università degli Studi di Milano è finalizzata a esplorare due “case studies” pilota, prendendo a riferimento la fisica delle particelle, con Lhc, la macchina del Cern che ha scoperto il bosone di Higgs, e il CNAO di Pavia, dove un acceleratore di protoni è utilizzato per la terapia oncologica. Economisti e fisici devono collaborare per confrontare punti di vista e dati. Nel 2002 l’European Investment Bank concesse al Cern un prestito di 300 milioni di euro per finanziare la fase finale di costruzione dell’Lhc. L’erogazione di una cifra così elevata non può non essere giustificata, ma richiede un’attenta analisi del rapporto costi/benefici. A distanza di 13 anni, al di là del prestigio mondiale ottenuto dal Cern soprattutto grazie alla scoperta del bosone di Higgs, ci sono state o sono previste ricadute economiche tali da giustificare un finanziamento di tale portata. A suo tempo l’EIB non aveva una propria metodologia per effettuare una valutazione di costi e benefici. Forse anche questo ha contribuito alla decisione di lanciare una gara internazionale per ricerche sul tema, gara che ha vinto l’Università di Milano. Lo studio del caso Lhc è ovviamente molto complesso. Esistono alcuni interessanti indizi su diverse categorie di benefici: il valore dell’output scientifico misurabile con pubblicazioni e citazioni; lo sviluppo di una filiera tecnologica di frontiera con le imprese fornitrici; la formazione di capitale umano con migliaia di dottorandi di ricerca da tutto il mondo; l’impatto culturale sui non addetti ai lavori, ad esempio le decine di migliaia di visitatori del Cern e i milioni di utenti del website; ed infine il “residuo” più difficile da valutare, la scoperta di per sé. Si stanno esaminando diversi modi per trasferire in questo campo le lezioni apprese in altri campi. Ad esempio, per l’impatto culturale esiste ormai un’analisi costi/benefici nel settore dei beni culturali e si intendono esplorare le analogie. Più in generale, considerato l’elevato margine d’incertezza della ricerca di base nella fisica delle particelle, metodi sono stati sviluppati per valutarne le potenziali applicazioni pratiche a livello industriale e il possibile impatto socioeconomico. Questo è il punto principale. Ex post si può dire, ad esempio, che un esperimento ha prodotto “x” pubblicazioni a loro volta con “y” citazioni; che “z” imprese hanno sviluppato “w” brevetti e così via. Ma si possono prevedere queste cose? Esiste certamente la possibilità di costruire modelli probabilistici a riguardo. Però i nostri scienziati sono ai primi passi. Alcuni risultati potranno essere presentati al Cern nel 2015. Nel Novembre 2012 il MIUR ha soppresso il progetto di costruzione di SuperB, acceleratore di particelle voluto dall’Infn che doveva sorgere nell’area dell’Università degli Studi Tor Vergata di Roma. Una commissione internazionale nominata dal Ministro allora responsabile ha ritenuto che gli investimenti d’opera fossero troppo elevati, essendo passati in meno di due anni dai 400 milioni previsti inizialmente a oltre 1 miliardo di euro, motivazione simile a quella data dal Congresso americano nel 1993 quando si decise di interrompere per ragioni di costo la costruzione del Superconducting Super Collider. Anche il contributo al Cern è stato a rischio in una delle recenti “spending review”. Ovviamente dire che qualcosa costa molto o troppo senza calcolare i benefici, neppure approssimativamente, non significa nulla. Sono decisioni che richiederebbero un’istruttoria indipendente basata anche su metodi di analisi economica. È un campo in cui c’è molto da lavorare per sconfiggere la crisi economica e fare innovazione vera, la sola in grado di far decollare il Pil dell’Italia. Il prossimo grande acceleratore di particelle, l’International Linear Collider, forse sarà costruito in Giappone e non Italia! Non è così sicuro che ILC si faccia, ma è certo che se si farà la sede sarà il Giappone per la semplice ragione che il governo di quel grande Paese ha annunciato di essere pronto ad investirvi circa il 50 percento del costo che potrebbe superare i 20 miliardi di dollari. In ogni caso, progetti di questa scala implicano vastissime collaborazioni internazionali e una solida credibilità politica e istituzionale che oggi l’Italia non è in grado assolutamente di esprimere. Lhc funziona grazie anche a un componente di uno dei grandi rivelatori in cui l’elettronica è statunitense e la meccanica iraniana. Alla mensa del Cern si resta colpiti dalla composizione globale della comunità di ricerca in un’atmosfera degna dell’universo di Star Trek. La Scienza unisce e la politica divide. Non vi è in linea di principio nessun ostacolo proibitivo a pensare che una grande infrastruttura di ricerca (non solo acceleratori di particelle, ma anche grandi telescopi, satelliti di esplorazione, navi oceanografiche, laboratori di genomica, astronavi del futuro) non possa essere localizzata in Cina, in Congo, in Argentina, in India o in Italia. In parte dipende dai fondi disponibili e da dove vengono, ossia dipende dalla sovranità popolare. In questo senso il Cern è un modello interessante in quanto basato sulla cooperazione sovranazionale. Ma anche la Fondazione Telethon docet. Se al centro del Sistema della Conoscenza e dell’Industria poniamo la Persona, la sua dignità, le sue libertà fondamentali, i suoi diritti inalienabili tra cui la Rigenerazione del proprio Dna “mutato” dalle malattie, grazie alla Genomica ed alla collaborazione tra Istituti di ricerca pubblica e industrie farmaceutiche private, allora niente è impossibile anche in tutti gli altri campi della ricerca. Occorre considerare il fatto che il Paese ospitante di queste grandi imprese scientifiche deve avere almeno una parte del potenziale tecnologico, altrimenti anche piccoli componenti dovrebbero essere importati, e un certo potenziale scientifico, altrimenti avremmo una cattedrale scientifica e tecnologica nel deserto! Occorre pensare alle condizioni politiche e di sicurezza.

Il modello del Cern è di grande trasparenza. In Italia si pensa alla decrescita! Pura follia. Un’infrastruttura di ricerca localizzata in Cina o in Egitto dovrebbe anche affrontare alcuni problemi essenziali per garantire quel clima di libertà scientifica essenziale per il fiorire della ricerca. In Italia, i temi della Scienza e della Tecnologia dovrebbero essere insegnati fin dalla Scuola dell’Infanzia. Nel Luglio 1945, mentre le macerie della guerra finita in Europa e in corso d’opera nel Pacifico stavano finalmente smascherando le atrocità di Hitler, Toyo e Mussolini, il matematico Vannevar Bush, presidente della Carnegie Institution di Washington e consigliere scientifico di Franklin D. Roosevelt, rendeva noto il documento “Science, the Endless Frontier” che costituisce il Manifesto della Società della Conoscenza. Il documento di Vannevar Bush si fonda su due idee strategiche. La prima: se a guerra finita gli Usa vogliono diventare il Paese leader del Nuovo Ordine Mondiale devono sviluppare un’imponente attività di ricerca scientifica e tecnologica. La seconda: se gli Usa vogliono sviluppare un’economia leader al Mondo fondata sulla conoscenza, devono andare oltre l’antica tradizione di non-intervento dello Stato e sviluppare un’imponente struttura di ricerca scientifica pubblica e privata. Per realizzare l’ambizioso programma, Vannevar Bush progettò la nascita di un’Agenzia, un ente di stato federale, che finanziasse i progetti di ricerca, di base ed applicata, in ogni campo delle scienze fisiche, matematiche e naturali, in totale autonomia e sulla base del merito. Nacque così la National Science Foundation (NSF). Le idee di Vannevar Bush sono state davvero importanti perché, prima negli Stati Uniti d’America, poi in quasi tutto il mondo, tranne che in Italia, hanno cambiato i rapporti tra Scienza, Stato, Economia e Società, dando vita a una nuova Era della Conoscenza quasi perfettamente integrata nel tessuto produttivo industriale. Ma non sono state idee del tutto originali made in Usa. In Europa quelle idee erano maturate prima. E tra quelli che le avevano inventate c’era l’italiano Vito Volterra, matematico e politico, senatore del Regno d’Italia, presidente di importanti istituzioni scientifiche come l’Accademia dei Lincei. Alla fine della Prima Guerra Mondiale, Volterra maturò l’idea di creare un ente pubblico, il Consiglio Nazionale delle Ricerche, il CNR, che avesse il compito di promuovere la Scienza, applicata e fondamentale, in tutti i più diversi settori per creare un Sistema di Ricerca analogo a quello dei grandi Paesi e in grado di modernizzare l’economia dell’Italia, puntando decisamente sull’industria avanzata. Il CNR di Volterra aveva a detta di molti, forse più della NSF di Bush, un’ulteriore propensione: la internazionalità che ha deciso le fortune del Cern. Per uno scherzo della storia il CNR nacque il 18 Novembre 1923, trent’anni prima della NSF, con al governo il cavalier Benito Mussolini, il capo del fascismo. Il quale in termini di autonomia, libertà, internazionalità e modello di sviluppo, avrebbe avuto progetti molto diversi dopo la cacciata dei migliori cervelli Ebrei dall’Italia e dall’Europa. Il CNR compie novant’anni. È un compleanno importante. Per certi versi decisivo. In questi novant’anni il CNR ha realizzato tre dei quattro obiettivi di Volterra che restano di straordinaria attualità. È diventato la più grande struttura di ricerca italiana con una capacità di lavoro, sia in termini di quantità sia di qualità che è tra le maggiori d’Europa e del mondo.
L’ente ha modificato la sua natura. Non ha più le funzioni di Agenzia. Ma è stato un ottimo incubatore di nuove idee, cervelli e strutture. Sono infatti nati nel CNR o grazie al CNR, altri enti sia nell’ambito della scienza di base, come l’Istituto Nazionale di Fisica Nucleare, sia della scienza applicata, come il Comitato Nazionale per l’Energia Nucleare (CNEN poi diventato ENEA). Il CNR ha incubato la Biologia molecolare italiana con il LIGB di Napoli così come la ricerca aerospaziale. È sempre grazie al CNR che l’Italia è stato il terzo Paese a inviare nello spazio un satellite artificiale. Poi le grandi potenze ci hanno impendito di osare oltre, come andare sulla Luna e su Marte, missioni che avremmo compiuto più tardi! Ancora oggi i ricercatori e gli istituti del CNR partecipano a grandi progetti internazionali. È stata la sua marcata vocazione per l’internazionalità, a compiere il miracolo. È grazie all’aiuto del CNR che Edoardo Amaldi ha potuto dare un formidabile contributo a realizzare il Cern di Ginevra, il più grande laboratorio di Fisica al mondo e la prima espressione tangibile degli Stati Uniti d’Europa finalmente uniti dopo le tragedie di secoli di guerre fratricide. Il bilancio è largamente positivo per il CNR che continuerà ad avere un ruolo primario nell’ambito della ricerca italiana se saprà continuare lungo il percorso intrapreso da Volterra, di ente generalista interdisciplinare, capace di realizzare buona Scienza e promuovere nuove idee, con una forte tensione internazionale. La seconda parte del progetto di Volterra, quella di un Paese che persegue un modello di sviluppo economico, sociale e civile fondato sulla ricerca, non si è ancora realizzato. Il Sistema Paese non ha saputo rispondere al progetto di Vito Volterra così come gli Stati Uniti e molti altri Paesi hanno risposto al progetto di Vannevar Bush. Altro che decrescita! L’Italia resta ai margini della Società della Conoscenza. Fatto gravissimo. E da trent’anni ne paga un prezzo salatissimo. Quello del sostanziale declino politico, economico, morale, culturale, sociale, etico e finanche religioso. La colpa del mancato ingresso dell’Italia nella Società della Conoscenza non è certo del CNR, bensì di ciarlatani politicanti irresponsabili e codardi. Al contrario, è proprio questa condizione di marginalità che assegna al CNR un ruolo decisivo per il futuro del Belpaese, per aiutare gli Italiani a recuperare il tempo perduto, a risorgere dalle ceneri della storia. Così, a Dio piacendo, prima o poi succederà che l’astronave Enterprise venga costruita proprio in Italia, magari grazie alla liberalizzazione della impresa spaziale privata, sfida economica e politica audace, affascinante e produttiva. Dipende da ciascuno di noi. Azzardiamo allora la massima delle previsioni: il “terremoto” politico e scientifico vero in Europa con l’ingresso della Santa Madre Russia negli United States of Europe (USE), gli Stati Uniti d’Europa politici, la soluzione logica al baratro totale dell’Italia, dell’Europa e del Mondo nell’Anno Domini 2015. In ritardo con i regali? Pensate che il Drago Smaug ve ne presterà qualcuno dei suoi? La lotta contro il Male è la vera sfida per la Società della Conoscenza, la nostra Archengemma più preziosa. “La campana suonerà di allegrezza quando il re sotto la montagna tornerà ma tutto si disferà con tristezza e il lago brillerà e brucerà” (J.R.R. Tolkien, Lo Hobbit). Dio benedica la Terra!

© Nicola Facciolini

Una risposta a “La Misura del Futuro e la Fine del Mondo, se in Italia non prevarrà la Società della Conoscenza nel 2015”

  1. toms Sko uttak ha detto:

    toms Sko uttak

    1) The dollar cost average does not exceed $20/month for the life of the machine. For example say I put $1400 into a computer system over the years. In turn I expect that computer to last me 6 years (72 months) to meet the $20/month expectation. ($1400…

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *