La Nuova Frontiera della Fisica al Large Hadron Collider del Cern di Ginevra grazie alla Relatività di Albert Einstein

“Se credete di aver capito la teoria dei quanti, vuol dire che non l’avete capita” (Richard Feynman). È al Centro Ricerche Nucleari di Ginevra la nuova frontiera della Fisica oltre il Modello Standard, fedeli alla Relatività di Albert Einstein. Con il pieno successo della ripartenza dei flussi protonici al Large Hadron Collider per l’osservazione dei […]

“Se credete di aver capito la teoria dei quanti, vuol dire che non l’avete capita” (Richard Feynman). È al Centro Ricerche Nucleari di Ginevra la nuova frontiera della Fisica oltre il Modello Standard, fedeli alla Relatività di Albert Einstein. Con il pieno successo della ripartenza dei flussi protonici al Large Hadron Collider per l’osservazione dei dati nelle collisioni a più alta energia sulla Terra e nel Sistema Solare, Lhc si sta avvicinando alla nuova fase operativa. E si comincia con le prime collisioni ioniche di Piombo della Stagione 2 ad un’energia quasi doppia, la più alta di sempre: seguendo un periodo di intensa attività per riconfigurare Lhc e i suoi acceleratori in grado di produrre fasci di ioni pesanti, i fisici del Cern hanno inizializzato l’esperimento la mattina del 17 Novembre 2015, stabilizzando i fasci ionici alle ore 10:59 am del 25 Novembre 2015, dando così inizio a un mese di intense osservazioni negli scontri di ioni pesanti di carica positiva. Atomi senza elettroni negativi. Atlas, Cms, Alice e, per la prima volta con gli ioni pesanti anche Lhcb, il sensore dedicato al nostro Ettore Majorana, sono le enormi “macchine fotografiche”, grandi come cattedrali gotiche, in corrispondenza delle quali avvengono le collisioni di ioni di Piombo che circolano nell’anello in direzioni opposte, quasi alla velocità della luce. I quattro esperimenti di Lhc sono pienamente coinvolti nella raccolta dei dati in questa nuova campagna scientifica. Far scontrare ioni, in rigorosa coerenza con la Relatività di Einstein, a 100 anni esatti dalla presentazione della Teoria, consente ai sensori di Lhc di osservare e studiare uno stato della materia-energia che è esistito pochissimi istanti dopo il Big Bang della Creazione, quando si raggiunsero temperature di trilioni di gradi, qualcosa come 13,7 miliardi di anni fa. Condizioni del tutto naturali anche nella fusione di stelle di neutroni ad energie fantastiche ma pur sempre lontanissime dallo stato quantico energetico di Planck che nessun esperimento sulla Terra potrà mai riprodurre. È singolare come dai caratteri mobili di Piombo, usati nell’invenzione della stampa da Johannes Gutenberg fin dal 1436, si sia passati all’uso dei suoi nucleoni per inaugurare una nuova era subnucleare di Pace. Lhc però si avvicina artificialmente al Big Bang sulla piccolissima scala energetica consentita sulla Terra, senza produrre – assicurano i fisici – Buchi Neri, Singolarità e Implosioni quantiche universali degne di Futurama. Capiremo come “curvare” lo spaziotempo locale per viaggiare tra le stelle? “È tradizione far collidere ioni pesanti una volta all’anno come parte del nostro più ampio programma di ricerca al Cern – osserva il Direttore Generale Rolf Heuer – quest’anno tuttavia l’evento è speciale perchè abbiamo conquistato un nuovo livello energetico che ci consentirà di esplorare la materia nei primissimi istanti super energetici del nostro Universo”. Appena nato, pochi milionesimi di secondi dopo il Big Bang, la materia era in uno stato di estremo calore e densità, una sorta di “zuppa” primordiale di particelle principalmente composte da elementi fondamentali conosciuti come Quark e Gluoni. Nell’odierno Universo freddo, a tre gradi Kelvin sopra lo Zero Assoluto, che consente la vita così come la conosciamo sulla Terra, i Gluoni, come la colla, tengono uniti i Quark all’interno dei Protoni e dei Neutroni che formano i mattoni della materia, inclusa la nostra, e di tanti altri atomi e particelle. “Esistono molti misteri veramente caldi e densi che attendono di essere svelati nelle collisioni per le quali il nostro esperimento è stato specificatamente progettato e ulteriormente potenziato durante la pausa (shutdown) – rivela Paolo Giubellino della collaborazione Alice – ad esempio siamo ansiosi di imparare che effetto avrà l’incremento di energia sulla produzione del Charmonium”, come il mesone J/ψ. Dopo la riaccensione, nel Giugno 2015, all’energia record di 13mila miliardi di elettronVolt (TeV), nella “beam pipe” del super collisore Large Hadron Collider, la pista magnetica di 27 km di circonferenza a 100 metri di profondità, al confine tra Francia e Svizzera, sono iniziate le prime collisioni tra Ioni di Piombo, all’energia di 5 TeV per nucleone, quasi doppia di quella usata da Lhc durante la prima fase di attività. Ultimata la collisione Protone-Protone a 13 TeV, parte così ufficialmente un nuovo ciclo di Lhc con collisioni pesanti a base di Ioni di Piombo composti da 82 Protoni e 126 Neutroni. Gli impatti di ioni permettono ai fisici del Cern, di cui fanno parte circa 1500 scienziati e tecnici italiani, la metà dei quali coordinati dall’Istituto Nazionale di Fisica Nucleare (Infn), di studiare uno stato fondamentale della materia estremamente denso. “L’energia totale di collisione di ioni Piombo è di 1045 TeV e sfonda simbolicamente la barriera di 1000 TeV o 1 PeV (PetaelettronVolt) – spiega Federico Ronchetti dei Laboratori Nazionali Infn di Frascati, responsabile delle operazioni di Alice – si hanno quindi 5,02 TeV per ciascuna collisione nucleone-nucleone, la più alta mai raggiunta in laboratorio in collisioni tra nuclei”. A cosa servono? Non a distruggere la Terra come “profetizzano” certi film di bassa lega. “Le collisioni di nuclei all’energia di Lhc ci permettono di ricreare, per un tempo infinitesimale, un sistema in condizioni analoghe a quelle presenti nei primissimi milionesimi di secondo di vita dell’Universo, e di studiarne le proprietà in laboratorio – osserva Federico Antinori, “physics coordinator” di Alice, per la sezione Infn di Padova – stiamo raccogliendo dati di ottima qualità a un’energia di collisione mai ottenuta prima. Questo campione di dati sarà fondamentale per due ragioni. Prima di tutto, permetterà di effettuare test cruciali a una nuova energia per le predizioni dei modelli teorici sviluppati per descrivere le misure fatte a energia più bassa. In secondo luogo, ci attendiamo campioni statistici molto più estesi di quelli raccolti finora, che permetteranno misure a precisioni mai raggiunte prima”. Caratterizzare la materia-energia è fondamentale per capire come lavora la Natura nella piccola e grande scala. Svelare i segreti dei Quark e dei Gluoni, poi, è essenziale per ovvie ragioni pratiche e non soltanto teoriche. Lo sviluppo della tecnologia sub-nucleare, letteralmente distante anni luce dall’attuale elettronica che dissipa calore, consentirà di abbattere per davvero le micidiali emissioni di gas serra in atmosfera, al di là dei balbettii senza senso e senza costrutto finora elargiti al Mondo dai Signori dei combustibili fossili, delle armi e delle guerre. L’aumento dell’energia nelle collisioni incrementa il volume e la temperatura del plasma di Quark e Gluoni. Nella prima stagione operativa, gli esperimenti di Lhc confermarono la perfetta natura liquida del plasma e l’esistenza di “jet quenching” nelle collisioni tra Ioni, un fenomeno nel quale le particelle prodotte perdono energia attraverso il plasma di Quark e Gluoni. La notevole abbondanza di simili fenomeni permetterà di perfezionare la sensibilità dei sensori offrendo ai fisici gli strumenti di analisi utili a caratterizzare sempre meglio il comportamento del plasma di Quark e Gluoni, uno stato speciale della materia davvero interessante. I fisici non vedono l’ora di estendere le osservazioni dell’esperimento Atlas ai bosoni W e Z per vedere come si comportano nel plasma quark-gluonico. Un nucleo di Piombo possiede 82 volte l’energia di un Protone, ma distribuita tra i suoi 208 nucleoni, l’insieme di Protoni e Neutroni che compongono il suo nucleo. Poichè 82 diviso 208 fa 0.39, ne segue che un Protone o nucleone in una collisione nucleare di Piombo possiede meno del 40% dell’energia di una singola collisione indipendente protonica. Questo spiega perchè i fisici del Cern hanno depotenziato l’energia del fascio di Protoni, riducendo di poco, per le collisioni di Piombo, i campi magnetici di Lhc. Ossia dai livelli di 6.5 TeV a 6.37 TeV, ottendendo così la stessa energia del centro di massa a 5.02 TeV per coppia di nucleoni, come nel 2013 quando gli scienziati producevano collisioni protoniche a 4 Tev con Ioni di Piombo. Le osservazioni degli impatti Protone-Protone, a 2.51 TeV per fascio, consentono analisi comparative nettamente migliori tra i set di dati con tre differenti combinazioni di particelle in collisione alla stessa energia effettiva. Negli ultimi 90 anni i collisori (che funzionano anche grazie ai loro acceleratori) di particelle sono diventati molto potenti e sono stati utilizzati in modo sempre più diffuso nel comparto industriale, medico e scientifico, tanto che oggi sulla Terra si contano circa 30mila acceleratori installati. L’energia ottenibile da questi impianti è però spesso limitata in ragione delle loro dimensioni e dei loro costi: si pensi allo spazio disponibile in un ospedale o ai finanziamenti di cui una università può disporre per queste tecnologie altamente innovative o ancora alle risorse che la società nel suo complesso ha la possibilità di investire in progetti scientifici di frontiera. Se si riuscisse a produrre un acceleratore potente ma di dimensioni particolarmente contenute, la sua diffusione potrebbe essere ancora più ampia, perché risponderebbe a una domanda specifica dell’industria, della scienza, della medicina e della ricerca d’avanguardia sull’energia. È proprio questa possibilità che intendono studiare i ricercatori del progetto “European Plasma Research Accelerator with eXcellence In Applications” (www.eupraxia-project.eu/) finanziato dalla Commissione Europea con tre milioni di euro nell’ambito del programma Orizzonte 2020. Si tratta di un nuovo tipo di acceleratore “wakefield” a onde di plasma che promette di riuscire a sviluppare gradienti pari ad alcune decine di milioni di elettronVolt per metro. In questo modo si avrà la possibilità di contenere le dimensioni degli acceleratori, estendendo allo stesso tempo la loro portabilità di utilizzo, in special modo nella ricerca fondamentale e applicata. Partner del progetto sono 16 enti e università di 5 Stati Membri degli Stati Uniti di Europa. Tra i quali, per l’Italia, la Sapienza Università di Roma, il Laboratorio di Irraggiamento con Laser Intensi (Ilil) dell’Istituto Nazionale di Ottica del Consiglio Nazionale delle Ricerche (Ino-Cnr), l’Istituto Nazionale di Fisica Nucleare (Infn) e il Centro di Frascati dell’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile (Enea). Il primo risultato di percorso di EuPRAXIA è atteso entro la fine del 2019, limite entro il quale i ricercatori si ripromettono di produrre un report concettuale di progetto per la prima realizzazione mondiale di un Acceleratore al Plasma da 5 Giga-ElectronVolt, con qualità industriale del fascio e aree di utilizzo dedicate. La polarizzazione è un fenomeno delle onde elettromagnetiche per cui, in determinate circostanze, le vibrazioni di un’onda, in particolare di un’onda luminosa, avvengono sempre in un determinato piano ed indica la direzione dell’oscillazione del vettore campo elettrico, rispetto al vettore campo magnetico, durante la propagazione dell’onda nello spaziotempo. Se la variazione di direzione della funzione d’onda sul piano ortogonale, in rapporto della direzione della propagazione e del tempo, può essere espressa da una legge, l’onda si definisce polarizzata. Il fisico francese Etienne Louis Malus introdusse il termine “polarizzazione” nel 1808 quando si riteneva che le particelle di cui era composta la luce fossero dotate di “polo” nord e sud, e che la luce polarizzata avesse i poli allineati nella stessa direzione. La polarizzazione è un fenomeno tipico delle onde trasversali come l’onda fotonica della luce prodotta da un campo elettromagnetico, con il piano di vibrazione perpendicolare alla direzione di propagazione. Ipotizzando le onde concentriche generate da un sasso gettato in uno specchio d’acqua, se sulla superficie perturbata viene posto un pezzetto di polistirolo o di sughero, questo si muoverà su e giù, perpendicolarmente alla propagazione delle onde che avviene lungo la superficie dell’acqua. Nel frattempo un nuovo tipo di luce con polarizzazione variabile nel tempo di impulso è stata sperimentalmente analizzata da uno studio dell’Istituto di Nanotecnologia del Cnr (Nanotech-Cnr) insieme alla Russia, come pubblicato sulla rivista “Light Science & Applications”. Lo studio dei ricercatori del Cnr propone e realizza questa particolare varietà di luce che alterna tutte le polarizzazioni possibili nella durata di un centesimo di miliardesimo di secondo, e potrebbe trovare possibili applicazioni sia in campo diagnostico, aumentando l’efficienza nell’identificare patologie o per i trattamenti con laser selettivi, come quelli per uso dermatologico e dentistico, sia per aumentare le prestazioni di sistemi lidar e radar riservati al telerilevamento ed al monitoraggio dell’atmosfera. A coordinare il gruppo di ricerca internazionale, composto, oltre che da Nanotech-Cnr anche da Cnr-Spin di Roma Tor Vergata, Universidad Autonoma di Madrid, Nanyang Technological University di Singapore e Russian Quantum Center di Mosca, è Daniele Sanvitto, coordinatore del gruppo di Fotonica avanzata dell’Istituto di Nanotecnologia del Consiglio nazionale delle ricerche di Lecce. “È ben noto che la luce è un campo elettromagnetico vettoriale, per cui esiste una direzione di oscillazione del campo, che può essere lineare, circolare o nei casi intermedi ellittica – osserva Daniele Sanvitto – la luce solare non è polarizzata e l’occhio umano non ha mai avuto bisogno di percepire questa proprietà, anche se a volte può essere molto utile. Per esempio nel caso degli occhiali polarizzati che eliminano le riflessioni più intense dalle superfici orizzontali. La maggior parte dei laser e schermi Lcd hanno una polarizzazione lineare che viene usata anche per aumentare il contrasto nei microscopi a polarizzatori incrociati, mentre quella circolare viene usata in alcuni tipi di cinema 3D. Con questo studio abbiamo realizzato degli impulsi ultraveloci in cui la luce mantiene invariata la sua energia pur cambiando continuamente tutti i possibili stati di polarizzazione del fotone”. Così, partendo dal principio più semplice e universale delle oscillazioni Rabi, “il risultato da noi ottenuto è scalabile a qualsiasi ordine temporale e piattaforma, non solo ottica – rivela Lorenzo Dominici di Nanotec/Cnr – il risultato ottenuto lo abbiamo implementato in modo compatto, utilizzando speciali particelle, i Polaritoni, che si formano quando la luce si accoppia con gli elettroni eccitati in un semiconduttore. Regolando due impulsi di eccitazione con polarizzazione circolare opposta, il nostro dispositivo emette un impulso in cui la polarizzazione cambia in tutte le sue forme (circolare, lineare ed ellittica) in un 1/100.000.000.000 (centomiliardesimo) di secondo”. È il 10 Agosto 1912 quando Albert Einstein spalanca la porta del suo grande amico Marcel Grossmann, un matematico da poco divenuto rettore del Politecnico di Zurigo, a soli 34 anni, e implora il suo soccorso. Di anni, Einstein, ne ha uno in meno. Il fisico tedesco è infatti nato nel 1879 a Ulm, una piccola città del Baden-Württemberg. Ma di fama ne ha già molta di più. Soprattutto da quando la sua Teoria della Relatività ristretta, elaborata nel 1905, è stata accreditata dal fisico più autorevole di quei tempi, Max Planck. Con quella Teoria un giovane e sconosciuto impiegato dell’Ufficio Brevetti di Berna, Albert Einstein, aveva mandato in pensione i concetti di spazio e di tempo assoluti e aveva dimostrato che energia e materia sono due facce di una medesima medaglia. In poche settimane di lavoro quel ragazzo di appena 26 anni, che da dieci viaggiava mentalmente sui suoi Fotoni, aveva abbattuto alcuni dei pilastri su cui, da un paio di millenni, si reggeva la Filosofia occidentale e su cui, da un paio di secoli, si reggeva la Fisica di Isaac Newton. Eppure è solo nel 1907 che nella mente geniale di Albert Einstein si accende la lampadina più luminosa e il giovane fisico matura quella che lui stesso definisce “l’idea più felice della mia vita”. Einstein è un fisico che crea mediante l’intuizione, con esperimenti concettuali, senza computer, pad e telefonini. La sua è un’idea in apparenza banale. Una immagine. Ma, si sa, i geni sono tali perché fanno molto con molto poco. Eccola, come la racconta Einstein nella sua Autobiografia: “Stavo seduto in una poltrona nell’Ufficio Brevetti di Berna, quando all’improvviso mi ritrovai a pensare: se una persona cade liberamente, non avverte il proprio peso. Rimasi stupefatto. Questo pensiero così semplice mi colpì profondamente e ne venni sospinto verso una teoria della gravitazione”. Cosa colpisce Einstein? Immaginate di trovarvi seduti in una stanza chiusa e senza finestre. Ebbene, senza riferimenti esterni, non avreste alcuna possibilità, buon senso a parte, di sapere se siete in quiete nel campo gravitazionale della Terra o se la vostra stanza è stata sequestrata da una civiltà aliena e viaggia con un’accelerazione pari a 9,8 metri al secondo ogni secondo nello spazio vuoto verso un’altra galassia. Le due condizioni, la quiete in un campo gravitazionale o l’accelerazione nello spazio vuoto, sono del tutto indistinguibili dal punto di vista fisico. Se vi scappa di mano una penna, in entrambi i casi questa finisce sul pavimento con la medesima velocità. Mentre il palloncino di vostro figlio vola tranquillo verso il soffitto. Le due condizioni devono essere considerate e, anzi, sono del tutto “equivalenti”. Il pensiero più felice di Einstein è il Principio di Equivalenza tra massa inerziale che è quella che si oppone a un’accelerazione e massa gravitazionale dovuta all’attrazione della Terra e di ogni altro corpo materiale. Sulla base di questo principio, già nel 1907, Einstein sente di poter elaborare una Teoria della Relatività più Generale di quella formulata nel 1905, perché in grado di spiegare anche il comportamento dei corpi soggetti alla forza di Gravità. In altri termini, Einstein comprende di poter elaborare una nuova Teoria della Gravitazione universale in grado di spiegare, a differenza di quella di Isaac Newton, anche il comportamento dei corpi che viaggiano a velocità prossime a quelle della luce. Ben presto si rende conto che nell’ambito di questa nuova Teoria, la materia-energia, una massa gravitazionale come quella del Sole, è in grado di curvare lo spazio e il tempo, cioè lo spaziotempo, ovvero il “web” quadridimensionale che unifica spazio e tempo nella Relatività ristretta. Ma a cinque anni dall’idea più felice della sua vita, il giovane fisico non è riuscito ancora a scrivere l’articolo in cui annuncia al mondo la sua nuova Teoria della Relatività Generale. Einstein non è un fisico analitico. Non procede per deduzione matematica da un assunto. È un fisico che crea mediante l’intuizione e l’esperimento mentale. Come lui stesso dirà, la sua mente prima produce l’immagine fisica e poi formalizza la teoria, riducendola a una formula matematica. Così ha fatto nel 1905 con la sua Relatività ristretta. E così procede ora con la Relatività Generale. Con una differenza di non poco conto. Se nel 1905 erano trascorsi pochi giorni, poche ore o forse pochi minuti tra l’intuizione per immagine e la formalizzazione, ora sono passati cinque anni e lui non è ancora riuscito a tradurre l’immagine, la più felice della sua vita, in una formula matematica. Nel caso della Relatività ristretta, la matematica necessaria a formalizzare l’idea fisica era semplice, alla portata di un giovane fisico. Nel caso della Relatività Generale, lo scienziato Einstein si rende conto che stavolta c’è bisogno di una nuova matematica. Ma lui non è un matematico creativo. Non sa crearla. Ecco perché, quel 10 Agosto 1912, ritornando al Politecnico di Zurigo dopo un anno trascorso all’Università di Praga, spalanca la porta dell’ufficio di Grossmann, gridando disperato: “Aiutami, sennò divento pazzo!”. Marcel Grossmann è un matematico creativo. Ma neppure lui sa come creare la matematica specifica di cui ha bisogno Einstein. Però, conoscendo la sua materia, sa dove cercare quella matematica difficile e astrusa. E così indirizza l’amico verso due matematici italiani: Tullio Levi Civita e il suo maestro, Gregorio Ricci Curbastro. Il secondo ha già inventato la nuova matematica di cui ha bisogno Einstein: è il calcolo differenziale assoluto sviluppato poi con il discepolo Levi Civita. Eternamente grato, Albert Einstein studia il calcolo differenziale assoluto di Ricci ed entra in costante contatto epistolare con Tullio Levi Civita. Ma non è facile tradurre la banale idea dell’uomo in caduta libera che non sente più il suo peso in una formula matematica che contenga una nuova Teoria della Gravitazione universale. Non è facile neppure con l’aiuto di Grossmann e di Levi Civita.
Occorre ancora molta più fatica intellettuale. Altri tre anni e tre mesi prima che Albert Einstein riesca a tradurre in una formula l’idea più felice della sua vita. Finalmente nel 1915 il fisico tedesco, ormai trasferitosi a Berlino, elabora in maniera formale la Teoria della Relatività Generale e con un’equazione riesce a descrivere come la materia, che è anche energia, col suo campo gravitazionale curva effettivamente lo spaziotempo, come nel film Interstellar. L’equazione, che tra l’altro contiene un operatore matematico definito, in onore a Ricci Curbastro, “tensore di Ricci”, è di per sé una delle conquiste più alte mai raggiunte dalla ragione umana. Ma reca con sé due difetti: non ha all’epoca alcuna verifica empirica e non soddisfa completamente Einstein. Il primo difetto verrà superato nel giro di quattro anni. Nel 1919, infatti, un astronomo inglese, Arthur Eddington, grazie a un’eclisse totale di Sole, verifica che la luce di una stella lontana è deviata dal campo gravitazionale della nostra stella proprio dell’angolo previsto dalla Relatività Generale dello scienziato europeo Albert Einstein e non dell’angolo previsto dalla “vecchia” teoria della gravitazione universale del britannico Isaac Newton. Il 7 Novembre 1915 il Times di Londra, non senza rammarico, riconosce in prima pagina: “Rivoluzione nella scienza. Nuova teoria dell’universo. Demolita la concezione di Newton”. Quello stesso giorno Einstein diventa il fisico di gran lunga più famoso del pianeta. Un mito che ancora oggi risulta del tutto inossidabile. Neppure Stephen Hawking, con tutta la sua potenza intellettuale a base di Gravità, con la sua Radiazione di Hawking, può superare la grandezza di Einstein. Il secondo difetto è indicato dallo stesso Einstein. “La mia equazione – dirà – è fatta per metà di marmo pregiato e per metà di legno scadente”. La prima è la componente dell’equazione che descrive la gravitazione come un campo continuo. La seconda è la componente che descrive la materia come entità discreta e, quindi, discontinua. In verità la Teoria delle Relatività Generale reca con sé anche altri punti critici tuttora problemi irrisolti, su cui i fisici teorici stanno lavorando da decenni. Come indicato dal britannico Stephen Hawking quando sostiene che la Teoria contiene in sé il germe della sua autodistruzione. Ma solo nel senso che contiene in sé i presupposti per il proprio superamento ad opera di una teoria ancora più generale. La questione è la seguente: la Relatività Generale può infatti essere applicata all’Universo intero, come fece Einstein nel 1917 formulando le cosiddette Equazioni Cosmologiche con cui, sia detto per inciso, lo scienziato tedesco inaugura la moderna Cosmologia scientifica. Ebbene, oggi sappiamo che da 13,7 miliardi di anni il nostro Universo, rispettando la Relatività Generale, si espande, ed è molto più vasto di quanto si creda. Creando continuamente nuovo spazio e nuovo tempo, quindi nuovo spaziotempo, le dimensioni dell’Universo superano ogni incredibile distanza umanamente immaginabile! Ma se riavvolgiamo il film della storia cosmica, o delle nostre vite, vedremmo contrarsi il nostro Universo, ripiegare su se stesso e concentrarsi nella Singolarità iniziale, verso la quale si avvicinano sempre più i fisici del Cern e del Laboratorio Nazionale del Gran Sasso dell’Infn. In un punto piccolissimo, densissimo e caldissimo dove tutti i parametri fisici assumono un valore “infinito”. Ma per i fisici i parametri con valore infinito sono ingestibili e, dunque, indigeribili. Sono assurdi. Ecco perché, sostiene Hawking, la Relatività Generale contiene in sé il messaggio che occorre superarla con una nuova Teoria del Tutto, molto più generale, che eviti la Singolarità iniziale. Che eviti l’assurdo. Magari ponendosi al di là del Big Bang. A un istante prima della Creazione! C’è poi la stessa autocritica di Einstein. Il problema posto dal fisico europeo quando descrive la duplice natura della sua formula può essere riassunto in questi termini. C’è una parte dell’equazione (Einstein la definisce “marmo pregiato”) che descrive il campo gravitazionale, un’entità diffusa nello spazio in modo continuo. L’altra parte dell’equazione (il “legno scadente”) è la massa, ovvero l’insieme di quelle unità discrete, le particelle, il cui comportamento viene descritto, con grande precisione, dalla Meccanica Quantistica e dalle teorie quantistiche di campo ad essa correlate. Einstein, con la sua spiegazione nel 1905 dell’Effetto fotoelettrico e con la scoperta dei Quanti di luce (i Fotoni) e della loro ambigua dualità (si comportano come onde e come corpuscoli), si consacra come uno dei padri fondatori della Fisica Quantistica. La Teoria dei Quanti è stata formalizzata nella seconda parte degli Anni ‘20 del XX Secolo. Da quel momento la fisica poggia su due pilastri: la Relatività Generale e la Meccanica Quantistica. E tuttavia le due grandi teorie non risultano, a tutt’oggi, conciliabili. Ecco perchè facciamo esperimenti sulla Terra e nello spazio. Molti fisici teorici, ancora oggi, pensano che occorre rimetterli in fase, quei due pilastri divergenti, se si vuole evitare che l’intero e maestoso edificio della fisica crolli su se stesso, come profetizzò amaramente Einstein pochi mesi prima di morire, nell’ultima lettera scritta all’amico di penna, l’ingegnere triestino Michele Besso. Il che significa che l’una o l’altra o entrambe le teorie (la Relatività Generale e la Meccanica Quantistica) sono incomplete e, dunque, da modificare. Per 40 anni lo stesso Einstein si è impegnato in questo tentativo e ha cercato una “teoria unitaria di campo continuo” che trasformasse il legno scadente in marmo pregiato. Senza successo. Ancora oggi la conciliazione tra le due teorie è la più grande sfida intellettuale aperta della fisica. A differenza di Einstein, oggi la gran parte dei teorici sembra più propensa a sacrificare il “continuo” e a salvare il “discreto”, ovvero a trasformare il marmo pregiato in un altro materiale simile a quello che Einstein considerava legno scadente. In ogni caso c’è chi giura che risolvendo il problema della compatibilità tra Relatività Generale e Meccanica dei Quanti si darebbe soddisfazione anche al problema della Singolarità iniziale, posto da Hawking e da tanti altri, magari conciliando continuo e discreto per l’ennesima volta. Non c’è modo migliore, per festeggiare i cento anni della Relatività Generale, che verificare come essa non sia affatto una Teoria superata, ma una Teoria viva, forte, efficace, che entra nel merito delle questioni aperte e della nostra stessa vita quotidiana di persone imbevute di scienza e tecnologia ormai domestica, alla portata di tutti! Perché poi Einstein consideri marmo pregiato la descrizione del campo continuo e legno scadente la descrizione della materia discrete, è tema altrettanto complesso. Malgrado Einstein abbia piena percezione di aver tagliato il traguardo più alto nella storia della Fisica e dell’intera Cultura umana, resta lucido e umile nel riconoscere i meriti ma anche i limiti della sua Teoria. Questa lucida analisi lo porterà a cercare per il resto della sua vita, ma negli Usa e non nell’Europa impazzita, con la stessa determinazione che lo aveva portato a spalancare la porta dell’ufficio dell’amico Marcel e a chiedere aiuto, una teoria ancora più generale della Relatività Generale. Una nuova teoria dello spazio e del tempo fatta tutta di marmo pregiato. Una Teoria del Tutto di Campo Continuo in grado di unificare in maniera completa e organica tutte le Forze conosciute dell’Universo. Einstein non ci riuscirà. E finora nessuno ci è ancora riuscito! Ne siamo certi, è solo questione di tempo. Non gli sarebbe affatto di consolazione sapere che in questa ricerca, anche dopo la sua morte sopravvenuta il 18 Aprile 1955, si sono impegnati schiere di fisici teorici tra i più bravi e geniali. Gli sarebbe, probabilmente, di consolazione la sua intima convinzione che ciò che appaga il fisico non è il possesso della verità, ma la sua ricerca. È anche per questi motivi che è stato inaugurato ai Laboratori Nazionali del Gran Sasso, “Xenon 1T”, il più sensibile esperimento sulla Materia Oscura basato sul gas nobile Xenon. Il progetto è portato avanti, sotto la guida della ricercatrice italiana Elena Aprile, da un’ampia collaborazione internazionale che vede in primo piano l’Italia con ricercatori dell’Istituto Nazionale di Fisica Nucleare, le Università di Bologna e di Torino. Dotato di una struttura estremamente sofisticata, l’esperimento, fatto di materia ordinaria, è progettato per registrare eventuali tracce di Materia Oscura: la fantasmatica componente gravitazionale dell’Universo di cui ancora non conosciamo la natura. “Scoprire la Materia Oscura usando il più sensibile rivelatore a Xenon liquido, collocato nei migliori laboratori sotterranei al mondo”, è l’obiettivo del nuovo esperimento Xenon 1T, spiega Elena Aprile, la scienziata italiana in forza alla Columbia University responsabile del progetto. L’esperimento, che si colloca alla frontiera della fisica sulla Materia Oscura, coinvolge una vasta collaborazione internazionale che include 126 scienziati di 21 istituzioni diverse. Terzogenito di un programma di ricerca nato dieci anni fa attorno all’esperimento capostipite “Xenon 10” e proseguito successivamente con “Xenon 100”, il nuovo arrivato dei rivelatori a Xenon ospitati sotto il Gran Sasso promette di dare la caccia alla misteriosa Materia Oscura con una sensibilità notevolmente superiore al predecessore. Il cuore dell’esperimento è il “rivelatore” di particelle di Materia Oscura, composto da 3,5 tonnellate di Xenon liquido, un gas ultrapuro molto sensibile a eventuali interazioni con le rare particelle di Materia Oscura, contenute in un thermos a bassa radioattività. Il “rivelatore” è in grado di captare, in forma di deboli lampi di luce, le eventuali interazioni tra le particelle di Materia Oscura e gli atomi di Xenon, e di amplificare questi “flash”, attraverso sofisticati fotomoltiplicatori, in segnali elettronici. Due eventi, questi, che insieme potrebbero consentire di identificare la natura delle particelle fantasma. La complessità dello strumento è commisurata alla difficoltà del compito. Non emettendo radiazione elettromagnetica, infatti, la Materia Oscura non può essere osservata in modo diretto. Le sue interazioni con la materia che conosciamo sono estremamente rare e deboli, dunque molto difficili da catturare e isolare. Per silenziare i segnali di materia ordinaria e registrare soltanto eventuali tracce di Materia Oscura, i ricercatori hanno dunque “bardato” Xenon 1T con un sofisticato scudo a più strati. La prima barriera che isola l’esperimento dal rumore di fondo dell’Universo è la montagna con i suoi 1400 metri di roccia viva che proteggono i Laboratori Nazionali del Gran Sasso, custodi di Xenon 1T e di tanti altri esperimenti, dal bombardamento delle particelle subatomiche provenienti dallo spazio cosmico a cui è sottoposto il pianeta Terra. A preservare il rivelatore da ulteriori interferenze ci pensa lo Xenon, l’elemento 54 sulla Tavola Periodica, su cui non a caso è basato l’esperimento: un gas molto denso capace di “auto-isolarsi”, impedendo a eventuali segnali esterni non catturati dalla schermatura della roccia di attraversarlo, e quasi privo di isotopi radioattivi. Infine, il thermos in cui si trova il rivelatore è immerso in 700 metri cubi di acqua ultrapura racchiusi in un contenitore di 10 metri, che fanno da ulteriore scudo alla radioattività ambientale e ai Muoni cosmici. La prima presa dati è in corso. La speranza è che da Xenon 1T possano arrivare segnali di questa elusiva forma di materia-energia, secondo le stime degli scienziati pari al 5 volte la quantità di materia ordinaria, a cui da anni continuano a dare la caccia i fisici di tutto il mondo. Per questo l’Istituto Nazionale di Fisica Nucleare ha lanciato l’edizione 2016 di “ScienzaPerTutti”, un concorso aperto a studenti e docenti delle scuole medie superiori per la realizzazione di un elaborato testuale, grafico o multimediale dedicato al tema del tempo, da pubblicare sul sito del concorso. Come specificato nel regolamento, gli elaborati, in lingua italiana o inglese, dovranno illustrare un argomento connesso al tema, in modo facile e accessibile a un pubblico non esperto. In particolare, i materiali presentati devono essere in linea con l’impostazione del sito ScienzaPerTutti, il cui obiettivo è diffondere la cultura scientifica verso il pubblico generico in modo gradevole, comprensibile e divertente. Gli argomenti trattati devono dunque essere affrontati con rigore ma senza pedanteria, tenendo presente che il target principale è rappresentato da giovani di età compresa tra i 13 e i 20 anni. Per registrarsi al concorso, giunto all’undicesima edizione, c’è tempo fino al 1° Febbraio 2016. Studenti e docenti sono invitati ad affrontare e sviluppare il tema nelle modalità e prospettive più stimolanti, con massima libertà di espressione nell’invio di elaborati, disegni, foto o video, che devono pervenire entro l’11 Marzo 2016. È prevista una cerimonia pubblica di premiazione. E resterà aperta fino al 10 Gennaio 2016 la mostra “Enrico Fermi – Una duplice genialità tra teorie ed esperimenti” organizzata al Museo Civico di Storia Naturale “Giacomo Doria” di Genova per celebrare la straordinaria figura e le grandi conquiste scientifiche di Enrico Fermi, costretto a fuggire dall’Europa in guerra, come Albert Einstein e tanti altri. La Mostra è realizzata dal Museo Storico della Fisica e Centro Studi e Ricerche “Enrico Fermi”, in collaborazione con la Società Italiana di Fisica per ricordare i 90 anni dalla formulazione della cosiddetta “statistica di Fermi-Dirac” e gli 80 anni dalla pubblicazione sulla radioattività generata dal bombardamento di Neutroni. Enrico Fermi, padre della prima pila nucleare, è uno dei personaggi italiani più geniali e creativi, paradossalmente più noto all’estero che in Italia! Visitando la mostra sarà possibile osservare la storia delle conquiste scientifiche, divise in tappe, inserite nella cronologia della vita di Fermi, partendo dal suo lato di scienziato fino a quelle che riguardano più da vicino la sua vita privata e l’ambiente in cui ha lavorato, presentate in una nuova chiave di lettura che combina in maniera innovativa oggetti e pannelli tradizionali con prodotti multimediali adatti a giovani e meno giovani. Congiuntamente alla mostra è abbinato un programma di conferenze e di proiezioni di documentari e un piccolo “bookstore” dove sono presentati vari volumi e pubblicazioni collegati alla vita di Fermi. In principio, come alla fine delle stelle di grande massa, era il Piombo. Le mani esperte di un tipografo montatore che allineavano caratteri, che componevano parole che andavano a costituire righe che formavano poi un testo completo pronto per essere stampato. Fin dalla sua nascita, la stampa moderna, inventata da Johannes Gutenberg che per primo in Occidente ideò e sperimentò i caratteri mobili, è stata caratterizzata dall’innovazione tecnologica che l’ha trasformata nel corso dei secoli attraverso lo sviluppo di nuove macchine e tecniche di composizione tipografica. Ma nelle stamperie, oltre ai testi religiosi e letterari, si sono da sempre prodotte anche opere scientifiche: testi che contenevano equazioni e formule e dunque esponenti, deponenti, linee di frazione e altri caratteri difficili da allineare e comporre, che richiedevano mani esperte e tecnologie spesso costose. Generazioni di studenti di facoltà scientifiche hanno incontrato problemi analoghi e hanno scritto i propri lavori, prima, con macchine da scrivere portatili, coma la mitica Lettera 22 della Olivetti, battendo cautamente numeri e linee sui tasti e spostando con estrema attenzione in sù e in giù il rullo di carta con la manopola, e poi al computer, usando linguaggi specifici per le formule matematiche come TeX, Metafont e LaTeX. Nomi conosciuti anche agli umanisti di mente buona. “Se credete di aver capito la teoria dei quanti, vuol dire che non l’avete capita”, disse Feynman durante un’intervista riferendosi alla Meccanica Quantistica che, sviluppata verso la fine degli Anni ’20 del secolo scorso, sancisce una radicale rottura rispetto alle leggi della meccanica classica. Il Principio di Indeterminazione ne è uno dei cardini e mette in discussione sia il concetto stesso di misura di una grandezza fisica sia le assai discutibili pratiche dei “profeti” di sventura che vantano capacità divinatorie anche nella previsione dei terremoti! Il fine di una teoria fisica è quello di fornire predizioni quantitative sui risultati di nuovi esperimenti in base a quanto osservato e misurato in esperimenti precedenti. Quando si effettuano delle misure su un sistema fisico, si agisce sullo stato in cui il sistema si trovava prima che lo si misurasse e se ne determina lo stato successivo. L’esperienza porterebbe a pensare che non vi sia alcuna distinzione fra questi due momenti: se misuriamo la lunghezza di un tavolo con un metro è noto che la lunghezza del tavolo non verrà alterata in conseguenza dell’uso che facciamo del metro. Tuttavia, quando si misurano grandezze relative a una particella, come un Elettrone, le cose vanno diversamente. Supponiamo di volerne misurare la posizione: dove si trova l’Elettrone a un dato istante di tempo? Si può usare della luce per illuminarlo e, dalla luce diffusa, risalire alla sua posizione. Supponiamo di ricavare la posizione in modo molto preciso ovvero con un’incertezza molto piccola sulle coordinate spaziali. Tanto più è grande la precisione ottenuta sulle coordinate, tanto più l’interazione con la luce deve aver alterato lo stato di moto dell’Elettrone, al punto che, nello stesso istante di tempo in cui prendiamo nota delle coordinate, non possiamo dire nulla di preciso sulla sua quantità di moto. Quindi, l’atto della misura permette di risalire alla posizione, ma causa un “cambiamento” nello stato di moto dell’Elettrone in un modo che, in linea di principio, è impossibile determinare. Al contrario, se si sa tutto della quantità di moto, si perde ogni precisione sulla posizione. Questo è il contenuto del Principio di Indeterminazione (relazione di indeterminazione fra posizione e quantità di moto) formulato da Werner Heisenberg nel 1927, già implicito in un suo lavoro di due anni prima e conseguenza naturale delle ipotesi alla base della meccanica ondulatoria. In termini matematici, il prodotto delle incertezze su posizione (∆x) e quantità di moto (∆p) è dell’ordine della Costante di Planck ħ (“acca” spaccata). Vi è un’altra fondamentale relazione di indeterminazione nella Teoria dei Quanti, che va sotto il nome di relazione di indeterminazione tempo-energia, riguardante la misura dell’energia effettuata con un qualche apparato. Lo strumento di misura e il sistema fisico (come l’Elettrone) vengono messi a contatto, in interazione, a un certo istante di tempo. Supponendo che la somma delle energie dell’apparato di misura e dell’Elettrone sia misurabile con assoluta precisione, si effettua la stessa misura a un istante di tempo successivo. Si trova così che la conservazione dell’energia, valida sempre in fisica classica, nella fisica quantistica può essere verificata solo entro un certo livello di accuratezza. Più precisamente, risulta che il valore più probabile della differenza fra l’energia iniziale e l’energia finale (∆E) è proporzionale al rapporto tra la Costante di Planck  ħ e l’intervallo di tempo trascorso tra una misura e quella successiva. Quindi anche il prodotto fra ∆E e ∆t è dell’ordine della Costante di Planck. Un numero piccolissimo ma diverso da zero. Nel caso di una particella instabile, la relazione di indeterminazione tempo-energia ha una implicazione rilevante sulla misura della massa della particella. Se la vita media di questa particella è molto breve, non c’è tempo sufficiente per misurarne direttamente la massa, che può tuttavia essere determinata sommando l’energia di tutte le particelle prodotte nel decadimento. Anche se si potesse misurare con altissima precisione l’energia di tutte le particelle prodotte nel decadimento, poiché la misura avviene entro un tempo dell’ordine della vita media della particella, essa non corrisponderebbe esattamente alla massa originale. Il valore della massa della particella di partenza è dato da una distribuzione di probabilità a forma di campana (curva di risonanza) tanto più larga quanto più breve è la vita media della particella. Una delle conseguenze del Principio di Indeterminazione a cui si fa spesso riferimento è che ogni processo di misura va ad alterare la grandezza che si vuole misurare, per cui questa misura non può essere riproducibile. Questo punto fu sviluppato nel 1928 da Niels Bohr. Se si cerca di misurare con un esperimento ideale, ma concettualmente completo, la quantità di moto di una particella con una certa precisione, è inevitabile variare la velocità (e la stessa quantità di moto) di una quantità che è tanto maggiore quanto più piccola è la durata del processo di misura e quanto maggiore è la precisione sulla quantità di moto che si vuole ottenere: il processo di misura modifica la grandezza che viene misurata! Se la variazione della velocità della particella potesse essere grande a piacimento, si riuscirebbe comunque, a un dato istante, a conoscere la quantità di moto con una precisione arbitrariamente piccola. Tuttavia, quando si esplorano fenomeni fisici in cui bisogna tenere conto della Relativita speciale di Einstein, come fu osservato da Lev Landau e Rudolf Peierls già nel 1931, questo non è più vero: per la Relatività speciale c’è un limite per la variazione della velocità dato dalla velocità della luce (circa 300.000 km/s) e quindi la quantità di moto non è comunque misurabile con una precisione arbitrariamente piccola. Qualcosa di analogo succede se si vuole misurare la posizione con una precisione arbitraria: neanche la posizione è misurabile con una precisione arbitrariamente piccola. Infine occorre tenere presenti le estreme conseguenze dei ragionamenti sulla relazione tempo-energia. Un Elettrone libero non può emettere un fotone, per via della conservazione dell’energia, dato che inizialmente l’energia dell’Elettrone corrisponde alla sua massa, mentre nello stato finale ad essa si deve sommare anche l’energia del fotone. Tuttavia, la Teoria dei Quanti permette l’esistenza temporanea di “stati”, come il fotone emesso, in violazione “temporanea” della conservazione dell’energia. Un tale processo fisico naturale, che avviene esclusivamente per via di una violazione temporanea della conservazione dell’energia, viene chiamato “virtuale”. Se non ci fossero altri elettroni vicini, il fotone emesso sarebbe riassorbito rapidamente dall’Elettrone emettitore. D’altra parte, se si effettuano delle misure su un singolo Elettrone, non saremmo in grado di dire se ha emesso e assorbito o meno uno o più fotoni. Questo vuol dire che la massa che osserviamo sperimentalmente non può essere la massa nuda (quella di un Elettrone spogliato di tutti i processi virtuali) che resta quindi un parametro inaccessibile sperimentalmente. Se vicino all’Elettrone emettitore vi fosse invece un altro Elettrone, il fotone emesso da uno potrebbe essere immediatamente riassorbito dall’altro, mettendo a posto, complessivamente, il bilancio energetico. Questo scambio è alla base della descrizione quantistica dell’interazione fra due elettroni. Tuttavia il fotone virtuale, scambiato fra i due elettroni, potrebbe trasformarsi temporaneamente in una coppia elettrone-positrone. Questo tipo di processo virtuale porta a concludere che anche la carica elettrica nuda, come la massa, non è una quantità sperimentalmente accessibile. Negli anni si è imparato a calcolare e misurare le conseguenze dei processi virtuali che sono alla base della conoscenza della fisica dei processi elementari. Questi ragionamenti sono alla base della missione LISA Pathfinder dell’Agenzia Spaziale Europea (Esa) che ha il compito di testare nello spazio la rivelazione delle onde gravitazionali di bassa frequenza previste dalla Teoria della Relatività Generale di Einstein. Realizzata con un importante contributo italiano, la missione LISA Pathfinder testerà la rivelazione delle onde gravitazionali in ambiente spaziale attraverso il controllo e la misurazione ad altissima precisione del movimento di due masse in caduta libera. La missione ha l’obiettivo di aprire la strada alla costruzione di un enorme Osservatorio spaziale di onde gravitazionali, pianificato dall’Esa come terza grande missione del suo programma scientifico Cosmic Vision. Il ruolo di “principal investigator” della missione LISA Pathfinder è affidato a Stefano Vitale, docente ordinario di Fisica sperimentale all’Università degli Studi di Trento e membro del Trento Institute for Fundamental Physics and Applications (TIFPA) dell’Istituto Nazionale di Fisica Nucleare. Il lancio in orbita della sonda è assicurato dal vettore europeo per piccoli satelliti, Vega, il cui sviluppo è stato sostenuto dall’Italia con il 65% dei finanziamenti. LISA Pathfinder aprirà una nuova finestra di osservazione sul Cosmo, permettendo di studiare fenomeni e oggetti celesti finora mai osservati in prossimità della Terra. La nostra conoscenza dell’Universo e dei suoi fenomeni è basata sull’osservazione delle onde elettromagnetiche, come quelle prodotte dalla luce visibile, dai raggi X, dalle onde radio e dai raggi gamma. LISA Pathfinder si propone di aprire la strada a un modo completamente nuovo di osservare l’Universo, mediante la rilevazione delle onde gravitazionali previste dalla Teoria della Relatività Generale di Einstein (pubblicata il 2 Dicembre 1915) e rappresentate da increspature dello spaziotempo. LISA Pathfinder tenterà di mettere alla prova la rilevazione di questi fenomeni attraverso il primo Osservatorio spaziale “in miniatura” di onde gravitazionali, in cui verranno testate tutte le tecnologie necessarie alla progettazione del futuro “colosso” da inviare nello spazio in un futuro prossimo. La missione, che vede un rilevante contributo italiano, ha ultimato con successo le fasi di test al centro IABG di Ottobrunn, in Germania. Il cuore della missione è rappresentato dal LISA Technology Package, un sistema composto da due masse cubiche di oro-platino di 46 millimetri di lato “sospese” nel vuoto e da un sistema di sensori che hanno il compito di rivelare con altissima precisione il movimento delle due masse in condizioni di caduta libera, mediante l’interferometria laser, sempre grazie ai fotoni di Einstein. La realizzazione del LISA Technology Package è avvenuta ad opera di un consorzio di enti di ricerca europei, con il ruolo primario del nostro Paese nella definizione complessiva dell’architettura LTP e nella realizzazione dei sensori inerziali messi a punto da CGS SpA – Compagnia Generale per lo Spazio, con il finanziamento dell’Agenzia Spaziale Italiana e su progetto dei ricercatori dell’Università degli Studi di Trento e dell’Istituto Nazionale di Fisica Nucleare. “Rivelare le onde gravitazionali – osserva Stefano Vitale – permetterà di studiare fenomeni estremi e oggetti difficili da osservare, come i Buchi Neri. Sarà anche possibile fare la stratigrafia dell’Universo fino a ricostruire l’origine delle galassie e delle Stelle Nere che possiamo osservare oggi”. Tutto questo per la futura realizzazione di eLISA (evolved Laser Interferometer Space Antenna) il cui lancio è previsto invece per il 2034. Ma già la piccola LISA è una sonda di fondamentale importanza per conoscere meglio quelle increspature dello spaziotempo che nessuno finora è riuscito ad osservare direttamente, ma che potrebbero risolvere molti misteri, a cui gli astronomi e i tecnologi ancora non hanno dato risposta. La finestra di lancio si apre Mercoledì 2 Dicembre 2015 alle ore 4:15 GMT (ore 5:15 di mattina in Italia) dalla base di lancio di Kourou nella Guyana francese. Il vettore Vega accompagna nello spazio la sonda, Giovedì 3 Dicembre 2015, per 105 minuti. È il sesto volo per il lanciatore europeo Vega, quasi tutto basato su tecnologia italiana. Questo lancio è l’ultimo a contratto Verta (Vega Research fan Technology Accompainment) perché i prossimi voli saranno a carattere commerciale e ciò segna un cambio di passo per il progetto Vega finalmente votato alla liberalizzazione dell’impresa spaziale privata. Alle ore 5:49 GMT, LISA si separa dal vettore, trasmettendo i primi segnali: proprio questa fase è cruciale per gli ingegneri del centro di controllo Esoc a Darmstadt, Germania, che lavoreranno 24 ore su 24 per i primi dodici giorni per assicurarsi che LISA Pathfinder funzioni alla perfezione. Inizialmente la sonda viene posizionata in un’orbita di parcheggio transitoria e leggermente ellittica. Poi gli esperti seguiranno LISA fino alla sua destinazione finale, il Punto di Lagrange L1, una posizione virtuale di equilibrio gravitazionale nello spazio a circa 1,5 milioni di chilometri dalla Terra in direzione del Sole. La missione durerà in tutto 6 mesi. “A questo punto, se ci sono, come la Teoria di Einstein prevede, difficilmente potranno passare inosservate – precisa Roberto Battiston, il Presidente dell’ASI – le onde gravitazionali sono l’ultima frontiera dell’Astrofisica: la traccia a tutt’oggi inafferrabile della forza più elusiva che permea il nostro Universo. Elusiva al punto che solo quando da tranquille onde diventano veri e propri tsunami, a seguito di eventi gravitazionalmente catastrofici come la collisione fra due Buchi Neri, possiamo sperare di registrarne le increspature. E il sistema messo a punto dall’Agenzia Spaziale Europea sembra aver tutte le carte in regola per riuscirci”. E per consacrare definitivamente il genio assoluto di Albert Einstein. Questo primo Osservatorio spaziale metterà alla prova il concetto di rivelazione di onde gravitazionali dallo spazio dimostrando che è possibile controllare e misurare, con una precisione altissima, il movimento di due masse di prova, in lega d’oro e platino, in una caduta libera gravitazionale quasi perfetta, monitorata da un complesso laser. Il sottosistema di LISA Pathfinder, l’Optical Metrology Subsystem, registrerà il passaggio di onde gravitazionali misurando con un laser lo spostamento di due cubi d’oro-platino l’uno rispetto all’altro e nei test a terra ha dimostrato di poter raggiungere una precisione di due picometri, ovvero due miliardesimi di millimetro. Il che è davvero straordinario! Precisione sufficiente a registrare, nel tessuto dello spaziotempo, increspature come quelle attese dallo scontro fra corpi celesti di enorme massa. Eventi che, calcolano gli scienziati, dovrebbero indurre nei cubi di LISA Pathfinder spostamenti nell’ordine del picometro, un centesimo della dimensione media di un atomo. LISA Pathfinder è una sonda pesante circa 1900 chilogrammi, per cui è stato fondamentale il contributo italiano sia scientifico sia tecnologico. I sensori inerziali sono stati realizzati dall’Agenzia Spaziale Italiana che ha contribuito con una partecipazione del 13%, con il “prime contractor” industriale CGS (Compagnia Generale per lo Spazio) su progetto scientifico dei ricercatori dell’Università di Trento e dell’Istituto Nazionale di Fisica Nucleare guidati da Stefano Vitale. Per realizzare la sonda sono stati necessari 15 anni. La Teoria di Einstein ha previsto che queste fluttuazioni dovrebbero essere universali, generate dall’accelerazione di oggetti massicci. Tuttavia, ad oggi non sono state direttamente rilevate perché troppo piccole: le increspature emesse da due Buchi Neri orbitanti, ad esempio, provocano un allungamento di dimensioni inferiori a quelle di un atomo in un righello lungo un milione di chilometri. Il centro di LISA Pathfinder è costituito da una coppia di cubi identici di oro e platino di 46 mm, separati da 38 cm, isolati da tutte le forze interne o esterne che provino ad agire su di essi eccetto una, la Gravità. La missione metterà questi cubi nella caduta libera più pura mai prodotta nello spazio e ne monitorerà le relative posizioni con sorprendente precisione, mettendo le fondamenta per gli osservatori di onde gravitazionali nello spazio. Le future missioni saranno partner chiave dei siti a terra per la ricerca di questi sfuggenti messaggeri cosmici. Gli esperimenti a terra e nello spazio sono sensibili alle diverse sorgenti di onde gravitazionali, aprendo entrambi nuove possibilità di studiare alcuni dei fenomeni più potenti dell’Universo. Il lanciatore Vega si è alzato da terra alle 05:04 (04:04 GMT). Sette minuti più tardi, dopo la separazione dei primi tre stadi, la prima accensione dello stadio superiore del Vega ha spinto LISA Pathfinder nell’orbita bassa, seguita da un’altra spinta dopo circa un’ora e quaranta minuti di volo. La sonda si è separata dallo stadio superiore alle 06:49 (05:49 GMT). Gli addetti dal Centro Operativo dell’Esa a Darmstadt, in Germania, hanno quindi stabilito il controllo. Nel corso delle prossime due settimane, la sonda stessa alzerà l’orbita al punto più alto con sei accensioni critiche. L’ultima spingerà LISA Pathfinder verso la sua area operativa, orbitando intorno ad un punto virtuale stabile nello spazio chiamato Lagrangiano L1. Quando LISA Pathfinder raggiungerà la sua orbita operativa, in circa dieci settimane dal lancio, verso metà Febbraio 2016, dopo i controlli finali, agli inizi di Marzo, comincerà la sua missione scientifica vera e propria di sei mesi. In rotta verso l’orbita di destinazione finale, i due cubi saranno rilasciati dai meccanismi di blocco che li tengono solidali durante il lancio e il volo di crociera. Una volta intorno all’orbita L1, i meccanismi finali saranno sbloccati ed i cubi non saranno più in contatto meccanico con la sonda. Un complesso sistema di raggi laser che rimbalzano tra i due cubi misurerà quanto vicino alla vera caduta libera essi sono fino ad un miliardesimo di millimetro, misura mai raggiunta nello spazio. La sonda stessa sarà parte attiva dell’esperimento, accendendo minuscoli propulsori circa 10 volte al secondo per regolare la propria posizione ed evitare il contatto con i cubi, proteggendoli da qualsiasi forza che potrebbe impedire loro di muoversi sotto l’effetto della sola Gravità. Se queste misurazioni straordinariamente di alta precisione e le operazioni possono essere raggiunte da LISA Pathfinder, la porta si aprirà per costruire un futuro Osservatorio spaziale, capace di rilevare i piccoli disturbi dello spazio-tempo prodotti dalle onde gravitazionali, che ci si attende siano alcune decine di un miliardesimo di millimetro su distanze di milioni di chilometri. “Le onde gravitazionali sono la prossima frontiera per gli astronomi. Abbiamo guardato l’Universo nella luce visibile per millenni e attraverso tutto lo spettro elettromagnetico soltanto nell’ultimo secolo – osserva Alvaro Giménez Cañete, Direttore Esa della Scienza e dell’Esplorazione Robotica – ma testando con LISA Pathfinder le previsioni fatte da Einstein cento anni fa, stiamo aprendo la strada verso una finestra fondamentalmente nuova sull’Universo”. La sonda opererà come un laboratorio di fisica gravitazionale nello spazio. Nel corso dei sei mesi, gli scienziati di missione analizzeranno i dati ricevuti a terra dalle operazioni  di ogni giorno per pianificare gli esperimenti che il satellite dovrà eseguire nei giorni successivi. La Nasa ha fornito hardware e software aggiuntivi che contribuiscono alla missione validando un approccio tecnologico alternativo per evitare che la sonda faccia contatto con le masse di prova. La futura eLISA, si spera, sarà un interferometro spaziale ancora più potente, costituito da tre satelliti posti a 5 milioni di chilometri l’uno dall’altro secondo un “pattern” che ricorda un triangolo equilatero, tutti in movimento su un’orbita eliocentrica. I tre satelliti saranno in grado di captare anche le minime oscillazioni derivanti dal passaggio di un’onda gravitazionale in base al loro spostamento. La missione sarà unica nel suo genere perché i tre osservatori saranno in grado di rilevare anche piccoli spostamenti, dell’ordine di qualche picometro. Sempre grazie ad Einstein.

© Nicola Facciolini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *